El pasado 16 de marzo de 2026, la Comisión de Protección al Consumidor N.º 3 del Indecopi marcó un hito en la jurisprudencia administrativa peruana con la Resolución 010-2026/CC3. Si bien, la noticia nos habla de la multa de 202.96 UIT impuesta a Scotiabank por llamadas comerciales spams, el verdadero debate jurídico subyacente es mucho más profundo. En un escenario donde la tecnología redefine la práctica legal, la IA aparece de forma transversal en el sector privado como en el público, y es aquí donde quiero hacer un llamado a la reflexión.
Como abogada inmersa en el ecosistema Legaltech, este caso me resulta fascinante porque materializa conflictos que nos atraviesan en el día de hoy. A continuación, analizo los tres pilares, que, para mí resultan críticos de esta resolución.
1. Whisper y la fiscalización masiva:
El primer gran hito de este caso es el despliegue de una capacidad de análisis que hasta hace poco era impensable para la administración pública. La Dirección de Fiscalización (DFI) se enfrentó a un muro de 1,207,166 audios. Procesar este volumen de información de manera manual no solo habría tomado años, sino que habría hecho inviable cualquier sanción oportuna.
Para superar este obstáculo, la autoridad implementó Faster-Whisper (modelo large-v3-turbo), una librería de inteligencia artificial de OpenAI diseñada para el reconocimiento de voz y traducción de lenguaje natural. Gracias a esta herramienta, la DFI pudo:
- Depurar el ruido: Realizar un data cleaning automático para descartar llamadas de contestadoras o audios con menos de 5 palabras.
- Identificar patrones en masa: Filtrar y clasificar un universo de 657,606 audios que contenían "expresiones publicitarias", permitiendo identificar de forma precisa dónde se estaban empleando presuntos métodos comerciales agresivos.
Desde la perspectiva Legaltech, lo relevante aquí es el salto de escala. Donde antes un equipo de abogados habría tardado décadas en escuchar y transcribir, hoy el algoritmo entrega resultados estructurados en cuestión de horas. La IA no solo ha optimizado el tiempo; ha permitido que el Estado sea capaz de fiscalizar lo que antes, por pura limitación física, era inmanejable, demostrando que la tecnología colabora a ese camino viable para que la justicia sea más efectiva y eficiente.
2. El debate sobre la "Caja Negra" y el Control humano:
El segundo es, sin duda, la garantía procesal. Uno de los puntos de mayor fricción en este caso fue el cuestionamiento de Scotiabank sobre la transparencia y explicabilidad algorítmica. El banco sostuvo que la imputación se basó en una metodología de "caja negra". Según este argumento, al no revelarse con precisión la lógica interna, los umbrales de activación ni las palabras clave exactas que el algoritmo utilizó para calificar las llamadas, se generó una brecha de confianza que imposibilitaba un derecho de defensa efectivo. Sin embargo, el Indecopi resolvió esta tensión estableciendo un estándar que será referencia en el sector Legaltech, la IA no sustituyó el juicio de la autoridad, sino que operó como un "filtro técnico" preliminar para manejar la inmanejabilidad de los datos, logró purificar cualquier sesgo o error que el algoritmo pudiera haber cometido.
La clave de la validez jurídica de la resolución reside en el concepto de "Control Humano Efectivo". La autoridad demostró que:
- La IA no decidió sola: Un equipo legal y económico realizó una revisión manual y directa de la muestra extraída.
- Auditabilidad y replicabilidad: Se entregaron al banco los informes metodológicos y los códigos en R y Python, permitiendo que la defensa pudiera replicar el experimento y verificar los resultados.
- Purificación de la prueba: Fue precisamente la intervención humana la que permitió detectar y excluir "falsos positivos" (llamadas clasificadas erróneamente por la IA), lo que demuestra que el criterio jurídico humano actuó como el filtro final de veracidad.
Para nosotros en el mundo de la IA, este razonamiento es fundamental, la tecnología propone patrones, pero es la supervisión humana cualificada la que dota a la evidencia de la certeza necesaria para imponer una sanción. El algoritmo no fue el juez, fue el asistente más eficiente del fiscalizador.
3. Compliance: El consentimiento es nominal y específico:
Por último, más allá del despliegue tecnológico, el caso aterriza en un problema crítico de Compliance y protección de datos. Uno de los puntos de defensa de Scotiabank fue su intento de validar comunicaciones comerciales basándose en consentimientos obtenidos por Crediscotia Financiera, alegando que ambas forman parte del mismo grupo económico.
La respuesta del Indecopi es tajante y sienta un estándar de oro: el consentimiento es nominal. Para la autoridad, la autorización del consumidor no es un "cheque en blanco" que se transfiere por sinergias corporativas. Según el fallo, la autorización debe ser previa, informada, expresa y, fundamentalmente, específica para la entidad que realiza el contacto.
La interpretación extensiva del consentimiento no es una zona gris, es una infracción directa que, en este caso, se ha traducido en una multa de 202.96 UIT.
A mi consideración, resulta imperativo que los sectores públicos de los distintos países levanten la mirada y observen las prácticas internacionales que se van aplicando en la región latinoamericana y en la Unión Europea, en donde ya están implementando marcos de transparencia algorítmica para asegurar que la eficiencia no sacrifique las garantías constitucionales, debemos replicar modelos donde:
- Los algoritmos de fiscalización sean auditables por las partes.
- Exista una gobernanza de datos robusta que evite sesgos en la selección de muestras.
- Se fomente la interoperabilidad tecnológica entre instituciones.
Estamos ante la prueba de que la Inteligencia Artificial permite al Estado trascender la fiscalización reactiva para construir una gestión pública simplificada, capaz de predecir necesidades ciudadanas y, sobre todo, de transparentar sus propios procesos mediante la trazabilidad algorítmica.
Desde mi rol en Juztina AI, veo esto como una señal de alerta y una oportunidad, estamos frente a una realidad innegable, la Inteligencia Artificial está atravesando todas las profesiones y sectores que hasta hoy funcionaban de una manera distinta, redefiniendo por completo nuestra forma de trabajar, analizar y decidir. Ante este cambio de paradigma, la postura profesional no debe ser la ignorancia o el temor, sino la incorporación responsable y eficiente de estas herramientas en nuestra práctica diaria
Como demuestra este caso, el éxito no reside en el algoritmo más potente, sino en la capacidad humana de dirigir esa potencia con ética y responsabilidad, asegurando que la tecnología sea siempre un aliado estratégico al servicio de la justicia y nunca un sustituto de la razón.
Opinión
Negri & Pueyrredón Abogados
opinión
ver todosCassiopeia Immigration Services





















































































































