¿Qué es ser inteligente en la era de la IA? El poder de la co- creación y la inteligencia aumentada
Por Raquel Sofía Mass

Durante siglos, la inteligencia fue considerada un atributo exclusivamente humano. Capacidad de razonar, de crear, de resolver problemas, de anticipar consecuencias. El Derecho, la educación, la economía y la política se construyeron sobre esa base: el ser humano como único sujeto racional y, por tanto, responsable de sus actos.

 

Pero hoy, en este mundo hiperconectado, globalizado y digitalizado, convivimos con sistemas capaces de aprender, escribir, diagnosticar, componer música o redactar contratos. La inteligencia artificial ya no es una herramienta, es una presencia cotidiana que desafía nuestras certezas sobre lo que significa pensar.

 

Entonces, ¿qué es ser inteligente en la era de la IA?

 

¿Saber más, procesar más, predecir mejor?

 

¿O, tal vez, comprender lo que las máquinas aún no pueden sentir?

 

Si la inteligencia fuera solo cálculo y lógica, las máquinas ya nos habrían superado. Pero la inteligencia humana no se agota en la razón: también implica intuición, empatía, juicio ético, imaginación. Ser inteligente no es solo resolver un problema; es comprender su contexto, anticipar su impacto, asumir sus consecuencias.

 

Esa dimensión moral y emocional es la que el Derecho ha protegido históricamente: la capacidad de discernir entre lo correcto y lo incorrecto, lo justo y lo injusto. Y tal vez ahí esté el verdadero desafío: no competir con la inteligencia artificial, sino definir qué nos hace inteligentes como especie.

 

Durante más de dos siglos, los sistemas jurídicos se basaron en un mismo presupuesto: el sujeto racional como eje de derechos y deberes. Hoy, esa base entra en conflicto con la realidad. Las máquinas toman decisiones automatizadas que afectan derechos fundamentales —desde la privacidad hasta la libertad— y, sin embargo, no pueden ser responsables en el sentido tradicional.

 

¿A quién atribuimos la voluntad cuando una IA actúa? ¿Al programador, al usuario, al modelo de IA, al sistema que “aprende” solo? ¿O debemos aceptar que la noción de responsabilidad, como la de inteligencia, necesita ser redefinida?

 

Regular la IA no es solo un problema técnico, es una revisión ontológica del Derecho. Nos obliga a repensar categorías como autoría, autonomía y previsibilidad en un mundo donde los límites entre lo humano y lo artificial se vuelven difusos.

 

Quizás la respuesta no esté en la tecnología, sino en nosotros mismos. Ser inteligente hoy probablemente no sea dominar las máquinas, sino convivir con ellas sin perder los atributos intrínsecamente humanos. Quizás se trate de desarrollar la habilidad para incorporar a nuestras tareas a asistentes super inteligentes que nos permita a los humanos combinar razón y sensibilidad, datos y ética, eficiencia y empatía.

 

El Derecho, como sistema de pensamiento colectivo, tiene la oportunidad —y la obligación— de liderar ese proceso. No sólo regulando lo nuevo, sino repensando sus propias categorías a la luz de una inteligencia que ya no es solo humana, pero que sigue dependiendo de nuestra capacidad de elegir y decidir con conciencia. Porque en un mundo donde las máquinas piensan, el verdadero signo de inteligencia será saber cuándo detenerse, dudar, o simplemente escuchar.

 

 

Opinión

Argentina y Estados Unidos avanzan en un nuevo marco comercial: hacia un posible rediseño del régimen de propiedad intelectual
Por Damaso Pardo
Bruchou & Funes de Rioja
detrás del traje
Nos apoyan