A poco de llevarse a cabo las elecciones de segundo término en EE.UU., Twitter Inc. lanzó el denominado servicio Twitter Blue, que consiste en una “verificación” del usuario que implica -en la práctica- identificarlo con una insignia azul[1]. En efecto, Twitter Blue proporciona una marca de verificación -entre otros beneficios, como ser la posibilidad de subir videos de mayor duración, disminución de anuncios, etc- a los usuarios que se suscriban mediante el pago de 8 dólares mensuales[2]. Dicho servicio pareciera estar limitado -por el momento- a usuarios de pocos países (Estados Unidos, Canadá, Reino Unido, Australia y Nueva Zelanda). Adicionalmente, Twitter incorporó una verificación adicional exclusivamente destinada a cuentas relacionadas con personalidades, medios y empresas, exhibiendo una etiqueta gris donde puede leerse "Oficial"[3].
Como era de imaginar, la avalancha de cuentas falsas no se hizo esperar[4]. La gravedad de la situación fue de tal magnitud que Twitter tomó la decisión de suspender -al menos por un tiempo- el servicio de Twitter Blue. Es que, presumiblemente, la urgencia en lanzar el nuevo servicio hizo relativizar los filtros y controles necesarios para asegurarse que quienes verifiquen una cuenta sean realmente quienes dicen ser.
Pero hubo un caso que, entiendo, resulta ejemplificador de los daños que puede causar un servicio como el de Twitter Blue. Me refiero a lo que ocurrió con la farmacéutica Eli Lilly[5], que experimentó una caída en la bolsa de un poco más del 4% del valor de sus acciones en oportunidad en que un usuario de Twitter, luego de “verificar” una cuenta con la marca azul como si fuera de Eli Lilly, anunciara que la insulina pasaba a ser gratuita.
En tal contexto, cabe preguntarse cómo debería ser evaluada la responsabilidad de una plataforma como Twitter frente a un reclamo por los daños causados por falta de control en la verificación de cuentas.
Si un reclamo como este se iniciara en Argentina, entiendo que no podría invocarse la doctrina y jurisprudencia existente en materia de conocimiento efectivo (también denominada como safe harbour, y que dio lugar al denominado procedimiento de "Notice and Take Down"). En efecto, no resultaría de aplicación la doctrina judicial elaborada por la Corte Suprema de Justicia de la Nación (en adelante, “CSJN”) in re “Rodríguez Belén”[6]. En tal leading case, la CSJN indicó que el buscador de Internet responderá cuando haya tomado efectivo conocimiento de la ilicitud del contenido, y tal conocimiento no haya sido seguido de un actuar diligente[7].
En otros términos, la CSJN consideró que de verificarse el conocimiento efectivo del contenido ilícito, “la ajenidad del buscador desaparece”, y si no se elimina el resultado de búsqueda, dicho ISP responderá a título de culpa. Con gran valor hermenéutico, y en particular ante la ausencia de legislación específica en la materia, la CSJN puntualizó: “[…] A los efectos del efectivo conocimiento requerido para la responsabilidad subjetiva, cabe preguntarse si es suficiente que el damnificado curse una notificación privada al "buscador" o si, por el contrario, es exigible la comunicación de una autoridad competente. En ausencia de una regulación legal específica, conviene sentar una regla que distinga nítidamente los casos en que el daño es manifiesto y grosero, a diferencia de otros en que es opinable, dudoso o exige un esclarecimiento, lo que registra antecedentes en alguna legislación […][8]Son manifiestas las ilicitudes respecto de contenidos dañosos, como pornografía infantil, datos que faciliten la comisión de delitos, que instruyan acerca de éstos, que pongan en peligro la vida o la integridad física de alguna o muchas personas, que hagan apología del genocidio, del racismo o de otra discriminación con manifiesta perversidad o incitación a la violencia, que desbaraten o adviertan acerca de investigaciones judiciales en curso y que deban quedar secretas, como también los que importen lesiones contumeliosas al honor, montajes de imágenes notoriamente falsos o que, en forma clara e indiscutible, importen violaciones graves a la privacidad exhibiendo imágenes de actos que por su naturaleza deben ser incuestionablemente privados, aunque no sean necesariamente de contenido sexual. La naturaleza ilícita -civil o penal- de estos contenidos es palmaria y resulta directamente de consultar la página señalada en una comunicación fehaciente del damnificado o, según el caso, de cualquier persona, sin requerir ninguna otra valoración ni esclarecimiento. Por el contrario, en los casos en que el contenido dañoso que importe eventuales lesiones al honor o de otra naturaleza, pero que exijan un esclarecimiento que deba debatirse o precisarse en sede judicial o administrativa para su efectiva determinación, cabe entender que no puede exigirse al "buscador" que supla la función de la autoridad competente ni menos aún la de los jueces. Por tales razones, en estos casos corresponde exigir la notificación judicial o administrativa competente, no bastando la simple comunicación del particular que se considere perjudicado y menos la de cualquier persona interesada […]” (el destacado me pertenece).
Es importante señalar que la CSJN -con nueva integración- ratificó la doctrina judicial sentada en el precedente “Rodríguez Belén” en el marco de los casos “Gimbutas, Carolina Valeria c/ Google Inc. s/ Daños y perjuicios” (fallo dictado por la CSJN con fecha 12/09/2017) y “Mazza, Valeria Raquel c/ Yahoo S.R.L. Argentina s/ Daños y perjuicios” (fallo dictado por la CSJN con fecha 24/06/2021).
En tal contexto, resulta indudable que en un caso como el del laboratorio Eli Lilly podría sostenerse que Twitter no actuó como un mero intermediario -es decir, con un rol meramente técnico, pasivo y neutral-, por lo que no podría alegar la inexistencia de una obligación general de monitorear y/o vigilar (arg. conf. fallo “Rodríguez Belén” antes citado).
Por el contrario, estamos ante un supuesto de responsabilidad directa por el hecho propio, ya que como se sostuvo en un reciente fallo “[…] lo que se le reprocha es que no haya controlado lo que sí hubiera podido controlar, esto es, la realidad de los datos vinculados con la identidad de los pretensos contratantes”[9]. En cuanto al factor de atribución -y más aún luego de los fallos dictados por la CSJN arriba aludidos- existe una marcada tendencia en la doctrina y jurisprudencia vinculada con temas de nuevas tecnologías, consistente en aplicar un factor de atribución subjetivo[10] [11].
Siguiendo este criterio, Twitter debería acreditar la diligencia desplegada en el caso[12], lo que podría equipararse a lo que en EE.UU. se exige como “accountability”.
Por otro lado, el tiempo de reacción por parte de la plataforma una vez notificada del evento dañoso también constituirá un parámetro a tener en cuenta para calibrar la gravedad y extensión de su responsabilidad.
En definitiva, en Argentina, la responsabilidad de una plataforma como Twitter respecto de los daños que puedan generarse a través de cuentas “verificadas” importaría una responsabilidad directa por hecho propio, la cual se fundaría, en principio, en los arts. 1716, 1724 y 1749 -y concordantes- del Código Civil y Comercial de la Nación[13]. También podría fundarse en la normativa de protección de datos personales, que impone la obligación de validar la identidad de los usuarios[14].
Citas
(*) Abogado egresado de la Universidad de Buenos Aires, socio fundador de AVOA- ABOGADOS. Docente de grado, posgrado y maestría -respectivamente- en la Facultad de Derecho de la Universidad de Buenos Aires, la Universidad Católica Argentina y la Universidad Austral, y profesor invitado en otras universidades. Autor de publicaciones vinculadas con Responsabilidad Civil y Derecho Procesal. Miembro del Instituto de Derecho de Daños del Colegio Público de Abogados de la Capital Federal.
[1] Algunas cuentas no pueden recibir la marca azul; entre ellas, las cuentas de parodia, las cuentas de mascotas y personajes ficticios, las cuentas involucradas en incumplimientos graves de la política de Twitter respeto de spam y manipulación de la plataforma, etc.
[2]Ver https://www.infobae.com/america/tecno/2022/11/06/twitter-blue-llega-con-videos-mas-largos-menos-anuncios-y-mas-opciones/
[3]Ver https://www.infobae.com/america/tecno/2022/11/09/twitter-habilita-la-verificacion-gris-para-estos-usuarios/
[4]Incluso ya se había alertado respecto de los graves riesgos que se podrían correr con tal servicio de verificación: https://www.infobae.com/america/tecno/2022/11/01/cibercriminales-usan-el-sistema-de-verificacion-de-twitter-para-robar-informacion-personal/.
[5] https://www.lilly.com/.
[6]Fallos, 337:1174. La sentencia de la CSJN fue dictada con fecha 28/10/2014. En este sentido remito a mi artículo “Luces y sombras en un nuevo pronunciamiento de la Corte Suprema de Justicia de la Nación respecto de la responsabilidad civil de los buscadores de internet (El Derecho, Diario de Doctrina y Jurisprudencia, Año LV, E.D. 275, pág. 11).
[7] Para fundar su postura la CSJN aludió al derecho comparado, resaltando que tanto en los países que tienen legislación específica como en aquellos que por ausencia de legislación recurren a los principios generales de la Responsabilidad Civil, se afirma que los buscadores de Internet no tienen una obligación general de monitorear los contenidos que se suben a la red.
[8]En este punto la CSJN remitió al art. 16 del Decreto-Ley 7/2004 de Portugal.
[9] CNCom., Sala C -30/08/2021- “Pergierycht, Damián c. OLX SA s/ ordinario”, SJA 17/11/2021, 78 JA 2021-IV, L.L 10/02/2022, La Ley Online, AR/JUR/131590/2021. El aludido tribunal con gran acierto también afirmó: “[…] El art. 1710 del CCyC ha incorporado expresamente […] el deber de prevención del daño […] estrechamente vinculado con la seguridad constitucionalmente reconocida a los usuarios y consumidores (arts. 42 y 43, CN). Esa es la perspectiva desde la cual debe juzgarse, según mi ver, si el proveedor que aquí interesa ha cumplido o no con esa obligación que sobre él pesaba de evitar los peligros para la salud y la integridad física de los usuarios (art. 5º de la LDC). Desde esa perspectiva, forzoso es concluir que dicha obligación no fue cumplida […] No haber pedido los datos del oferente, no haber validado su DNI, no haber exigido el reconocimiento facial de la cuenta, ni haber adoptado ningún otro método destinado a permitir su adecuada identificación, son elementos que indican que la demandada facilitó la maniobra, no la disuadió […]” (énfasis agregado).
[10]En cuanto a las características de esta tendencia recomiendo el siguiente artículo: Wierzba, Sandra M., “Límites del Derecho de Daños frente a los fenómenos del mundo virtual”, RCyS, Thomson Reuters La Ley, marzo 2016, portada.
[11]Se descartaría, en principio, la aplicación de un factor objetivo de responsabilidad. Obviamente, y atento al constante avance de la tecnología, no resultaría descabellado indagar si en el marco de la inteligencia artificial -que comprendería la informática cognitiva, aprendizaje automático (machine learning), aprendizaje profundo (deep learning), etc- podría justificarse la aplicación de un factor objetivo de atribución de responsabilidad civil. Indudablemente, no constituye un hecho controvertido que desde hace años los gigantes de internet han recurrido a la IA para mejorar sus sistemas, y que las herramientas de IA desarrolladas por dichas compañías son cada vez más sofisticadas. En este sentido, remito a un trabajo de mi autoría -si bien dirigido a la actividad de Buscadores de Internet- en el que sostuve que a partir de los avances de la IA no hay dudas de que dicha tecnología podría constituir una herramienta válida para hacer efectiva la función preventiva de los daños en el marco de la actividad de empresas que prestan servicios a través de internet (ver Gustavo A. Atta, “Inteligencia Artificial y Responsabilidad Civil de Buscadores de Internet”, publicado en “Inteligencia artificial y derecho, un reto social”, obra colectiva dirigida por el Dr. Horacio R. Granero, Albremática, Bs. As., 2020, págs. 89 y siguientes).
[12]Tal como he planteado en un reciente artículo (ver suplemento “Derecho, Innovación & Desarrollo, Revista de Doctrina y Jurisprudencia”, publicado por EL DERECHO, Año LXI, octubre de 2022, N° 9, “¿Una billetera virtual es una cosa riesgosa? Claro retroceso en la responsabilidad civil de intermediarios de Internet”, pág 26 y siguientes), resulta razonable invocar la existencia de una obligación de seguridad de medios, de conformidad con lo resuelto en el precedente “Pergierycht”. Se trataría de la diligencia exigible a un proveedor profesional de servicios prestados a través de Internet, estándar que permitiría calibrar de modo más concreto y ajustado la responsabilidad involucrada en el caso.
[13]Indudablemente, este tipo de asuntos requerirá de una evaluación caso por caso, y tratando siempre de profundizar en las cuestiones tecnológicas subyacentes. Es evidente que a tales fines los operadores jurídicos deberán contar con conocimientos tecnológicos mínimos (en tal sentido, y para un abordaje completo respecto del rol del abogado frente a una pretensión informática, ver Juan Darío Veltani, “El letrado ante la pretensión informática”, AbeledoPerrot, “Tratado de Derecho Procesal Electrónico”, segunda edición actualizada y ampliada, Tomo I, pág. 347 y ss).
[14]Para profundizar esta cuestión, ver Veltani, J. Darío - Iannello, Romina S., “Conceptos y mejores prácticas en la aplicación de la Ley de Protección de Datos Personales. La resolución 4/2019 de la Agencia de Acceso a la Información Pública”, en LA LEY 13/03/2019, pág. 1.
Opinión
Brons & Salas
opinión
ver todosKabas & Martorell
PASBBA
NORDELTA S.A.