Qué hay detrás del juicio a Meta y Google

10.03.2026

Especialistas en comunicación y políticas públicas dan su mirada sobre el juicio que está en curso en Los Ángeles, Estados Unidos.

El juicio contra Meta y Google que se tramita en Los Ángeles, California, tiene múltiples aristas. Si bien el debate gira en torno a si las redes sociales fueron diseñadas para generar adicción, detrás de esta discusión hay otros problemas fundamentales: la (no) regulación de estas plataformas, el poder desmedido que tienen los gigantes tecnológicos y los desafíos que se plantean para los Estados desde el punto de vista del derecho a la información, la soberanía tecnológica e incluso, como muestra este caso, la salud de la población. Especialistas en comunicación y políticas públicas dialogaron con Página/12 y dieron sus visiones respecto a qué hay detrás de este juicio inédito.

"Este juicio es resultado de la incapacidad de los estados para regular y poner freno a las violaciones de derechos que cometen las plataformas digitales. En la medida en que no se pudo articular respuestas colectivamente, ahora el debate sobre las redes sociales aparece en el marco de un juicio impulsado por un grupo de individuos que sufrieron afectaciones en su salud mental", sostuvo Luis Lozano, doctor en Derechos Humanos, licenciado en Ciencias de la Comunicación de la UBA y profesor adjunto de la materia Políticas Internacionales de Comunicación de esa carrera.

En la misma línea, Cecilia Rikap --jefa de Investigación en el Instituto de Innovación y Propósito Público de la University College London-- señaló que esta causa judicial "no habría existido como tal si los gobiernos en el mundo regularan las redes sociales en cuestiones que ya son harto conocidas", como, por ejemplo, en que "diseñan los algoritmos intencionalmente para generar adicciones, lo cual debería estar prohibido, no importa la edad de la persona". Algunas de estas cuestiones son abordadas por Rikap en el libro Teoría de la dependencia digital. Soberanía y desarrollo en el capitalismo del siglo XXI,quepublicará Caja Negra en los próximos días.

El especialista en políticas públicas de la tecnología Javier Pallero, opinó que "el derecho de daños --demandar a una empresa por el perjuicio que causó-- es el último recurso. El objetivo de una buena política pública es alinear incentivos antes de que el daño ocurra, no litigar después. El problema es que hoy esa política no existe de manera efectiva, entonces las víctimas no tienen otro camino".

El control parental y la restricción de uso de redes sociales para menores de 13 años; el diseño algorítmico de las redes para retener a los usuarios (y generar adicción) y los efectos de los filtros de belleza, como la dismorfia corporal, son tres de los ejes sobre los que se vertebra el juicio con sede en Los Ángeles.

Controles parentales

El intercambio entre Mark Lanier, el abogado de Kaley GM --la joven que impulsó el juicio al contar que sufrió graves daños psíquicos por el uso de redes sociales desde los seis años, como ansiedad, depresión y dismorfia corporal--, y Mark Zuckerberg marcó el pulso de lo que se dirime en el juicio. El CEO de Meta aseguró que sus redes sociales cuentan con controles para que los menores de 13 años no tengan acceso. La regulación de Estados Unidos es clara al respecto: el Acta de Protección de la Privacidad Infantil en Línea (COPPA) prohíbe recolectar datos de menores de 13 años sin el consentimiento de sus padres o tutores. "Hay un grupo de personas, potencialmente un número significativo, que mienten sobre su edad para usar nuestros servicios", fue el argumento esgrimido por Zuckerberg.

Lanier interpeló al CEO de Meta con pruebas que evidencian que la empresa sabía que había menores utilizando las plataformas. Mostró un documento interno de la empresa de 2015, en el que se estima que Instagram tenía más de cuatro millones de usuarios menores a 13 años, lo cual representaba el 30 por ciento de todos los niños de entre 10 y 12 años de Estados Unidos. Más adelante apuntó que recién en 2019 Instagram comenzó a pedirles a los usuarios que ingresaran una fecha de nacimiento.

"Podríamos haberlo hecho mejor", reconoció Zuckerberg. Más allá de la necesidad de que exista un control parental más férreo, el CEO esbozó una propuesta que puede implicar una extracción de datos todavía más profunda sobre los usuarios. Por ejemplo, a través de datos biométricos como huellas dactilares o reconocimiento de iris. Los especialistas consultados por Página/12 advirtieron sobre los riesgos de este avance.

"La propuesta tiene una trampa obvia: resolver el problema de los menores en redes creando un problema mayor para todos. Verificar la edad sin verificar identidad es técnicamente muy difícil, así que cualquier sistema termina recogiendo huella dactilar, iris, documento, o alguna combinación. Eso significa que la plataforma --o el tercero al que le delega esa función-- acumula datos biométricos de toda su base de usuarios", señaló Pallero. "Quieren suplir ese problema violando más derechos, con un nuevo mecanismo de acumulación de riqueza basado en nuevas violaciones de derechos", coincidió Lozano.

Para Rikap, uno de los mayores riesgos en relación a las plataformas es "normalizar la ingesta descomunal de datos de absolutamente todo lo que hacemos, la cuantificación de nuestra vida al nivel de registrar nuestras huellas dactilares o incluso nuestros movimientos, cómo se mueven nuestros ojos o las pupilas". En este sentido, advirtió que la solución a la restricción de uso de menores de 13 años "no puede ser avanzar en la posibilidad que se les da a estas empresas de seguir recolectando más datos de la población, para que después continúen monetizándolos para su propio y exclusivo beneficio".

Los filtros de belleza y el debate por la libertad de expresión

Otro de los planteos de Lanier apuntó al modo en que Instagram permitió el uso de filtros de belleza. Estas alteraciones de la imagen que permiten que las personas se vean maquilladas, con pieles más lisas, ojos grandes y labios prominentes tienen graves consecuencias, en particular entre adolescentes, sobre la aceptación de sus cuerpos. Son denominadas "dismorfias de redes sociales" y tienen un correlato en cirugías estéticas: cada vez más personas se someten a operaciones para parecerse a la imagen de sí mismos que les entregan los filtros.

Para defenderse, Zuckerberg sacó a relucir uno de los principales argumentos al que apelan las empresas de tecnologías desde que salieron al mercado: la libertad de expresión: "Pensé que el equilibrio de la libertad de expresión debía permitir que las personas crearan esos filtros, pero que nosotros no debíamos crearlos", dijo el CEO de Meta.

Lozano explicó que este argumento se apoya en la idea de que las redes sociales son plataformas que no tienen responsabilidad editorial sobre los contenidos, se presentan simplemente como intermediarios entre usuarios. "Durante muchos años las plataformas disfrutaron de este doble estatuto de soporte, de no cumplir rol editorial, de no proponerse a sí mismos como medio de comunicación, de jurar y perjurar que no llevaban a cabo ninguna actividad editorial sobre los contenidos, ni siquiera el algoritmo".

El doctor en Derechos Humanos recordó que "esta idea se desmontó en los últimos años y las empresas de plataformas tuvieron que asumir que obviamente cumplían funciones de curaduría de contenido y funciones editoriales, entre muchas otras". Los algoritmos están cargados de sesgos --de clase, de raza, de género, por ejemplo-- y la propia dinámica que proponen implica un contenido editorial, en particular cuando lo que buscan es la mayor permanencia en la red posible.

"Es imposible sostener que no existe responsabilidad editorial, que no hay una curaduría sobre los contenidos y que los mecanismos técnicos, los algoritmos, no encierran mecanismos de predicción de contenido perfilados. Se trabaja con datos personales de manera ilegal para construir estos perfiles y se genera contenido que busca mantener al usuario el mayor tiempo posible dentro de la plataforma", detalló Lozano.

El otro gran argumento que esgrimen las empresas para evitar las regulaciones estatales es que cualquier regulación atenta contra la innovación tecnológica. "Esto lo vemos ahora también con la inteligencia artificial: el argumento es que la mejor ley es la que no existe, porque si existe una ley, mata la innovación", repuso el especialista. En nombre de estos principios, para Lozano una de las consecuencias de esto es que "los estados fueron quedando muy relegados, cuando no cómplices e impulsores de este crecimiento monopólico sin control de las empresas, crecimiento que en muchos casos afecta pilares sustanciales del Estado de Derecho y de las democracias".

Atrapar a los usuarios

Uno de los elementos centrales sobre los que se apoya la no neutralidad algorítmica de las empresas de plataformas, y que atañe al meollo del juicio, es la búsqueda de capturar a los usuarios y mantenerlos la mayor cantidad de tiempo posible en la red. El abogado de la querella interpeló a Zuckerberg por esta dinámica: le preguntó si la empresa había tenido como objetivo maximizar el tiempo de los usuarios en la red. El CEO de Meta contestó que al principio la empresa tenía metas específicas de tiempo, y que luego el enfoque mutó hacia la "utilidad y valor".

Lanier mostró otro documento interno de diciembre de 2015 en el que Zuckerberg presentaba un plan de tres años para elevar el tiempo de permanencia de los usuarios en Instagram. La respuesta del empresario fue que "hay una suposición básica que tengo de que si algo es valioso, entonces la gente lo hará más". "Solíamos dar objetivos a los equipos, pero cambiamos eso porque no creo que sea la mejor manera de dirigir la empresa", agregó.

La clave de esta discusión está encriptada en los algoritmos: en esas funciones está cifrada la política de la empresa de atrapar a los usuarios. Es por este motivo que uno de los principales reclamos es la apertura del algoritmo. Rikap sostuvo que resulta fundamental "exigir a las empresas como Meta y las demás empresas internacionales que operen redes sociales la apertura de sus algoritmos, que permitan que los gobiernos auditen regularmente sus algoritmos. Porque este es un problema estructural de los algoritmos".

Para la economista, "debería estar prohibido que el algoritmo promueva la adicción a las redes sociales, en todas sus formas: el feed infinito, la autorrecomendación y el autoplay de los videos. Hay un montón de características --atributos-- de estas redes que deberían estar prohibidos y al mismo tiempo sus algoritmos deberían ser auditables".

Pallero nombró este mismo gesto como "transparencia algorítmica": "obligar a las plataformas a explicar qué muestra, a quién, bajo qué criterios y por qué". El especialista sumó la necesidad de velar por una "protección de los datos personales real", "no solo el dato directo --nombre, mail, teléfono-- sino los datos inferidos, los perfiles construidos por cruce de bases y modelos predictivos. El derecho a que esos datos se eliminen cuando dejás de usar un servicio, no seis meses después y no en teoría". Además, advirtió que el problema no pasa solamente por el acceso de chicos y adolescentes, dado que "el diseño de las plataformas es dañino para adultos también".

Más allá de lo que suceda con el juicio, estos ejes deben ser abordados por los estados y a nivel interestatal. De otra manera, la voracidad de las empresas de tecnología seguirá haciendo estragos sobre la salud mental de los usuarios, las dinámicas de las democracias y la soberanía de los países, entre muchas consecuencias.

Fuente:

https://www.pagina12.com.ar/