El gigante tecnológico acepta pagar 37.5 millones de dólares tras ser acusado de facilitar un «mercado para depredadores» y ocultar la magnitud de la explotación en sus redes.

En un giro significativo para la responsabilidad de las Big Tech, Meta Platforms Inc. ha llegado a un acuerdo para resolver una demanda que pone al descubierto las grietas de seguridad en Instagram y Facebook. El litigio, que escaló hasta los tribunales de Estados Unidos, señalaba que la empresa no solo falló en proteger a los usuarios más jóvenes, sino que sus propios algoritmos y decisiones de diseño facilitaron de manera proactiva el contacto entre adultos depredadores y menores de edad.

Un sistema diseñado para la vulnerabilidad

La acusación central de este caso se basa en que Meta operaba bajo una «ceguera voluntaria». Según documentos internos desclasificados durante el proceso, investigadores de seguridad de la propia compañía advirtieron a la alta gerencia que se producían aproximadamente 500,000 incidentes de explotación infantil al día en sus plataformas. A pesar de estas cifras alarmantes, la empresa habría priorizado el crecimiento de usuarios y el tiempo de permanencia (engagement) por encima de la implementación de barreras de seguridad más estrictas.

El «Modus Operandi»: Algoritmos al servicio del grooming

La demanda destacó cómo las herramientas de recomendación de Meta conectaban a personas con intereses en contenido sexual infantil, creando redes donde los depredadores podían identificar y contactar a víctimas fácilmente. Además, se reveló que la empresa permitió que anuncios de grandes marcas aparecieran junto a contenido que sexualizaba a menores, monetizando indirectamente situaciones de riesgo extremo.

Un precedente para futuros juicios

Aunque Meta ha negado las acusaciones de negligencia deliberada, el pago de estos 37.5 millones de dólares se suma a una serie de presiones legales en estados como Florida y Nuevo México. Este acuerdo es visto por expertos legales como una grieta en la «Sección 230», la ley que históricamente ha protegido a las redes sociales de ser responsables por el contenido publicado por terceros. En este caso, el enfoque no fue el contenido en sí, sino el diseño defectuoso del producto que expone a los niños a daños previsibles.


Fuentes

  1. Última Hora: Meta debe pagar 37,5 millones de dólares por ocultar explotación infantil
  2. The Guardian: ‘Marketplace for predators’: Meta faces jury trial over child exploitation claims
  3. Bloomberg Law: Meta Jurors Weigh Fine in New Mexico Kid Safety Trial
  4. Fox Business: Meta researcher warned of 500K child exploitation cases daily
  5. Malwarebytes Labs: Child exploitation and social media addiction claims put Meta on trial
WP Radio
WP Radio
OFFLINE LIVE
Scroll al inicio