Roblox y Discord enfrenta demanda, por no mantener a los adultos separados de los niños, entre otras acusaciones

Únete a nuestra comunidad en Telegram

Roblox y Discord pasan a engrosar la lista de plataformas sociales demandadas por supuestamente dañar a niños y adolescentes en una nueva demanda. La demanda, que también apunta a la plataforma de Facebook de Meta y Snapchat de Snap, alega que los servicios de las compañías «contienen características únicas del producto que están destinadas y fomentan la adicción, y el contenido ilegal y el uso de dichos productos, en detrimento de sus usuarios menores».

Presentada en la corte estatal de California, la demanda es una de las muchas presentadas contra las grandes compañías de redes sociales. Pero comparativamente pocos de estos han cubierto Discord y Roblox, los cuales son populares entre los usuarios jóvenes. (Más de la mitad de los niños estadounidenses estaban en Roblox a partir de 2020). Se produce poco después de que el gobernador de California, Gavin Newsom, firmara una ley que requiere que los sitios cambien la forma en que tratan a los usuarios menores de 18 años y sigue a un forense del Reino Unido que culpa directamente a las redes sociales por el suicidio de un adolescente, aunque no de una manera que tenga consecuencias legales claras.

El Social Media Victims Law Center presentó la demanda en nombre de una niña de 13 años identificada como S.U., que comenzó a usar Roblox alrededor de los nueve años. S.U. supuestamente fue contactado en Roblox por un usuario de 18 años que la alentó a unirse a él en Discord, Instagram y Snapchat. La demanda afirma que la comunicación condujo a una «dependencia dañina y problemática» de los dispositivos electrónicos que dañaron su salud mental, mientras que la joven de 18 años alentó a S.U. a beber, enviar fotos explícitas y participar en otros comportamientos dañinos. En 2020, S.U. supuestamente intentó suicidarse.

Las afirmaciones contra cada plataforma son diferentes, pero algunas se extraen de fuentes familiares, incluidos detalles filtrados sobre la investigación interna de Meta sobre cómo Facebook e Instagram afectan la autoestima de los adolescentes, así como numerosos informes de que los usuarios menores de edad pueden acceder a contenido dañino. Para Discord y Roblox específicamente, la queja destaca el supuesto fracaso de las plataformas para evitar que los adultos envíen mensajes a los niños sin supervisión.

«Pero para el marketing de Roblox a los niños … S.U. no habría estado expuesto a las características inherentemente peligrosas y defectuosas del acusado Roblox».

«Pero para el marketing de Roblox a los niños, las representaciones de seguridad y la falta de advertencia de los daños conocidos por Roblox y que surgen de sus productos y capacidades de mensaje directo … S.U. no habría estado expuesto a las características inherentemente peligrosas y defectuosas del acusado Roblox», dice el caso. «Pero para las características de seguridad defectuosas y / o inherentemente engañosas de Discord y, de forma independiente, su falta de verificación razonable de la edad, la identidad y el consentimiento de los padres, S.U. no habría estado expuesto a las características inherentemente peligrosas y defectuosas del acusado Discord».

Al igual que la mayoría de los casos contra las redes sociales, la demanda busca responsabilizar a los servicios por el diseño defectuoso del producto y, en el proceso, eludir la Sección 230 de la Ley de Decencia en las Comunicaciones, que protege a los sitios y aplicaciones de la responsabilidad por el contenido y las comunicaciones generadas por el usuario. Un juez de Oregón permitió que un caso similar contra Omegle continuara en julio, argumentando que el servicio podría haber hecho más para evitar que adultos y menores se comuniquen entre sí.

Este caso y otros plantean preguntas sobre el equilibrio entre la protección de los niños y la preservación de la privacidad en línea. La demanda apunta a Discord y Roblox, por ejemplo, por no verificar las edades e identidades de los usuarios. Pero hacerlo con suficiente rigor podría requerir poner fin de manera efectiva al anonimato en línea en las principales plataformas, un problema que ha perseguido los intentos de hacer que los sitios porno verifiquen las edades de los usuarios en el Reino Unido. Por ahora, el futuro de esta demanda probablemente dependerá de una serie de otras decisiones legales de los Estados Unidos, incluido un próximo caso de la Corte Suprema sobre algoritmos de recomendación.

Últimas noticias