Processo de segurança infantil tem como alvo Discord, Roblox, Snapchat e Facebook

Roblox e Discord estão entre as plataformas processadas por supostamente prejudicar crianças e adolescentes em um novo processo. A ação, que também tem como alvo a plataforma Facebook da Meta e o Snapchat da Snap, alega que os serviços das empresas “contêm recursos exclusivos de produtos que se destinam e incentivam o vício, conteúdo ilegal e uso desses produtos, em detrimento de seus usuários menores. ”

O Social Media Victims Law Center entrou com o processo em nome de uma menina de 13 anos identificada como SU, que começou a usar o Roblox por volta dos 9 anos. SU foi supostamente contatado no Roblox por um usuário de 18 anos que a encorajou a participar ele no Discord, Instagram e Snapchat. O processo alega que a comunicação levou a uma “dependência prejudicial e problemática” de dispositivos eletrônicos que prejudicaram sua saúde mental, enquanto a jovem de 18 anos incentivou SU a beber, enviar fotos explícitas e se envolver em outros comportamentos prejudiciais. Em 2020, SU supostamente tentou suicídio.

As alegações contra cada plataforma são diferentes, mas algumas são extraídas de fontes familiares, incluindo detalhes vazados sobre a pesquisa interna da Meta sobre como o Facebook e o Instagram afetam a autoestima dos adolescentes, além de vários relatos de que usuários menores de idade podem acessar conteúdo prejudicial. Para Discord e Roblox especificamente, a reclamação destaca a suposta falha das plataformas em impedir que adultos enviem mensagens para crianças sem supervisão.

“Mas para o marketing do Roblox para crianças… SU não teria sido exposto aos recursos inerentemente perigosos e defeituosos do réu Roblox.”

“Mas para o marketing da Roblox para crianças, representações de segurança e falha em alertar sobre danos conhecidos pela Roblox e decorrentes de seus produtos e recursos de mensagem direta… O caso. “Mas para os recursos de segurança defeituosos e/ou inerentemente enganosos do Discord e, independentemente, sua falha em realizar uma verificação razoável de idade, identidade e consentimento dos pais, a SU não teria sido exposta aos recursos inerentemente perigosos e defeituosos do réu Discord.”

Como a maioria dos casos contra redes sociais, o processo busca responsabilizar os serviços pelo design defeituoso do produto – e, no processo, contornar a Seção 230 da Lei de Decência nas Comunicações, que protege sites e aplicativos da responsabilidade por conteúdo e comunicações gerados pelo usuário. Um juiz do Oregon permitiu que um caso semelhante contra o Omegle prosseguisse em julho, argumentando que o serviço poderia ter feito mais para impedir que adultos e menores entrassem em contato uns com os outros.

Este caso e outros levantam questões sobre o equilíbrio entre proteger as crianças e preservar a privacidade online. O processo visa Discord e Roblox, por exemplo, por não verificar a idade e identidade dos usuários. Mas fazer isso com rigor suficiente pode exigir o fim do anonimato online nas principais plataformas, um problema que tem perseguido as tentativas de fazer sites pornográficos verificarem a idade dos usuários no Reino Unido. Por enquanto, o futuro desse processo provavelmente dependerá de uma série de outras decisões legais dos EUA – incluindo um próximo caso da Suprema Corte sobre algoritmos de recomendação.

Deixe uma resposta