Meta testa recursos para proteção de usuários menores de 18 anos

0
156

O Instagram está prestes a iniciar experimentos com ferramentas que desfocam conteúdos inadequados para proteger os jovens e evitar a abordagem de pessoas mal-intencionadas, informou a empresa responsável pelo aplicativo, Meta, nesta quinta-feira (11).

A empresa enfrenta acusações nos Estados Unidos e na Europa por desenvolver aplicativos que incentivam o vício, resultando em questões de saúde mental para jovens. A Meta anunciou que vai implementar um recurso de proteção para mensagens diretas no Instagram, utilizando inteligência artificial para identificar qualquer imagem com conteúdo explícito.

O recurso estará automaticamente ativado para usuários com menos de 18 anos, sendo que a empresa enviará notificações aos adultos para encorajá-los a ativá-lo.

De acordo com a companhia, a verificação de conteúdo explícito será realizada internamente no dispositivo para garantir a segurança em conversas criptografadas. Porém, a empresa ressaltou que não terá acesso às imagens, a menos que sejam denunciadas.

Ao contrário do Messenger e WhatsApp, as mensagens privadas no Instagram não são protegidas por criptografia. No entanto, a companhia afirmou que pretende adotar essa medida de segurança no futuro.

A Meta informou que está trabalhando no desenvolvimento de tecnologia para detectar perfis que possam estar relacionados a fraudes de extorsão e está experimentando novas formas de comunicação com os usuários que possam ter se envolvido com esses perfis.

Em outubro, 33 Estados americanos entraram com ação contra a empresa, alegando que ela desinformou de maneira constante o público sobre os perigos em suas plataformas.

Na Europa, a Comissão Europeia está investigando como a Meta protege os menores de conteúdos ilegais e nocivos.

Deixa uma resposta

Por favor, deixe o seu comentário:
Por favor, digite seu nome