O Instagram está prestes a iniciar experimentos com ferramentas que desfocam conteúdos inadequados para proteger os jovens e evitar a abordagem de pessoas mal-intencionadas, informou a empresa responsável pelo aplicativo, Meta, nesta quinta-feira (11).
A empresa enfrenta acusações nos Estados Unidos e na Europa por desenvolver aplicativos que incentivam o vício, resultando em questões de saúde mental para jovens. A Meta anunciou que vai implementar um recurso de proteção para mensagens diretas no Instagram, utilizando inteligência artificial para identificar qualquer imagem com conteúdo explícito.
O recurso estará automaticamente ativado para usuários com menos de 18 anos, sendo que a empresa enviará notificações aos adultos para encorajá-los a ativá-lo.
De acordo com a companhia, a verificação de conteúdo explícito será realizada internamente no dispositivo para garantir a segurança em conversas criptografadas. Porém, a empresa ressaltou que não terá acesso às imagens, a menos que sejam denunciadas.
Ao contrário do Messenger e WhatsApp, as mensagens privadas no Instagram não são protegidas por criptografia. No entanto, a companhia afirmou que pretende adotar essa medida de segurança no futuro.
A Meta informou que está trabalhando no desenvolvimento de tecnologia para detectar perfis que possam estar relacionados a fraudes de extorsão e está experimentando novas formas de comunicação com os usuários que possam ter se envolvido com esses perfis.
Em outubro, 33 Estados americanos entraram com ação contra a empresa, alegando que ela desinformou de maneira constante o público sobre os perigos em suas plataformas.
Na Europa, a Comissão Europeia está investigando como a Meta protege os menores de conteúdos ilegais e nocivos.