Roblox anuncia sistema de verificação de idade por IA para proteger crianças na plataforma
Apesar de sua enorme popularidade entre os jovens jogadores, o Roblox tem sido cada vez mais questionado por supostamente não fazer o suficiente para proteger as crianças de possíveis predadores na plataforma. Agora, o Roblox está se preparando para introduzir uma série de mudanças projetadas para impedir que as crianças conversem com adultos que não conhecem.
Conforme relatado pelo The Guardian, o Roblox começará a aplicar restrições com estimativa de idade facial que só permitirá que as crianças conversem com estranhos se estiverem na mesma faixa etária. Os novos grupos etários são: menores de 9 anos, 9 a 12 anos, 13 a 15 anos, 16 a 17 anos, 18 a 20 anos e 21 anos ou mais. Como exemplo dado, crianças estimadas em 12 anos não terão permissão para conversar com qualquer pessoa acima de 15 anos.
Essas mudanças chegarão à Austrália, Nova Zelândia e Holanda em dezembro, com o resto do mundo seguindo o exemplo em janeiro de 2026.
‘Nós vemos isso como uma forma de nossos usuários terem mais confiança em quem são as outras pessoas com quem estão conversando nesses jogos’, disse o diretor de segurança do Roblox, Matt Kaufman, em um comunicado. ‘E, portanto, vemos isso como uma oportunidade real para construir confiança na plataforma e construir confiança entre nossos usuários.’
O relatório do The Guardian inclui informações sobre vários processos judiciais movidos contra o Roblox nos EUA por famílias que acusam a empresa de fechar os olhos para os predadores que exploraram sexualmente seus filhos na plataforma.
Em 2024, o Roblox foi banido na Turquia devido a preocupações semelhantes. O Roblox começou a solicitar selfies em vídeo para determinar a idade dos usuários no verão passado. Essas medidas não impediram que legisladores da Califórnia, Louisiana e Flórida criticassem a empresa ou abrissem investigações sobre sua conduta.
Share this content:



Publicar comentário