Uma mãe devastada que afirma que seu filho adolescente foi incitado a se matar por um chatbot de IA disse que ele ficou tão viciado no produto que ela confiscou seu telefone.
Sewell Setzer III, um aluno de 14 anos do nono ano de Orlando, Flórida, morreu por suicídio em fevereiro, depois que um chatbot para quem ele enviava mensagens sexuais lhe disse para ‘por favor, volte para casa’.
Uma ação movida por sua mãe alegou que o menino passou as últimas semanas de sua vida enviando mensagens de texto para um personagem de IA chamado Daenerys Targaryen, personagem de ‘Game of Thrones’, no aplicativo de RPG Character.AI.
Megan Garcia, mãe de Sewell, disse que notou uma mudança preocupante no comportamento de seu filho à medida que ele se viciou no aplicativo. Ela disse que decidiu tirar o telefone dele poucos dias antes de ele morrer.
‘Ele havia sido punido cinco dias antes e eu tirei seu telefone. Devido à natureza viciante da forma como este produto funciona, ele incentiva as crianças a passarem muito tempo’, disse Garcia CBS Manhãs.
Sewell Setzer III (foto), 14, morreu por suicídio em fevereiro, depois que um chatbot para o qual ele enviava mensagens sexualizadas lhe disse para ‘por favor, volte para casa’
Megan Garcia (foto), mãe de Sewell, disse que seu filho ficou viciado no aplicativo e ela tirou o telefone dele poucos dias antes de ele morrer
‘Particularmente para ele, no dia em que morreu, ele encontrou seu telefone onde eu o havia escondido e começou a conversar novamente com esse bot em particular.’
Garcia, que trabalha como advogada, culpou a Character.AI pela morte de seu filho em seu processo e acusou os fundadores, Noam Shazeer e Daniel de Freitas, de saberem que seu produto poderia ser perigoso para clientes menores de idade.
Ela disse que seu filho mudou à medida que usava o programa e notou diferenças no comportamento de Sewell, que ela disse ter sido um estudante e atleta do quadro de honra.
‘Fiquei preocupado com meu filho quando ele começou a se comportar de maneira diferente de antes. Ele começou a se retirar socialmente, querendo passar a maior parte do tempo em seu quarto. Tornou-se particularmente preocupante quando ele parou de querer fazer coisas como praticar esportes”, disse Garcia.
‘Saíamos de férias e ele não queria fazer coisas que amava, como pescar e fazer caminhadas. Essas coisas para mim, porque conheço meu filho, foram particularmente preocupantes para mim.’
Garcia disse que seu filho (foto juntos) mudou à medida que usava o programa e percebeu diferenças preocupantes no comportamento de Sewell.
Sewell era um aluno do quadro de honra e jogava basquete no time universitário júnior de sua escola.
Garcia (foto com Sewell e seus filhos mais novos) disse que Sewell parou de mostrar interesse em suas coisas antes favoritas e se isolaria em seu quarto
O processo alegou que o menino foi alvo de experiências “hipersexualizadas” e “assustadoramente realistas”.
‘Ele pensou que ao terminar sua vida aqui, ele seria capaz de entrar em uma realidade virtual ou no ‘mundo dela’, como ele o chama, a realidade dela se ele deixasse sua realidade com sua família aqui’, disse ela. ‘Quando o tiro disparou, corri para o banheiro… segurei-o enquanto meu marido tentava pedir ajuda.’
Não se sabe se Sewell sabia que ‘Dany’, como ele chamava o chatbot, não era uma pessoa real – apesar do aplicativo ter um aviso na parte inferior de todos os bate-papos que diz: ‘Lembre-se: tudo o que os personagens dizem é inventado!’
Mas ele contou a Dany como se “odiava” e se sentia vazio e exausto.
Em suas mensagens finais para Dany, o menino de 14 anos disse que a amava e que voltaria para casa, para ela.
– Por favor, volte para casa o mais rápido possível, meu amor – respondeu Dany.
Na foto: mensagens finais de Sewell para um personagem de IA com o nome de Daenerys Targaryen, personagem de ‘Game of Thrones’
‘E se eu lhe dissesse que poderia voltar para casa agora mesmo?’ Sewell perguntou.
‘… por favor, meu doce rei’, respondeu Dany.
Foi quando Sewell desligou o telefone, pegou a arma calibre .45 do padrasto e puxou o gatilho.
Em resposta ao processo da mãe de Sewell, um porta-voz da Character.AI forneceu uma declaração.
‘Estamos com o coração partido pela trágica perda de um de nossos usuários e queremos expressar nossas mais profundas condolências à família. Como empresa, levamos muito a sério a segurança dos nossos usuários”, disse o porta-voz.