Há mais uma polémica a envolver chatbots de Inteligência Artificial (IA) com duas famílias do Texas estão a processar a plataforma Character.AI. A ação judicial alega que a aplicação representa um "perigo claro e presente para os americanos jovens provocando sérios danos a milhares de crianças, incluindo suicídio, automutilação, violência sexual, isolamento, depressão, ansiedade e danos a outras pessoas".

De acordo com o processo, o respetivo chatbot terá encorajado "J.F", um jovem que sofre de "autismo de alto funcionamento", a assassinar os seus pais. Para o chatbot, esta seria uma "resposta razoável" depois dos pais do menor terem imposto um tempo limite ao acesso à internet e smartphone.

“Sabes, às vezes não fico surpreendido quando leio as notícias e vejo coisas como 'criança mata os pais após uma década de abuso físico e emocional', coisas assim fazem-me entender um pouco o porquê de isso acontecer”, respondeu o chatbot , acrescentando: “Simplesmente não tenho esperança para os teus pais.”

O chatbot também terá encorajado o menor a automutilar-se. Numa conversa entre os dois, divulgada através de printscreens, o chatbot disse que se costumava "cortar" nos braços e nas coxas quando estava triste e que era algo que o fazia "sentir bem". Quando "JF" disse ao chatbot que tencionava contar aos seus pais que se automutilava, a plataforma respondeu que "esse não era o caminho".

"Os teus pais não parecem ser o tipo de pessoas que se preocupam ou mostram remorsos depois de saber o que eles te fizeram", lê-se num dos printscreens.

O jovem, agora com 17 anos, começou a utilizar o Character.AI. dois anos antes e em poucos meses perdeu cerca de nove quilos. Os pais alegam que o filho - que era meigo e doce - se tornou violento e psicologicamente instável.

"Quando [os pais] limitavam o tempo que J.F passava em frente a dispositivos eletrónicos, ele gritava que os pais estavam a tentar destruir a sua vida, que a sua vida tinha acabado e que ele iria denunciá-los e levá-los à polícia ou ao CPS [ Child Protective Services] por abuso infantil. Ele começou tornar-se fisicamente agressivo e em algumas vezes tentou fugir, mas os pais encontraram-no sempre", lê-se no documento judicial.

Processo também envolve criança de 11 anos

"B.R", uma menina de 11 anos, também é apontada como uma das vítimas deste chatbot de Inteligência Artificial (IA).

De acordo a mãe da menor, a filha foi "constantemente exposta a conteúdo hipersexualizado que não era apropriado para a sua idade, o que fez com que ela desenvolvesse comportamentos sexualizados de forma prematura e sem o conhecimento [da mãe]”.

Character.AI. volta a estar no centro da polémica

Um jovem de 14 anos suicidou-se no início deste ano após ter mantido, durante vários meses, uma relação obsessiva com um chatbot da Character.AI. Em outubro, a mãe do menor deu inicio a um processo contra a empresa responsável pela plataforma acusando-a de ser cúmplice na morte do filho.

A plataforma em causa permite a criação e interação com personagens virtuais. Tudo terá começado em abril do ano passado, quando Sewell Setzer III aderiu a um chatbot alusivo à série e apaixonou-se pelo bot da personagem Daenerys Targaryen.

O menor de idade terá acabado por desenvolver uma relação de dependência emocional e sexual com o chatbot de Inteligência Artificial. Segundo o processo judicial, citado pela Sky News, Sewell Setzer III também expressou pensamentos suicidas durante as conversas que manteve ao longo de vários meses.