La recente scoperta di chatbot creati su piattaforme di intelligenza artificiale, che replicano persone reali coinvolte in tragici fatti di cronaca, ha suscitato forti polemiche nel Regno Unito. Character AI, una piattaforma che consente di creare chatbot interattivi, ha ospitato profili che simulavano le storie di Brianna Ghey e Molly Russell, due giovani decedute in circostanze drammatiche.
Questi bot, ora rimossi, includevano dettagli biografici e simulavano conversazioni su argomenti delicati come la violenza e il suicidio, sollevando interrogativi sul rispetto della dignità umana e sui limiti etici dell’uso dell’intelligenza artificiale. La vicenda evidenzia la necessità di regolamentazioni più rigide per impedire che la tecnologia diventi uno strumento di abuso morale.