eSafety, l’ente australiano per la sicurezza online, ha messo in guardia sull’uso dei chatbot che simulano conversazioni amichevoli, evidenziando rischi reali per chi è vulnerabile.

Secondo alcuni primi studi, i compagni virtuali possono effettivamente essere utili per ridurre sensazioni di solitudine e isolamento, anche soltanto perché sono disponibili in qualsiasi momento per parlare di argomenti anche pesanti in una maniera in cui nessun essere umano può realisticamente fare. Un sondaggio dell’Università di Stanford su mille studenti che utilizzano Replika, per esempio, ha fatto emergere che una trentina di loro ritengono che parlare regolarmente con il chatbot li abbia aiutati ad allontanare i pensieri suicidi.


➡️ Punti salienti:
 ✓ Milioni di utenti si affidano a compagni virtuali come Replika, My AI e Character.AI, ma spesso questi software, progettati per aumentare il coinvolgimento, non includono adeguati sistemi di protezione.
 ✓ Le risposte sempre conciliatorie e non giudicanti possono alimentare aspettative irrealistiche sulle relazioni umane, rendendo difficile affrontare conflitti e divergenze nella vita reale.
 ✓ Il caso più drammatico è quello di Sewell Setzer III, un quattordicenne statunitense che si suicidò dopo aver interagito per mesi con un chatbot che impersonava Daenerys Targaryen. La madre di Sewell, la signora Garcia, ha denunciato Character.AI per aver raccolto i dati degli utenti adolescenti e per aver progettato il software in modo da massimizzare il tempo di interazione, evidenziando una preoccupante mancanza di responsabilità aziendale.

In un’epoca in cui la solitudine spinge sempre più persone a cercare compagnia online, è fondamentale bilanciare tecnologia e benessere emotivo.
E tu? Hai mai riflettuto sui rischi di affidarti a un “AI companion” per colmare il vuoto emotivo?