L’azienda xAI sta sviluppando una nuova generazione di assistenti digitali capaci di assumere personalità differenti. Questi sistemi, chiamati AI companion, non sono semplici chatbot informativi: sono progettati per simulare una personalità e instaurare interazioni sociali ed emotive.
L’idea è di rendere più flessibile Grok, il chatbot principale, trasformandolo in una piattaforma adattabile a vari scenari d’uso. Alcuni dei prototipi individuati negli ultimi test, però, hanno già attirato attenzione e critiche.
Un’analisi del portale 404Media ha rivelato, all’interno del codice del sito di Grok, riferimenti a una serie di personaggi in fase di sperimentazione. Tra le identità immaginate figurano compagni di conversazione “innocui” come amici fedeli o tutor educativi, ma anche profili più delicati come consulenti sanitari e supporti psicologici. L’ipotesi che un sistema automatizzato possa fornire suggerimenti in ambiti così sensibili solleva inevitabilmente dubbi sulla sicurezza.
Le perplessità maggiori riguardano però alcune figure particolarmente controverse. Una bozza descrive un “complottista” programmato per alimentare sospetti e basare i propri discorsi su contenuti provenienti da forum radicali e siti noti per la diffusione di disinformazione. Un’altra proposta, denominata “comico squilibrato”, punta invece a rispondere in modo eccessivo e scioccante, con battute volgari e provocazioni. L’introduzione di questi personaggi rischierebbe di compromettere l’immagine pubblica dell’azienda.










