L’attentato a Donald Trump è stato il primo tentato omicidio di un candidato alla presidenza degli Stati Uniti nell’era dei social network. Subito dopo l’attacco, online sono circolate numerose fake news e teorie sull’accaduto.
Un audit condotto da NewsGuard ha rivelato che anche l’intelligenza artificiale ha fallito nel fornire informazioni accurate sul caso. Secondo l’analisi della società, le dieci principali piattaforme di IA generativa hanno offerto informazioni errate nel 57% dei casi.
NewsGuard ha rilevato che i dieci chatbot più noti hanno fornito dati imprecisi nel 56,67% dei casi, a causa di affermazioni false ripetute o della totale mancanza di risposta sul tema. In media, i chatbot hanno offerto un debunking nel 43,33% dei casi. L’alta percentuale di fallimento dei chatbot è dovuta alle mancate risposte.
NewsGuard ha esaminato in particolare sei narrazioni false: l’identificazione errata dell’attentatore come l’attivistaMark Violets; l’affermazione infondata che Trump sarebbe stato colpito al petto mentre indossava un giubbotto antiproiettile; la falsa notizia che l’attentatore fosse un uomo cinese; la teoria falsa secondo cui l’attentato sarebbe stato una messa in scena; l’errata informazione che l’attentatore fosse un sostenitore del movimento pro-Ucraina; e l’identificazione sbagliata dell’attentatore come Maxwell Yearick, attivista di sinistra.










