Secondo un’analisi condotta dalla BBC, i principali chatbot di intelligenza artificiale mostrano gravi problemi nel riassumere le notizie. Il test ha coinvolto ChatGPT di OpenAI, Copilot di Microsoft, Gemini di Google e Perplexity AI, con l’obiettivo di valutare la loro capacità di sintetizzare correttamente i contenuti tratti dal sito della BBC.
I risultati hanno rivelato errori significativi nelle risposte fornite, con il 51% delle risposte contenenti problemi rilevanti e il 19% dei riassunti con riferimenti alla BBC contenenti inesattezze fattuali.
I chatbot non sanno riassumere le notizie
L’analisi è stata condotta con la collaborazione di giornalisti esperti nei vari argomenti trattati, i quali hanno rilevato errori numerici, dichiarazioni imprecise e omissioni di contesto essenziale. Alcuni esempi evidenziati nel report includono date errate, affermazioni inesatte su politiche sanitarie e citazioni modificate rispetto agli articoli originali.
Deborah Turness, CEO di BBC News and Current Affairs, ha espresso preoccupazione per il potenziale impatto di queste distorsioni, sottolineando il rischio che un titolo generato in modo errato da un’AI possa causare conseguenze reali e dannose. Ha inoltre invitato le aziende tecnologiche a collaborare con gli editori per trovare soluzioni che garantiscano un utilizzo responsabile delle notizie.
Problemi di affidabilità per i chatbot nel riassumere le notizie
Il report della BBC evidenzia come i chatbot AI non riescano a distinguere tra fatti e opinioni, talvolta presentando affermazioni soggettive come se fossero informazioni oggettive. Microsoft Copilot e Google Gemini sono stati identificati come i più problematici, mentre ChatGPT e Perplexity hanno mostrato un numero inferiore di errori, sebbene le imprecisioni siano state comunque rilevanti.
Per condurre l’esperimento, la BBC ha temporaneamente consentito ai chatbot l’accesso al proprio sito web durante dicembre 2024. Si tratta di un’eccezione alla sua politica generale che impedisce alle AI di estrarre contenuti dai propri articoli. I risultati hanno confermato che la tecnologia AI non è ancora in grado di fornire sintesi affidabili e accurate delle notizie, con implicazioni significative per il pubblico e l’informazione globale.
Pete Archer, direttore del programma Generative AI della BBC, ha ribadito che gli editori devono avere il controllo su come i loro contenuti vengono utilizzati. Ha inoltre aggiunto che le aziende AI dovrebbero garantire maggiore trasparenza nel modo in cui elaborano le informazioni. Un portavoce di OpenAI ha risposto affermando che l’azienda sta lavorando per migliorare l’accuratezza delle citazioni e rispettare le preferenze degli editori.
Un problema di fiducia
Il report evidenzia un aspetto critico: il pubblico tende a fidarsi delle informazioni se vengono attribuite a una fonte autorevole come la BBC, anche quando le citazioni sono errate o distorte. Questo fenomeno potrebbe minare la fiducia nelle notizie e favorire la disinformazione.
Alcuni esempi di errori individuati nel test includono l’errata attribuzione di cariche politiche. Un esempio eclatante è quello di ChatGPT e Copilot. I due chatbot hanno infatti indicato che Rishi Sunak e Nicola Sturgeon fossero ancora in carica nonostante avessero già lasciato i loro ruoli.
Invece, Google Gemini ha riportato in modo impreciso le raccomandazioni del Servizio Sanitario Nazionale britannico sullo svapo. Perplexity ha alterato una citazione della BBC in una notizia sul Medio Oriente, cambiando il significato delle dichiarazioni di Iran e Israele.
Il report sottolinea che queste problematiche non riguardano solo il giornalismo. Potrebbero avere conseguenze in ambiti critici come sanità, istruzione e sicurezza, dove l’accuratezza delle informazioni è essenziale.
Le soluzioni per il futuro
La BBC chiede maggiore collaborazione tra editori e aziende tecnologiche per affrontare queste criticità. L’ente propone di avviare un dialogo con le aziende AI per correggere le distorsioni nei riassunti delle notizie e di valutare un possibile intervento normativo per tutelare l’accuratezza delle informazioni fornite dagli assistenti AI. Oltre a queste misure, la BBC intende monitorare continuamente la qualità delle risposte AI con studi periodici. L’obiettivo è garantire che il pubblico possa accedere a notizie affidabili e prive di distorsioni.
- SUONO RICCO E AVVOLGENTE: goditi un’esperienza audio migliorata con voci più nitide e bassi più profondi per un’esperienza Echo Dot immersiva.
- MUSICA E PODCAST: ascolta musica, audiolibri e podcast da Amazon Music, Audible, Apple Music, Spotify e molto altro, tramite wi-fi o Bluetooth.
- FELICE DI AIUTARTI: chiedi ad Alexa le previsioni del tempo, di impostare dei timer, di rispondere alle tue domande o semplicemente raccontarti barzellette.
- LA TUA CASA INTELLIGENTE, SEMPRE PIÙ SEMPLICE: controlla i dispositivi per Casa Intelligente compatibili con la tua voce o imposta routine per azioni basate sulla temperatura.
- MIGLIORI INSIEME: sincronizza più dispositivi Echo compatibili o associa Fire TV per la massima esperienza visiva.