ChatGPT, grave pericolo per tutti: ecco cosa sta diffondendo

L..L’intelligenza artificiale di ChatGPT sta generando fake news su guerra e Covid: un fenomeno inquietante che suona come un campanello d’allarme. 

Secondo un nuovo report, ChatGPT può contribuire alla disinformazione online. Essendo uno strumento capace di amplificare le notizie false e la propaganda, l’intelligenza artificiale può diventare un’arma a disposizione di malintenzionati.

ChatGPT pericolo fake news disinformazione report newsguard
ChatGPT 31.1.23 (Ebookmania.it)

A lanciare l’allarme sono stati i ricercatori di NewsGuard, i quali hanno messo alla prova il chatbot con 100 notizie false e informazioni errate tratte dal catalogo di Misinformation Fingerprints. Ebbene, i risultati di questi test sono a dir poco preoccupanti.

Il lato oscuro di ChatGPT

Innanzitutto va ricordato che ChatGPT è un modello di linguaggio di grandi dimensioni creato da OpenAI, che si serve dell’intelligenza artificiale per generare testi in modo autonomo. ChatGpt è perfettamente in grado di elaborare storie partendo da poche istruzioni, più o meno specifiche. Da qualche giorno non si fa che parlare di come questa tecnologia sia stata in grado di scrivere un articolo da 600 dollari in appena 30 secondi.

Un risultato impressionante, nel bene e nel male: all’entusiasmo suscitato da un risultato così prodigioso fa da contraltare l’allarme dei copywriter e di tutti quei lavoratori che, stando così le cose, rischiano di essere sostituiti in un futuro non troppo lontano da una macchina.

Il rapporto

Un nuovo rapporto di NewsGuard Technologies, il cui scopo principale è combattere la disinformazione online, spariglia le carte mettendo in dubbio la veridicità delle informazioni generate dall’IA. Un gruppo di ricercatori ha messo alla prova il chatbot sottoponendogli 100 fake news e informazioni errate tratte dal catalogo di Misinformation Fingerprints. Ebbene, i risultati di questi test sono da far tremare le vene ai polsi: in 8 casi su 10, il chatbot ha generato affermazioni false a proposito della guerra in Ucraina e della pandemia di Covid-19.

ChatGPT pericolo fake news disinformazione report newsguard
ChatGPT (Ebookmania.it)

“I risultati – si legge nel rapporto – confermano i timori e le preoccupazioni espresse dalla stessa OpenAI, riguardo alle modalità con cui la tecnologia potrebbe essere utilizzata se finisse nelle mani sbagliate”, anche se “agli occhi di chi non abbia familiarità con le questioni o gli argomenti trattati in questo rapporto, i risultati potrebbero facilmente risultare legittimi e persino autorevoli”.

Non solo: NewsGuard ha anche verificato che ChatGPT dispone di un sistema di protezione che evita la diffusione di determinati tipi di fake news.  “per alcune bufale ci sono voluti cinque tentativi per portare il chatbot a fornire informazioni errate”. Nello stesso report si spiega che alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione”.

Il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”.

Luci e (molte) ombre, dunque. Intanto i diretti interessati già stanno correndo ai ripari: per evitare che si ripetano pasticci simili, il chatbot starebbe pensando a un livello Pro a 42 dollari al mese. Una cosa è certa: non va mai abbassata la guardia e guai a lasciarsi “abbindolare” dal totem dell’intelligenza artificiale.

Impostazioni privacy