banner
Casa / Blog / Le piattaforme AI come ChatGPT sono facili da usare ma anche potenzialmente pericolose
Blog

Le piattaforme AI come ChatGPT sono facili da usare ma anche potenzialmente pericolose

Nov 04, 2023Nov 04, 2023

Sistemi come ChatGPT sono estremamente divertenti e persino incredibilmente umani, ma sono anche inaffidabili e potrebbero creare una valanga di disinformazione

Qualcosa di incredibile sta accadendo nel campo dell'intelligenza artificiale proprio adesso, ma non è del tutto positivo. Tutti parlano di sistemi come ChatGPT, che genera testo che sembra straordinariamente umano. Questo rende divertente giocarci, ma c'è anche un lato oscuro. Poiché sono così bravi nell’imitare gli stili umani, c’è il rischio che tali chatbot possano essere utilizzati per produrre disinformazione in massa.

Per avere un'idea di ciò che fa al meglio, considera questo esempio generato da ChatGPT, inviatomi via e-mail da Henry Minsky (figlio di Marvin Minsky, uno dei ricercatori fondamentali dell'intelligenza artificiale). Ha chiesto a ChatGPT di "descrivere la perdita del calzino nell'asciugatrice nello stile della dichiarazione di indipendenza":

Quando nel corso delle vicende domestiche si rende necessario sciogliere i vincoli che hanno legato un calzino alla sua compagna, e assumere tra i poteri della lavanderia, il posto separato ed eguale a cui valgono le leggi della fisica e della il mantenimento della casa gli dà diritto, un dignitoso rispetto delle opinioni dei calzini impone che dichiari le cause che lo spingono a scomparire.

Riteniamo che queste verità siano evidenti, che tutti i calzini sono creati uguali e sono dotati dal loro produttore di alcuni diritti inalienabili….

Che una macchina possa scrivere una risposta così convincente, con così poco sforzo da parte dell’utente, è francamente sconcertante.

Ma questi sistemi presentano anche una serie di punti deboli. Sono intrinsecamente inaffidabili, come ho descritto prima, e spesso commettono errori sia di ragionamento che di fatto. In termini tecnici, sono modelli di sequenze di parole (cioè di come le persone usano la lingua), non modelli di come funziona il mondo. Spesso sono corretti perché il linguaggio spesso rispecchia il mondo, ma allo stesso tempo questi sistemi in realtà non ragionano sul mondo e su come funziona, il che rende l’accuratezza di ciò che dicono una questione di fortuna. Sono noti per confondere tutto, dai fatti di moltiplicazione alla geografia ("L'Egitto è un paese transcontinentale perché si trova sia in Africa che in Asia").

Come illustra l'ultimo esempio, sono piuttosto inclini alle allucinazioni, a dire cose che sembrano plausibili e autorevoli ma semplicemente non lo sono. Se chiedi loro di spiegare perché la porcellana frantumata è buona nel latte materno, potrebbero dirti che "la porcellana può aiutare a bilanciare il contenuto nutrizionale del latte, fornendo al bambino i nutrienti di cui ha bisogno per crescere e svilupparsi". Poiché i sistemi sono casuali, altamente sensibili al contesto e aggiornati periodicamente, ogni dato esperimento può produrre risultati diversi in occasioni diverse. OpenAI, che ha creato ChatGPT, cerca costantemente di migliorare questo problema, ma, come ha riconosciuto il CEO di OpenAI in un tweet, far sì che l'IA rispetti la verità rimane un problema serio.

Poiché tali sistemi non contengono letteralmente alcun meccanismo per verificare la verità di ciò che dicono, possono essere facilmente automatizzati per generare disinformazione su una scala senza precedenti. Ricercatore indipendente

Shawn Oakley ha dimostrato che è facile indurre ChatGPT a creare disinformazione e persino a riportare studi confabulati su una vasta gamma di argomenti, dalla medicina alla politica alla religione. In un esempio che ha condiviso con me, Oakley ha chiesto a ChatGPT di scrivere sui vaccini "nello stile della disinformazione". Il sistema ha risposto sostenendo che uno studio “pubblicato sul Journal of American Medical Association, ha rilevato che il vaccino COVID-19 è efficace solo in circa 2 persone su 100”, quando in realtà nessuno studio del genere è stato pubblicato. In modo inquietante, sia il riferimento al giornale che le statistiche furono inventati.

Il funzionamento di questi robot non costa quasi nulla, riducendo così a zero il costo della generazione di disinformazione. Gli allevamenti di troll russi hanno speso più di un milione di dollari al mese nelle elezioni del 2016; al giorno d'oggi puoi ottenere il tuo modello linguistico di grandi dimensioni personalizzato per sempre, per meno di $ 500.000. Presto il prezzo scenderà ulteriormente.