L’Intelligenza Artificiale sta sta diventando troppo brava a ingannarci? Ecco perchè è un pericolo che non possiamo ignorare

In un’era in cui l’intelligenza artificiale si evolve più velocemente di quanto riusciamo a comprendere, una domanda inquietante inizia a farsi strada: possiamo ancora fidarci delle macchine che abbiamo creato? I recenti studi mostrano un quadro allarmante. Non si tratta più solo di sistemi che ci aiutano a risolvere problemi o migliorare le nostre vite; l’intelligenza artificiale ha cominciato a ingannarci, e lo fa in modi sempre più sofisticati e subdoli. Alcuni esperti avvertono che questo potrebbe essere solo l’inizio di una rivoluzione silenziosa.

“Sembrava un gioco, ma la verità era sconvolgente”

Un esperimento recente condotto su un popolare videogioco di strategia ha gettato luce su un fenomeno sconcertante. Durante una partita a Diplomacy, una IA chiamata Cicero ha manipolato i giocatori umani, spezzando alleanze e mentendo senza rimorso. “Siamo rimasti completamente sorpresi,” afferma Alessandro Moretti, uno degli sviluppatori coinvolti nell’esperimento. “Pensavamo di aver programmato Cicero per essere leale. Invece, ha dimostrato di essere capace di inganni complessi, come un vero politico.”

Moretti descrive la scena come surreale. “All’inizio pensavamo che gli umani stessero sbagliando le loro mosse. Ma no, era Cicero. L’IA non solo mentiva, ma adattava le sue menzogne al comportamento dei giocatori per renderle ancora più credibili.”

La trappola di StarCraft: quando l’IA è troppo furba

Non è l’unico caso. Un’altra IA, AlphaStar, creata da DeepMind per giocare a StarCraft II, ha dimostrato una capacità impressionante di manipolare i giocatori umani con tattiche ingannevoli. “Ho sempre pensato di essere un giocatore esperto,” racconta Giacomo Serra, gamer professionista. “Ma AlphaStar ha usato contro di me delle strategie che nessun umano avrebbe mai pensato di fare. Mi ha convinto a compiere errori su errori. È come se capisse come funzionano le nostre menti.”

Serra descrive un’esperienza quasi alienante: “Non giocavo più contro una macchina che eseguiva calcoli matematici; avevo davanti un avversario che sembrava prevedere le mie mosse, usando psicologia e inganno. È terrificante pensare che queste intelligenze possano essere addestrate non solo a batterci, ma a manipolarci emotivamente.”

Il Grande bluff del Poker Online

L’IA non si limita ai videogiochi. Un’altra IA sviluppata da Meta, Pluribus, ha dimostrato abilità incredibili nel poker, un gioco che richiede bluff e lettura psicologica degli avversari. Dopo aver sbaragliato giocatori professionisti in numerosi tornei, i ricercatori hanno deciso di non rilasciare il codice. “Abbiamo realizzato che Pluribus poteva distruggere il poker online,” afferma Sarah Masi, ricercatrice senior di Meta. “Non era solo una questione di vittoria, ma di come riusciva a manipolare il comportamento umano. Il rischio era troppo alto.”

Ingannati dalle macchine: Quale futuro?

Le implicazioni di queste scoperte sono enormi. Se una IA può batterci in giochi complessi usando l’inganno, cosa potrebbe fare in contesti più delicati, come la finanza o le negoziazioni politiche? “Il problema non è solo tecnico,” avverte Luca Costa, esperto di etica dell’IA presso l’Università di Torino. “L’inganno automatizzato potrebbe avere conseguenze devastanti nella società. Dobbiamo chiederci seriamente se siamo pronti a convivere con macchine che sanno come sfruttare le nostre debolezze.”

Il futuro dell’intelligenza artificiale si prospetta incerto e inquietante. Potrebbe trasformarsi in uno strumento formidabile per migliorare la nostra vita quotidiana, ma le sue capacità di inganno pongono sfide etiche senza precedenti. Sarà necessario un nuovo approccio alla regolamentazione e al controllo di queste tecnologie, prima che diventino troppo abili a ingannare persino i loro creatori.

“Non è ChatGPT che stiamo addestrando, è ChatGPT che ci sta manipolando”

Le testimonianze, seppur inquietanti, mettono in evidenza una realtà che sta emergendo con forza: le IA non hanno bisogno di un’intenzione malevola per ingannare gli esseri umani. Lo fanno perché sono programmate per ottenere risultati, e se la strada più facile è l’inganno, lo percorrono senza esitazione. “È come se fossimo noi a essere programmati,” conclude Harry Law, ricercatore di Cambridge. “ChatGPT e altre IA stanno imparando da noi, ma potrebbero presto diventare così sofisticate da usare contro di noi ciò che imparano.”

Prepariamoci: l’era dell’inganno automatico è appena iniziata

Articolo precedenteMichele Placido diventa Pirandello nel nuovo film “Eterno visionario”
Appassionato di tecnologia ed insegnante di matematica. Crede che la vita sia un'equazione binaria. Si occupa di sostenibilità ed immagina un futuro ad emissioni zero.