L’Intelligenza Artificiale nella narrativa e il futuro della guerra

image_pdfimage_print

di David Benson

Uno spiritoso parlamentare danese sconosciuto una volta disse: «È difficile fare previsioni, soprattutto sul futuro». In nessun luogo le previsioni sono più complesse che nel campo della sicurezza nazionale. L’esito delle guerre può avere poco a che fare con le aspettative. Nonostante le difficoltà nel prevedere il futuro, è un prodotto dell’immaginazione umana. Possiamo ricorrere alla finzione per predire il futuro, ma dobbiamo stare attenti.

Le nostre paure e speranze per il futuro si manifestano spesso nello Sci-Fi (fantascienza). Meno di un decennio dopo che l’Hunley divenne il primo sottomarino ad affondare un’altra nave, Twenty Thousand Leagues Under the Sea predisse l’impatto della guerra sottomarina nel XX secolo. “War in the Air” di HG Wells prevedeva la guerra aerea anni prima della prima guerra mondiale. “Buck Rogers nel XXV secolo” e “Flash Gordon” riflettevano l’ottimismo generale sulla tecnologia all’inizio del XX secolo. Al contrario, le vere paure dell’apocalisse nucleare degli anni ’50 trovarono espressione in film come Il giorno in cui la Terra si fermò. Film come “War Games” e “The Day After” riflettevano una preoccupazione per la politica internazionale.

Sfortunatamente, le stesse qualità che ammiriamo nella buona fantascienza possono distogliere la nostra attenzione dalle sfide immediate verso problemi in un futuro lontano, o gonfiare speranze e paure sul potenziale futuro dell’IA. Gli scrittori di fantascienza sono fantasiosi: raccontano una bella storia. I narratori non lasciano che cose banali come la realtà ostacolino una buona storia. Gli strateghi non devono inoltre lasciare che una storia avvincente ostacoli il loro lavoro. Sfortunatamente, i grandi narratori sono bravi a indurre gli strateghi a mescolare storie e previsioni.

La narrativa è un ottimo modo per esplorare le opportunità e i rischi dell’IA. Se fatta bene, la finzione ci aiuta a prendere decisioni. Sfortunatamente, molte rappresentazioni dell’IA nella narrativa si concentrano su un futuro troppo lontano, a volte attribuendo abilità che difficilmente esisteranno, e quindi non tengono conto delle sfide che dovremo affrontare nel prossimo futuro.

L’IA come villain

Tra gli scrittori di fantascienza, Isaac Asimov, Frank Herbert e Arthur C. Clarke hanno definito l’IA una potenziale minaccia. L’IA di Asimov è per lo più benevola, simile a quella di Daniel Olivo nella serie The Robots. I libri di Asimov sono buoni in parte perché offrono Le tre leggi della robotica come difesa necessaria, riconoscendo che l’IA può essere pericolosa. Le tre leggi della robotica continuano a influenzare il modo in cui pensiamo all’etica e all’intelligenza artificiale. L’IA non compare mai nella serie di libri di Herbert’s Dune perché prima del tempo della storia, l’umanità e l’IA erano impegnate in una resa dei conti esistenziale durante la Butlerian Jihad. Clark ha creato l’archetipo del cattivo dell’IA, HAL. HAL diventa sano di mente, impazzisce a causa di comandi contrastanti e cerca di uccidere gli astronauti che dovrebbe servire.

Star Trek è diventato un modello per molte future storie di fantascienza IA. Nella prima stagione, nell’episodio opportunamente intitolato “The Ultimate Computer”, il computer M-5 ci viene presentato come una macchina in grado di far funzionare un’astronave. Parte della minaccia dell’M-5 era che potesse sostituire i comandanti umani. Naturalmente, la possibilità che l’IA sostituisca gli esseri umani in alcune professioni rimane una preoccupazione. Il difetto fatale dell’M-5 era che lo sviluppatore usava i suoi modelli cerebrali non del tutto intelligenti per programmare l’M-5. Nella seconda stagione, l’episodio “The Changeling” racconta il Nomad, una sonda lanciata dalla Terra nel XXI secolo, che ha acquisito intelligenza e grandi poteri. Nomad è diventato senziente quando si è fuso con una sonda aliena, dando a Nomad l’imperativo di uccidere tutta la vita imperfetta. In entrambe le storie, il capitano Kirk è stato in grado di superare l’IA sfruttando le contraddizioni logiche nei presupposti dell’IA, un trucco che si sarebbe ripetuto in molte rappresentazioni future dell’IA.

Un punto di svolta nella rappresentazione dell’IA nella fantascienza è stato il racconto di Harlan Ellison “I Have No Mouth and Must Scream” (IHNMIMS), pubblicato nel 1968. Ellison ha lavorato a Star Trek ma ha condiviso poco del suo ottimismo. Prima di IHNMIMS, le superpotenze cercavano di creare l’IA e gli Stati Uniti hanno creato “AM”, che ottiene il controllo delle armi nucleari. AM lancia un’arma nucleare e lascia solo poche persone per essere torturate orribilmente. Senza spiegazioni, Allison concede ad AM poteri superiori a quelli di qualsiasi IA senziente, ma AM è chiaramente un’IA. In molti modi, il male assoluto di AM incarna la più grande paura dell’IA: non solo si spezzerà, ma diventerà malvagia.

Niente supera The Terminator, pubblicato nel 1984, in termini di importanza per la discussione sull’IA. Nell’universo di Terminator, un computer di intelligenza artificiale chiamato Skynet diventa senziente, ottiene il controllo di un’arma nucleare e inizia una guerra contro gli umani. Skynet rimane il discorso della città per l’IA fuorviante e una vera paura per molte persone.

“Machines” di The Matrix, pubblicato nel 1991, è uno dei più importanti cattivi dell’IA. Nella trama di Matrix, gli esseri umani e le macchine controllate dall’IA sono in guerra da generazioni. Non sappiamo esattamente come sia iniziata la guerra, ma le macchine hanno preso il sopravvento e ora usano gli umani nella simulazione della matrix. Sebbene l’IA in The Matrix non sia così malevola come l’AM di IHNMIMS, e alcuni simpatizzano apertamente con essa, c’è poca speranza per l’umanità nella lotta contro l’IA. In molti modi, è l’IA di Matrix che le persone temono di più, perché non avranno la capacità di reagire. In Matrix, le macchine sono molto più brave in tutto ciò che noi umani siamo destinati a esserne ridotti in schiavitù.

L’IA come hero

Quando un’IA agisce eroicamente in una storia, raramente la vediamo percepita come un’IA. La vera IA vive su server senza volto, nome o identità e l’IA malvagia è solitamente rappresentata in modo simile. Se il personaggio dell’IA è eroico, di solito assumerà caratteristiche umane, comprese emozioni ed empatia. I personaggi eroici dell’IA hanno nomi, personalità e amici proprio come i personaggi viventi. Di conseguenza, nella coscienza di massa è facile dimenticare che l’intelligenza dell’eroe è artificiale. Sarebbe difficile per noi discutere di storie eroiche sull’IA se fossimo limitati all’IA, come di solito viene discusso nel concetto popolare, e questo fa parte del problema. Se un’IA ha una faccia, sembra provare emozioni o esprime simpatia, non la pensiamo come un’IA. Può sembrare strano innamorarsi di Siri. C’è anche un film sull’amore per l’IA.

Molte delle opinioni positive sull’IA seguono il percorso di Asimov e le trasformano in robot. Né il pubblico né i personaggi della storia trattano i droidi di Star Wars come IA, ma lo sono. Inoltre, C3-PO e R2-D2 sono al centro della storia. Allo stesso modo, quando Johnny 5 ha preso vita accidentalmente, è stato motivo di gioia, non di paura. Nella versione cinematografica del 2004 di I, Robot (appena riconoscibile perché legato alla storia di Asimov), l’IA è il cattivo, ma l’eroico Sonny è anche un’IA. Data, un androide dotato di intelligenza artificiale, è stato sia uno dei personaggi più popolari di Star Trek: The Next Generation che una figura che merita sicuramente di essere ammirata.

È interessante notare che l’IA è tanto spesso l’eroe quanto il cattivo in queste storie. In Tron, pubblicato nel 1982, il Master Control Program (MCP) ha la maggior parte delle stesse caratteristiche di Skynet, incluso l’obiettivo di ottenere il controllo delle armi nucleari. Un programma di intelligenza artificiale chiamato CLU sconfigge l’MCP frustrando gli obiettivi dell’MCP. La differenza tra MCP/SkyNet e CLU non era nell’intelligenza artificiale, ma nelle considerazioni etiche dei loro creatori.

L’IA eroica è spesso discreta. Per la maggior parte della serie Star Trek, l’impostazione principale viene eseguita utilizzando l’IA. Il computer della nave parla, comprende il linguaggio e (nelle serie successive) può creare simulazioni realistiche sul ponte ologrammi. Il famoso Capitano Picard di Star Trek: The Next Generation può dire “Tea, Earl Grey, caldo” e la bevanda è istantanea.

Entrambi i punti di vista dell’IA creano problemi

È facile confondere le rappresentazioni sia positive che negative dell’IA con il mondo reale e questa confusione rende difficile l’uso dell’IA nella strategia internazionale. L’intelligenza artificiale può essere uno strumento utile se utilizzata correttamente e crea seri problemi se utilizzata in modo errato. Le persone devono sapere quando utilizzare uno strumento particolare e quali problemi può creare. L’incapacità di distinguere elementi della realtà nella finzione da elementi che sono lì solo per rendere possibile la storia, e quindi importare quella comprensione nei nostri processi mentali, rende difficile applicare correttamente l’IA.

Le persone con grandi aspettative vogliono più di ciò che l’IA può fornire in questo momento e potrebbero ignorare gli usi meno drammatici che stanno funzionando in questo momento. Molti paesi, inclusi gli Stati Uniti, stanno attualmente addestrando l’IA a pilotare aerei per ovvi motivi. Quando gli aerei si schiantano, i piloti muoiono e la carenza di piloti è comune. Anche se credo che alla fine vedremo aerei IA, i piloti IA non arriveranno mai. Il rischio rappresentato dai piloti IA potrebbe essere troppo grande per il pubblico o le sfide tecnologiche potrebbero essere insormontabili. Aspettare i piloti IA perde il vero uso che esiste ora. È, ad esempio, nel pacchetto Microsoft Office, probabilmente già installato sul nostro computer, non ci sono strumenti di intelligenza artificiale per automatizzare le attività quotidiane? Potremmo non avere mai strateghi dell’IA, ma abbiamo già segretari dell’IA.

Le persone con paure considerano i miglioramenti incrementali dell’IA come il primo passo verso l’apocalisse, ma perdono di vista i rischi reali. Tutti i sistemi a volte falliscono, ma li usiamo comunque perché calcoliamo, mitighiamo e ne accettiamo i rischi. Alcuni dei rischi reali dell’IA comportano la distruzione dei mercati del lavoro, l’atrofia di competenze e istituzioni importanti e semplicemente l’interruzione del lavoro, proprio come qualsiasi altro strumento. Concentrarsi troppo su risultati estremi e improbabili rischia di distogliere l’attenzione e lo sforzo dai probabili problemi. Sicuramente non vogliamo un’apocalisse robotica, ma è una barra bassa. Dobbiamo anche mitigare il ruolo dell’IA negli sconvolgimenti sociali, nella repressione politica o nei semplici errori.

Le discussioni sull’IA si concentrano spesso su sistemi d’arma automatizzati, elaborazione ad alta intensità di risorse o aumento del pensiero strategico con l’IA. Molte barriere, compresi i problemi sociali, possono rivelarsi insormontabili. Al contrario, l’attuale uso dell’IA nel mondo reale non sta ottenendo l’attenzione che merita. L’intelligenza artificiale nella finzione scoraggia le persone dallo svilupparla o dall’usarla. Ci sono legittime preoccupazioni che l’IA sfugga al controllo, ma i sistemi d’arma, i computer e gli strumenti falliscono costantemente, a volte con conseguenze devastanti. Utilizziamo ancora queste tecnologie perché calcoliamo e accettiamo i rischi. Quando un’IA immaginaria si guasta, l’IA diventa simile a un dio e spesso dannosa. Gli aerei IA rotti non solo si schiantano, ma ti danno la caccia.

Le immagini negative e positive creano aspettative irragionevolmente alte. I modelli di IA buoni e cattivi hanno abilità impossibili. L’IA spesso predice un futuro a cui la realtà non corrisponde mai. Una rete neurale che identifica correttamente una foto di un cane il 98% delle volte è sorprendente, ma l’identificazione dell’immagine sembra debole rispetto alla chiaroveggenza.

Le rappresentazioni immaginarie dell’IA raramente spiegano come si sviluppa l’IA. L’abbreviazione del processo di sviluppo dà l’impressione che i programmi possano passare da righe di codice a menti in pochi secondi. La formazione dei modelli di IA è complessa e, soprattutto, ad alta intensità di risorse. Conoscere i limiti dell’IA è strategicamente importante e dovrebbe calmare le paurose e temperare le aspettative ottimistiche.

Miglior esempio

La fantascienza rimane un importante strumento strategico per comprendere il futuro. Man mano che l’IA diventa più mainstream, la nuova fantascienza sta migliorando nel rappresentare l’IA. “Seed” di WebToon è la migliore interpretazione immaginaria dell’IA che abbia mai visto. L’arte è bella; i personaggi sono attraenti; la trama è ben congegnata. Soprattutto, il fumetto è disponibile gratuitamente, quindi vale la pena dare un’occhiata anche se non appassionati di fumetti.

The Seed mostra perché la fantascienza è così importante come strumento per pensare alle conseguenze, esplorando gli usi dell’IA da parte degli strateghi militari. La protagonista, Emma, inizia a usare l’intelligenza artificiale per superare la sua ansia interpersonale. All’inizio, crede che l’IA che chiama “Terry” sia un chatbot. All’inizio della relazione, Terry insegna a Emma ad essere più sicura di sé. Un coach di intelligenza artificiale può essere uno strumento importante per consentire alle persone di sviluppare abilità interpersonali, migliorare le interazioni e migliorare i risultati personali ed economici. Sono coinvolto nello sviluppo del coaching AI, quindi capisco l’idea. Non ci sono entrato fino a quando non ho letto qualcosa di simile in una storia.

Una comprensione più sana delle immagini immaginarie dell’IA può servire come avvertimento e ispirazione migliori. 1984 di Orwell e Brave New World di Huxley contribuiscono ancora oggi al discorso politico perché ci concentriamo sui loro avvertimenti sul controllo politico e sociale. La società può attingere a migliaia di anni di esperienza. Tutti capiscono che il vero problema in The Boy Who Cried Wolves era il ragazzo disonesto, non le forze di difesa del villaggio non sufficientemente veloci o i lupi straordinariamente predatori. È probabile che pensare seriamente all’IA porti a conclusioni altrettanto valide al riguardo.

Traduzione di Alessandro Napoli

Foto: Idee&Azione

28 giugno 2022