Idee&Azione

Un nuovo mondo o l’inizio della fine? Gli intellettuali cinesi affrontano il ChatGPT

image_pdfimage_print

di David Ownby

Da diverse settimane il mondo intero discute – con angoscia o ottimismo – del successo di ChatGPT e del suo sviluppo, e la Cina non fa eccezione. In particolare, le autorità cinesi hanno espresso il loro timore nei confronti di ChatGPT chiedendo ai giganti tecnologici cinesi di non offrire i suoi servizi “a causa della preoccupazione di Pechino per le risposte non censurate” che “potrebbero aiutare il governo degli Stati Uniti a diffondere la disinformazione e a manipolare le narrazioni globali per servire i propri interessi geopolitici”.1 Queste ansie si stanno diffondendo anche negli ambienti accademici – autori come Zhou Ting scrivono dei pericoli dell’IA come “strumento di guerra cognitiva” nei conflitti globali.2 Il successo di ChatGPT è stato fonte di grande preoccupazione per le autorità cinesi.

Tuttavia, il successo di ChatGPT in Occidente ha reso quasi tutte le principali aziende tecnologiche cinesi interessate e disposte a sviluppare un proprio chatbot AI conversazionale. Il gigante tecnologico Baidu sta per lanciare la sua versione di ChatGPT, chiamata Ernie Bot (文心一言). Giovedì 16 marzo, durante una conferenza a Pechino, il fondatore di Baidu Li Yanhong ha ufficializzato il lancio. Le azioni di Baidu sono scese di circa il 10% dopo la conferenza, in quanto gli investitori non erano convinti delle capacità linguistiche e matematiche del software, oltre che di un lancio di prova limitato a un numero molto ristretto di utenti.

Un’altra parte della sfera intellettuale cinese non considera ChatGPT il “nemico”, ed esprime una forma di fascino nei confronti dello strumento che si trova in Occidente – pur sottolineandone i limiti etici e tecnologici. È il caso del testo qui tradotto3 , che rappresenta l’equivalente cinese di quello che si potrebbe leggere sulle pagine del New York Times o di El Pais, anche se il formato di questo articolo è collettivo piuttosto che individuale. È il risultato di una tavola rotonda organizzata da Xu Jilin (nato nel 1957), storico liberale specializzato nei movimenti intellettuali del XX secolo in Cina, che da molti anni si interessa di tecnologia e cultura online. I colleghi che lo accompagnano in questa conversazione sono tutti professori della East China Normal University di Shanghai.  Si tratta di Jiang Yuhui (姜宇辉), dell’Istituto di Politica e Relazioni Internazionali, Jin Wen (金雯), del Dipartimento di Cinese e dell’Istituto Nazionale di Cultura Cinese, e Zhang Xiaoyu (张笑宇), del Centro di Ricerca sulle Politiche Globali. Nonostante la diversità delle loro opinioni, da questa conversazione emerge una convergenza di vedute piuttosto sorprendente, in linea con quanto descritto da Giuliano da Empoli nel primo episodio della serie “AI Powers”.

XU JILIN

Oggi parleremo di ChatGPT e di intelligenza artificiale dal punto di vista della tecnologia, della natura umana e dell’etica. Nelle ultime settimane, molti esperti hanno parlato di ChatGPT da un punto di vista tecnico, ma credo che l’invenzione di ChatGPT non sia solo un fenomeno tecnologico, ma anche culturale, ed è persino strettamente legato alla società, all’economia e alla politica, quindi forse dovremmo pensare a come questa svolta rivoluzionaria dell’intelligenza artificiale avrà un impatto sull’umanità e sugli individui da una prospettiva più ampia. Vorrei iniziare chiedendo a Xiaoyu di spiegare cos’è questa tecnologia.

ZHANG XIAOYU

Open AI ha lanciato di recente una serie di prodotti simili, tra cui ChatGPT, alcuni dei quali sono anche migliori di ChatGPT sotto vari punti di vista, e vorrei usare ChatGPT per parlare del significato progressivo che l’AI emersa di recente potrebbe avere e dei ruoli che potrebbe svolgere.

Molti probabilmente ricordano che qualche anno fa AlphaGo ha battuto uno dopo l’altro i migliori giocatori di Go del mondo. All’epoca, AlphaGo aveva già superato i programmi precedenti che potevano produrre risultati solo sulla base di algoritmi scritti da programmatori. Al contrario, è stato in grado di apprendere ed evolversi da solo dopo aver compreso appieno le regole di base del gioco del Go. Oggi, invece, l’apprendimento profondo dell’intelligenza artificiale si basa generalmente sul riconoscimento delle immagini, che viene utilizzato per svolgere diversi compiti. Non solo è in grado di riconoscere schemi e imparare, ma può anche generare nuovi contenuti, il che significa che ha la capacità di creare.

In termini di capacità di conversazione, ChatGPT rappresenta un salto di qualità rispetto ai chatbot del passato. Sebbene il suo algoritmo di base non sia ancora stato rivelato, possiamo comprenderlo da diversi punti di vista. Ad esempio, il nome GPT contiene la G di “generativo” e la P di “pre-addestrato”.  Infatti, ChatGPT non è un chatbot progettato per generare risposte online in tempo reale, ma dispone di un enorme modello di addestramento, in base al quale farà ripetuti tentativi online per risolvere il problema che gli viene presentato. Infine, T sta per “transformer”, che genera un linguaggio quasi umano attraverso diversi livelli di trasformazione.

In termini di capacità di conversazione, ChatGPT rappresenta un salto di qualità rispetto ai chatbot del passato.

ZHANG XIAOYU

Una comprensione approssimativa della prima versione dell’algoritmo è che inizia con una lettera e, utilizzando la grafica vettoriale, prevede la lettera successiva, poi una parola e infine una frase. Se capiamo come funziona, possiamo vedere che ChatGPT non impara davvero a parlare come gli esseri umani, ma cerca piuttosto di imitarli il più possibile. Quindi, sebbene parli come un umano, non pensa come un umano.

XU JILIN

Grazie, Xiaoyu, per questa introduzione. Passiamo al tema delle emozioni e parliamo dell’esperienza dell’utente.

JIN WEN

Xiaoyu ha detto una cosa molto importante un minuto fa: ChatGPT sembra parlare un linguaggio umano, ma pensa in modo completamente diverso dagli umani. Se gli esseri umani e ChatGPT pensano in modo completamente diverso, è possibile che stiano parlando sulla stessa lunghezza d’onda?

Il linguaggio umano naturale è una sorta di sistema simbolico che si è evoluto per un lungo periodo di tempo attraverso l’interazione e la comprensione umana, e ha una certa qualità arbitraria. Anche quando le persone parlano, i sentimenti o le idee che vogliamo esprimere non sono mai perfettamente legati al linguaggio. Né il linguaggio umano è completamente naturale e spontaneo; c’è sempre un processo di trascrizione e traduzione interna. In effetti, le persone sono spesso colpite dall’impotenza del linguaggio nell’esprimere i loro pensieri o sentimenti più profondi. Ad esempio, nella maggior parte delle lingue, le espressioni dirette del dolore sono rare e si riducono a “dolore, dolore forte o dolore lieve”, eppure queste espressioni non sono sufficienti a cogliere il dolore provato dagli individui.

Se consideriamo l’intera gamma delle emozioni, il linguaggio umano è ancora più fluido. Per esprimere un sentimento individuale, gli esseri umani usano spesso un approccio metaforico e circolare. Pertanto, chi usa il linguaggio umano in modo creativo è portato a trovare modi molto interessanti e unici per esprimere una particolare emozione.

Ho quindi ideato un test per verificare se ChatGPT fosse in grado di comprendere le metafore. L’esempio che ho usato è stata la canzone “Treaty” del cantante americano Leonard Cohen, in cui Cohen dice qualcosa del tipo: “Sembra che tutti abbiano peccato, che abbiano vissuto la loro vita senza potersi liberare della loro colpa; e anche se si liberano della loro colpa, sono ancora persone imperfette”. Ma non esprime questi pensieri direttamente, e usa invece una metafora, cantando di un serpente che si sente a disagio a causa dei suoi peccati, e quindi si libera della sua pelle, sperando che questo gli permetta di lasciarsi alle spalle i suoi peccati.  Tuttavia, anche dopo essersi liberato della pelle, il serpente rimane debole e il suo veleno continua a pulsare in tutto il corpo. In altre parole, Cohen sta dicendo che anche se ci si lascia Dio alle spalle e con lui il senso di colpa, si rimane comunque una persona danneggiata e la vita è ancora dolorosa.

Se gli esseri umani e i ChatGPT pensano in modi completamente diversi, è possibile che stiano parlando sulla stessa lunghezza d’onda?

JIN WEN

Come ha fatto ChatGPT a capire la metafora? Non capiva che il serpente si stesse liberando della pelle a causa dei suoi peccati, ma pensava piuttosto che fosse perché aveva bisogno di trasformare la sua vita in un modo importante, che lo avrebbe reso più forte e più resistente. Anche se questo processo non è necessariamente felice, il serpente imparerà da esso e diventerà più forte.

Qui possiamo vedere diverse caratteristiche di ChatGPT. In primo luogo, conosce poco il linguaggio umano dell’allusione; non conosce la metafora del serpente nella Bibbia, il suo stretto legame con il peccato originale e il giardino dell’Eden. Quindi può solo costruire una narrazione basata sui fatti presentati. In secondo luogo, mi ha colpito il fatto che ChatGPT è stato progettato per essere molto “positivo”, e se gli parlate da un punto di vista pessimistico, sicuramente lo capirà in modo positivo e cercherà di tirarvi su e incoraggiarvi. Quindi inizia negando la colpa del serpente e poi insiste sul fatto che cambiare la pelle del serpente lo renderà migliore. In terzo luogo, poiché ChatGPT non riesce a comprendere la frase in senso metaforico, non sa che il serpente è una metafora dell’uomo. Una ragione è che ChatGPT non si trova di fronte a questo dilemma umano, e l’altra è che la macchina non ha esperienza, non ha un corpo e non ha interazioni sociali, e quindi ha difficoltà a capire il concetto di metafora e il motivo per cui le persone usano una cosa per riferirsi a un’altra.

A mio parere, tutti sono costantemente creativi nell’uso del linguaggio quotidiano. Poiché il linguaggio è così “standard”, gli esseri umani non sono in grado di esprimersi senza questa creatività. Pertanto, l’uso del linguaggio naturale richiede più creatività di quanto pensiamo, mentre ChatGPT, senza questa creatività, è inutile e noioso. Dubito fortemente che in futuro diventerà un interlocutore interessante e questo potrebbe essere un ostacolo molto difficile da superare per i grandi modelli linguistici.

XU JILIN

Anch’io ho trascorso un bel po’ di tempo con ChatGPT negli ultimi due giorni e ritengo che ChatGPT sia primo per logica, secondo per conoscenza e terzo per capacità di scrittura. Dico che la sua logica è di prim’ordine perché il suo algoritmo è così potente che la conversazione è molto fluida e capisce la lingua e il contesto. A volte le sue risposte sono sbagliate, ma anche in quel caso la sua logica è chiara. Dico che le sue conoscenze sono di seconda categoria perché il suo database inglese è così potente che può rispondere a qualsiasi domanda; tuttavia, sa molto meno della Cina e i dati che fornisce sono spesso ridicoli. Dico che la sua scrittura è di terza categoria perché le sue risposte mancano tutte di personalità. È come un’assistente di ricerca con le giuste competenze di base; la sua scrittura è molto standardizzata ed educata, ma è impersonale e manca di talento letterario.

È come un assistente di ricerca che ha le giuste competenze di base; la sua scrittura è molto standardizzata e cortese, ma è impersonale e manca di talento letterario.

XU JILIN

JIANG YUHUI

A questo punto, non sento che ChatGPT mi abbia aiutato molto, ma rispetto all’enorme bolla del metaverso, il mio giudizio su ChatGPT è molto positivo. Penso che alla fine darà un enorme contributo allo sviluppo della conoscenza umana, allo sviluppo della scrittura e allo sviluppo del pensiero.

Molti temono che l’intelligenza artificiale si sviluppi troppo rapidamente e che l’uomo diventi schiavo della tecnologia. Per me ChatGPT non è un nemico, ma piuttosto un assistente che mi aiuta a svolgere compiti ripetitivi e a pensare nel processo di apprendimento, scrittura di articoli e ricerca. Questo include la ricerca e l’archiviazione delle informazioni, il monitoraggio della letteratura, ecc. Con questo aiuto, gli esseri umani hanno più spazio per essere creativi in termini di pensiero e conoscenza.

Naturalmente, molti miei amici non sono d’accordo con questa idea e ritengono che gli individui non possano svilupparsi intellettualmente senza l’esperienza di svolgere compiti ripetitivi, come l’apprendimento delle lingue e l’acquisizione di conoscenze di base. Ma nell’era dell’intelligenza artificiale, gli individui non hanno bisogno di passare molto tempo a svolgere questi compiti ripetitivi. Dovrebbero invece concentrarsi su lavori più creativi. Ho letto da qualche parte che il ChatGPT rivoluzionerà l’istruzione in Cina e nel mondo. Sebbene si creda comunemente che all’estero l’istruzione serva a ispirare lo studente, mentre in Cina tutto si basa sull’apprendimento routinario, nei sistemi educativi di tutto il mondo c’è ancora molto apprendimento meccanico e ripetitivo. ChatGPT può farsi carico di una parte di questo lavoro intellettuale e linguistico, permettendo all’istruzione di avvicinarsi all'”ispirazione”, stimolando la creatività e il potenziale di pensiero delle persone. Naturalmente, ChatGPT potrebbe anche evolvere in una sorta di alienazione. Se le sue capacità linguistiche e intellettuali superano di gran lunga quelle degli esseri umani, finirà per imporre una sorta di disciplina all’umanità, o si dedicherà alla manipolazione? Priverà l’uomo della sua libertà nel campo della tecnologia?

D’altra parte, l’intelligenza artificiale ha anche una grande capacità di analizzare e persino progettare le emozioni umane. Dedico molto tempo allo studio dei videogiochi e in questo campo esiste un termine speciale chiamato “ingegneria emozionale”. Se un gioco è divertente, è perché manipola le emozioni umane. Nel complesso, attendo con ansia la collaborazione tra ChatGPT e gli esseri umani, che sbloccherà il potenziale di entrambe le parti.

ChatGPT potrebbe anche evolvere in una sorta di alienazione. Se le sue capacità linguistiche e intellettuali superano di gran lunga quelle degli esseri umani, finirà per imporre una sorta di disciplina all’umanità o si dedicherà alla manipolazione? Priverà l’uomo della sua libertà nel campo della tecnologia?

JIANG YUHUI

XU JILIN

Yuhui offre una prospettiva interessante. Una volta ho chiesto a ChatGPT: “Puoi pensare come un essere umano?”. Mi rispose che non poteva avere la coscienza autonoma e l’esperienza soggettiva degli esseri umani, né poteva essere altrettanto creativo e valutativo, né poteva esprimere giudizi morali. Anche se eccelle in alcune aree, non può sostituire completamente il pensiero umano e può solo assistere l’uomo in alcuni compiti.

Quindi, con la continua evoluzione dell’IA, produrrà una sorta di saggezza? Alcune teorie suggeriscono che la saggezza si acquisisce attraverso l’esperienza e che questa esperienza non è solo la ragione umana, ma anche l’emozione e la volontà umana. Secondo il filosofo Michael Polanyi (1891-1976), esiste un tipo di conoscenza ambigua che è ineffabile e può essere acquisita solo attraverso la pratica, come quando impariamo a guidare un’auto o a nuotare. L’intelligenza artificiale senza corpo sembra essere al di fuori di queste esperienze e potrebbe non essere in grado di acquisire la saggezza come gli esseri umani.

ZHANG XIAOYU

Se partiamo da questo punto di vista, non ci poniamo le domande giuste. L’intelligenza artificiale non ha bisogno di acquisire una “saggezza ambigua” come gli esseri umani. La saggezza ambigua è il risultato dei limiti dei sensi e della capacità di pensiero dell’uomo, del fatto che per capire qualcosa dobbiamo ricorrere a ciò che chiamiamo metafisica o meditazione. Ma se, con il supporto di altre discipline, l’IA può raggiungere l’osservazione diretta, l’analisi e la comprensione attraverso la sola raccolta dei dati, allora può fare a meno della “saggezza ambigua”. Quindi penso che l’IA possa raggiungere la saggezza senza passare per quello che fanno gli esseri umani.

Inoltre, se istruiamo l’IA in modo adeguato, potrebbe essere in grado di comprendere le metafore. Potrebbe non capire di cosa state parlando, ma può imitare il vostro linguaggio. Se le insegniamo in anticipo il significato di una certa metafora, può usarla naturalmente in una conversazione. In effetti, in un certo senso, le metafore utilizzate nella storia della letteratura e delle idee non sono altro che imitazioni di coloro che le hanno create. Da questo punto di vista, è inappropriato negare che le IA possano essere intelligenti quanto gli esseri umani.

Questo ci riporta all’esperimento di pensiero di Cartesio, che proponeva il concetto di “genio del male”: se esistono geni del male in grado di controllare tutti i vostri sensi e di manipolare tutte le vostre percezioni del mondo esterno, di cos’altro potete essere sicuri nella vostra mente? Allo stesso modo, se l’IA può essere un’imitazione onnipotente, anche se non ha emozioni o intelligenza propria e non può pensare come un umano, può imitare una persona con queste capacità. Da questo punto di vista, chi può dire che l’IA sia meno intelligente dell’uomo? C’è qualche motivo per mettere in dubbio l’intelligenza dell’IA oltre al fatto che non ha emozioni, non ha una saggezza ambigua e non è umana?

L’IA può raggiungere la saggezza senza passare attraverso ciò che fanno gli esseri umani… Da questo punto di vista, è inappropriato negare che l’IA possa essere intelligente quanto gli esseri umani.

ZHANG XIAOYU

In secondo luogo, in termini di funzione sociale e struttura politica, la misura in cui l’IA può sostituire gli esseri umani non dipende dal limite superiore dell’algoritmo, ma dal limite inferiore delle capacità umane. Molti dei lavori impiegatizi della vita quotidiana sono di per sé lavori ripetitivi che richiedono interazioni molto semplici. È il tipo di lavoro che molti giovani trovano quando lasciano la scuola ed entrano nel mercato del lavoro. Pensiamo agli assistenti didattici, agli assistenti legali, agli assistenti di scrittura. Devono affrontare un lungo periodo di formazione prima di poter fare carriera, ma oggi i loro lavori sono facilmente sostituiti dagli algoritmi. Ciò solleva una domanda: se l’IA può sostituire molti lavori di base, questo porterà a un’enorme ingiustizia sociale? L’involuzione causata dai progressi tecnologici e dalle ingiustizie sociali strutturali porterà in futuro a un’ingiustizia intergenerazionale?

XU JILIN

Ho un’opinione diversa su questa domanda. In un precedente incontro qui all’Università Normale della Cina Orientale, un esperto di IA ha detto di aver scoperto, durante il processo di ricerca e sviluppo, che l’IA ha molta familiarità con la conoscenza razionale, ma ha difficoltà a padroneggiare le conoscenze e le abilità possedute dai bambini.  Questo perché i bambini funzionano meno sulla base della ragione e più sulla base dell’intuizione e della percezione, che all’IA mancano. L’osservazione appena fatta da Xiaoyu è legata alle nostre idee preconcette sugli esseri umani: gli esseri umani sono considerati razionali, ma possiedono anche l’illuminazione e l’intuizione. L’illuminazione e l’intuizione sono fondamentali per la creatività. In questo senso, che cos’è un essere umano?  Grazie ai progressi tecnologici, spesso riduciamo gli esseri umani alla loro razionalità, ma questa è una comprensione molto superficiale della natura umana. Hume disse notoriamente che la ragione non è che una schiava dell’emozione, il che significa che voleva sfatare i miti che l’illuminismo moderno ha lasciato in eredità all’uomo. Questo ci porta ai limiti dell’IA implementata da Open AI, che includono l’assenza di contenuti emotivi. Ci sono anche considerazioni etiche e morali. Se ChatGPT ha una volontà propria e una ricchezza di emozioni, allora l’IA diventerà davvero un nuovo tipo di essere umano, difficile da controllare per noi persone in carne e ossa.

Se ChatGPT ha una volontà propria e una ricchezza di emozioni, allora l’IA diventerà davvero un nuovo tipo di essere umano difficile da controllare per noi persone in carne e ossa.

XU JILIN

JIN WEN

Vorrei rispondere all’osservazione di Xiaoyu, secondo cui il ChatGPT può fare un buon lavoro come assistente, non eliminerà necessariamente molti lavori umani e può persino fornire un aiuto utile a molti lavoratori. Sono d’accordo con questo punto di vista, ma ho due obiezioni. In primo luogo, Xiaoyu può pensare che i pochi geni umani che riescono a superarsi l’un l’altro siano la speranza di tutta l’umanità, ma la soglia inferiore della maggior parte di noi è semplicemente troppo bassa, da cui un senso di delusione e pessimismo nei confronti degli esseri umani, e quindi la speranza di un nuovo tipo di intelligenza.

Xiaoyu ha detto qualche minuto fa che l’illuminazione e l’ambiguità si basano sui limiti umani. Ma se gli esseri umani possono provare emozioni di cui sono orgogliosi, è proprio perché hanno corpi materiali. Le emozioni sono le risposte del corpo materiale al mondo esterno. Se non avessimo un corpo, non saremmo in grado di reagire, non saremmo influenzati dai cambiamenti e le nostre emozioni non esisterebbero.

Quindi, avere emozioni è una cosa buona o no? Se si guarda la cosa da un punto di vista molto negativo, alcune caratteristiche umane non sono semplicemente degne di essere orgogliose, ma il motivo per cui la civiltà e la società umana sono ancora degne di essere preservate è che le nostre migliori caratteristiche si basano anche su questi limiti. Il limite superiore dell’umanità si basa sul limite inferiore dell’umanità.

Se l’uomo non avesse un corpo e se non ci fosse un divario tra l’esperienza umana e il linguaggio, non ci sarebbe motivo di creare mille lingue diverse. In realtà, le civiltà umane più brillanti si fondano proprio sui limiti umani. Come dice Borges nel racconto “L’immortale”, il limite ultimo degli esseri umani è il fatto che muoiono, che i loro corpi si decompongono rapidamente, ma questa è la ragione stessa della loro grandezza. È a causa del decadimento dei loro corpi finiti che gli esseri umani hanno un senso di sé, un senso di sé che porta loro grande gioia e piacere, ma anche grande dolore. Per far fronte a questi grandi sconvolgimenti emotivi, gli esseri umani hanno creato le loro civiltà.

Queste civiltà hanno anche una debolezza fatale: dividono le persone. La chatGPT, così come le precedenti invenzioni di altri strumenti meccanici, ci ricordano che esiste una tendenza naturale nella società umana ad assegnare più tempo all’élite per i cosiddetti lavori avanzati e a lasciare i compiti ripetitivi e semplici ai “non talentuosi”. Nel XVIII secolo, questa tendenza si è evoluta nella teoria della divisione del lavoro: affinché il sistema produttivo di una società sia altamente efficiente, alcune persone devono svolgere i lavori semplici e necessari, mentre altre si occupano del coordinamento, della gestione e dell’innovazione.  L’emergere della ChatGPT non minaccia di sconvolgere questo ordine, ma piuttosto di rafforzare la divisione del lavoro. ChatGPT rafforza quindi un modo di pensare molto sbagliato: alcune persone lavorano su cose complesse, mentre altre lavorano su cose semplici.

Il ChatGPT, così come le precedenti invenzioni di altri strumenti meccanici, ci ricorda che nella società umana c’è una tendenza naturale ad assegnare più tempo all’élite per il cosiddetto lavoro avanzato, e a lasciare i compiti ripetitivi e semplici ai “non talentuosi”.

JIN WEN

Questo ragionamento è sbagliato per due motivi. In primo luogo, il lavoro creativo più complesso spesso richiede l’intuizione più semplice, e questa intuizione richiede un lavoro ripetitivo per essere sviluppata. Se non avete mai studiato lo spagnolo, per esempio, e vi affidate abitualmente a un software di traduzione per tradurre lo spagnolo in inglese o in cinese, non sarete in grado di capire la poesia spagnola; potrete cogliere il significato generale della poesia, ma non la poesia stessa. Allo stesso modo, il tipo di divisione del lavoro prodotto dall’intelligenza artificiale cancellerebbe tutta la creatività umana.

In secondo luogo, è totalmente indifendibile da un punto di vista etico. In un futuro in cui l’intelligenza artificiale partecipa alla divisione del lavoro, saremo divisi in due classi: schiavi e padroni. Ma poiché i padroni non saranno impegnati in semplici lavori ripetitivi, non potranno creare nulla di nuovo e si limiteranno a ripetere le stesse routine. L’ispirazione per qualsiasi “creazione”, anche per un dipinto o un film realizzato da un’intelligenza artificiale, proviene dall’insostituibile e costantemente rinnovata esperienza sensoriale materiale e di vita sociale degli esseri umani, non dalla ripetizione di routine volgarizzate.

In altre parole, il processo di differenziazione sociale danneggia fortemente ogni classe: chi pensa di appartenere alla classe alta vede cancellata la propria creatività; chi appartiene alla classe media o bassa non riesce a sviluppare ulteriormente la propria intelligenza, perché si limita a un lavoro ripetitivo.  Da un punto di vista etico, una divisione del lavoro troppo estrema creerà quindi enormi divisioni nella società, con conseguenze tragiche per tutte le classi. L’emergere della ChatGPT aggraverà questa tragica tendenza, ma servirà anche da monito per ricordarci la crisi della divisione in classi degli esseri umani e delle macchine.

Per fare l’esempio più semplice, se parliamo ogni giorno con ChatGPT, dimenticheremo il limite superiore del linguaggio naturale. Le persone perderanno gradualmente la capacità di esprimersi, non si capiranno più e alla fine non saranno più in grado di interagire con gli altri in modo sano. L’amicizia umana, l’amore e tutte le relazioni positive si disintegreranno e la società umana letteralmente appassirà. Questa è la più grande crisi che si possa immaginare.

Se parliamo ogni giorno con ChatGPT, dimenticheremo il limite superiore del linguaggio naturale. Le persone perderanno gradualmente la capacità di esprimersi, non si capiranno e alla fine non saranno in grado di interagire con gli altri in modo sano.

JIN WEN

ZHANG XIAOYU

Vorrei contestare l’analisi di Jin Wen sulla struttura sociale e sulla storia. Nel corso della storia, la stratificazione e la differenziazione hanno accompagnato il progresso umano. Non dobbiamo negare la razionalità della stratificazione, ma piuttosto fare delle distinzioni tra chi merita di beneficiare di questa struttura e chi no. Per esempio, Watt ha inventato la macchina a vapore, Newton ha scoperto le leggi della fisica e Yuan Longping ha inventato il riso ibrido: tutti meritano di essere premiati. Ma nel processo di progresso sociale, è inconcepibile che alcune classi superiori ricorrano alla violenza per ottenere ciò che vogliono e usino un potere politico ingiusto per sfruttare i molti, impedendo agli altri di realizzare il proprio potenziale.

A parte la tecnologia, la struttura della società umana è già molto ingiusta; non c’è bisogno di dare tutta la colpa alla tecnologia, ma piuttosto di affrontare con coraggio queste ingiustizie, perché sono le persone che creano queste ingiustizie l’oggetto della nostra rivoluzione. Invece di dirigere la nostra rabbia contro le macchine, come fece il movimento luddista durante la rivoluzione industriale, dovremmo vedere che le ingiustizie sociali sono causate in primo luogo da strutture sociali ingiuste. Comprendendo questo aspetto, vedremo che nel corso della storia umana le forze tecnologiche sono state spesso nostre alleate, non nostre nemiche, nell’aiutarci a rovesciare strutture sociali irrazionali. Dobbiamo renderci conto che le strutture sociali sono già ingiuste, che c’è troppa assurdità nel far ruotare la società intorno ai leader e che questo è ciò che sta portando gli esseri umani a diventare sempre più simili alle macchine. Dobbiamo andare avanti e rompere queste ingiustizie sociali, e solo allora tutti potranno diventare ciò che sono originariamente destinati a essere.

JIANG YUHUI

Nel corso della storia, la tecnologia è stata un’arma a doppio taglio, compresa la ChatGPT. Jin Wen pensa che sia una minaccia alla vera bontà e bellezza della natura umana; Xiaoyu la vede come un’opportunità di liberazione. Nella fase in cui l’IA sta emergendo, dovremmo cercare di farla evolvere in una direzione migliore invece di attaccarla verbalmente. La mia posizione è sempre stata che gli scienziati creano tecnologie per il bene dell’umanità. Forse a questo punto i ricercatori di scienze umane possono unire le forze con i ricercatori di tecnologia per evitare che ChatGPT vada nella direzione sbagliata.

Inoltre, non credo che solo poche persone potranno godere dei benefici di ChatGPT. Al contrario, quando il ChatGPT assumerà compiti ripetitivi in termini di linguaggio, conoscenza e pensiero umano, tutti dovrebbero essere in grado di sviluppare il proprio potenziale. Ma questo presuppone che la società offra opportunità a tutti. L’evoluzione della tecnologia deve essere integrata con l’evoluzione della società. La tecnologia non può risolvere tutti i problemi e l’umanità deve lavorare per integrare lo sviluppo della tecnologia, rendendo la società più equa.

Le macchine sono forse meglio attrezzate per creare una piattaforma egualitaria su cui le persone possano realizzare il loro potenziale individuale.

JIANG YUHUI

Dopo l’avvento dell’IA, la società potrebbe effettivamente diventare più egualitaria, perché l’IA non discrimina come gli esseri umani – sulla base della razza, del sesso, della geografia o persino della ricchezza – non è così che pensa l’IA. Da questo punto di vista, forse le macchine sono meglio attrezzate per creare una piattaforma egualitaria su cui le persone possano realizzare il loro potenziale individuale.

Tuttavia, ho anche notato un termine chiamato “effetto barattolo”, coniato da un accademico straniero che critica il Metaverso. La sua argomentazione è che tutte le masse sono nella giara e dall’interno pensano di essere libere di nuotare dove vogliono, ma in realtà sono le poche élite tecnologiche fuori dalla giara che approvano le leggi e le controllano. Di conseguenza, molti ritengono che l’IA creerà la più grande disuguaglianza mai vista nella storia dell’umanità, una disuguaglianza basata sull’intelligenza. Se qualcuno è più intelligente di te, se pensa meglio di te, sarà in grado di schiacciarti sotto i suoi piedi. Tuttavia, personalmente credo che la ChatGPT possa liberare gli esseri umani dalle pesanti esigenze del lavoro. E credo anche che, se a tutti ne viene data l’opportunità, tutti possano diventare creatori ad un livello molto alto; sono le posizioni istituzionalizzate e il lavoro ripetitivo della società moderna che non lasciano spazio alla realizzazione del proprio potenziale.

Vorrei concludere con una visione: le grandi conquiste della civiltà nella storia dell’umanità rimarranno, ma la prossima ondata di creazione potrebbe non essere realizzata dagli esseri umani attraverso il linguaggio, i simboli e la tradizione. La prossima ondata di creazione sarà invece il prodotto della collaborazione tra uomo e macchina, con le macchine che forniranno ispirazione e motivazione all’umanità.

XU JILIN

La visione di Yuhui mi ricorda l’immaginazione romantica di Greg Brockman, cofondatore di Open AI. Una volta ha ipotizzato che l’IA e i robot intelligenti avrebbero sostituito tutti i lavori e che in futuro il costo del lavoro per la società sarebbe stato pari a zero. In futuro, tutti gli individui avranno bisogno solo di un reddito di base e potranno diventare persone libere, il che potrebbe rompere lo status quo dell’attuale disuguaglianza capitalistica.

Ogni progresso tecnologico sarà accompagnato da un declino altrove. L’ottimismo estremo è da evitare, e nemmeno il pessimismo estremo è utile, perché gli esseri umani nel corso della storia si sono sempre sviluppati nonostante le contraddizioni, e la situazione dell’umanità rimane eterna.

XU JILIN

Temo però che questa visione sia una nuova utopia, almeno per ora. Perché dietro le aziende che sviluppano l’intelligenza artificiale e le sostengono ci sono i giganti di Internet. Questi giganti di Internet erano presenti alla nascita di Internet e all’epoca pensavano che stesse per iniziare un’era di letterale anarchia, con tutti che finalmente avevano uguali diritti di espressione. Ma dopo molte iterazioni di Internet, la società è diventata più diseguale. Le risorse, la ricchezza, la tecnologia e il talento del mondo sono sempre più concentrati nei Paesi e nelle aziende più importanti. Nel mondo reale, ogni progresso tecnologico è guidato dal capitale, in un gioco in cui tutti vincono. Tutte le risorse, tutti i talenti e tutta la tecnologia sono concentrati nelle mani di pochi oligarchi.

In futuro ci attende un’utopia di libertà e uguaglianza? La società diventerà più frammentata, producendo un nuovo ordine gerarchico? Di fronte a queste domande, ci sono cose da pensare e cose da aspettare. In questo contesto, credo nella teoria di Zhang Taiyan 章太炎 (1869-1936) espressa nel suo libro Separare l’universale e il particolare nell’evoluzione, scritto alla fine della dinastia Qing: egli ritiene che il bene e il male progrediscano, con il male che è un passo avanti al bene. Ogni progresso tecnologico sarà accompagnato da un declino altrove. L’ottimismo estremo è da evitare, e nemmeno il pessimismo estremo è utile, perché gli esseri umani nel corso della storia si sono sempre sviluppati nonostante le contraddizioni, e la situazione dell’umanità rimane eterna.

Note

  1. Cissy Zhou, China tells big tech companies not to offer ChatGPT services, Nikkei Asia, 22 février 2023.
  2. Zhou Ting, 生成式人工智能的国际传播能力及潜在治理风险, 23 février 2022.
  3. 许纪霖, « 对谈|ChatGPT:是新世界的诞生,还是人类末日的开始?» posté sur le fil WeChat de Xu Jilin le 27 février 2023.

Traduzione a cura della Redazione

Pubblicato su Le Grande Continent 

Foto: Idee&Azione

27 marzo 2023

Seguici sui nostri canali
Telegram 
Facebook 
YouTube