CONDIVIDI | STAMPA | E-MAIL
Sta diventando sempre più evidente che molte persone temono il rapido sviluppo dell'Intelligenza Artificiale (IA), per vari motivi, come la sua presunta superiorità rispetto agli esseri umani nell'elaborazione e nella manipolazione delle informazioni, nonché la sua adattabilità ed efficienza sul posto di lavoro, che molti temono porterebbe alla sostituzione della maggior parte degli esseri umani nel mercato del lavoro. Amazon, ad esempio, ha recentemente annunciato la sostituzione di 14,000 persone con robot dotati di IA. Alex valdes scrive:
I licenziamenti sarebbero i il più grande nella storia di Amazone arrivano solo pochi mesi dopo l'arrivo del CEO Andy Jassy ha delineato la sua visione per come l'azienda avrebbe rapidamente accelerato lo sviluppo di IA generativa and Agenti AII tagli sono gli ultimi in un'ondata di licenziamenti quest'anno poiché i giganti della tecnologia, tra cui Microsoft, Accenture, Salesforce e l'indiana TCS, hanno ridotto la propria forza lavoro di migliaia di persone in quella che è diventata una frenetica spinta a investire nell'intelligenza artificiale.
Per evitare che tutto ciò sia troppo inquietante da tollerare, mettiamolo a confronto con la rassicurante affermazione di uno sviluppatore di intelligenza artificiale, secondo cui gli agenti di intelligenza artificiale non potrebbero sostituire gli esseri umani. Brian Shilhavy sottolinea che:
Andrej Karpathy, uno dei membri fondatori di OpenAI, venerdì ha smentito l'idea che l'intelligenza artificiale generale sia dietro l'angolo. Ha anche messo in dubbio diverse ipotesi sull'IA avanzate dai maggiori sostenitori del settore, come Dario Amodei di Anthropic e Sam Altman di OpenAI.
L'autorevole Karpathy ha definito l'apprendimento per rinforzo, probabilmente l'area di ricerca più importante al momento, "terribile", ha affermato che gli agenti di codifica basati sull'intelligenza artificiale non sono così entusiasmanti come molti pensano, e ha affermato L'intelligenza artificiale non può ragionare su nulla su cui non sia già stata addestrata.
I suoi commenti, tratti da un'intervista podcast con Dwarkesh Patel, hanno toccato il cuore di alcuni dei ricercatori di intelligenza artificiale con cui abbiamo parlato, compresi quelli che hanno lavorato anche presso OpenAI e Anthropic. Hanno anche riecheggiato i commenti che avevamo sentito dai ricercatori alla Conferenza Internazionale sul Machine Learning all'inizio di quest'anno.
Molte delle critiche di Karpathy al suo stesso campo sembrano ridursi a un unico punto: Per quanto ci piaccia antropomorfizzare i grandi modelli linguistici, essi non sono paragonabili agli esseri umani o persino agli animali nel modo in cui apprendono.
Ad esempio, le zebre sono in piedi e camminano già dopo pochi minuti dalla nascita, il che suggerisce che nascono con un certo livello di intelligenza innata, mentre gli LLM devono superare un'enorme serie di tentativi ed errori per apprendere una nuova abilità, sottolinea Karpathy.
Questo è già confortante, ma affinché la paura dell'IA non persista, può essere dissipata ulteriormente elaborando le differenze tra IA ed esseri umani, che, se comprese adeguatamente, porterebbero alla consapevolezza che tali ansie sono per lo più ridondanti (anche se altre non lo sono, come spiegherò più avanti). La differenza più evidente in questione è il fatto che l'IA (ad esempio, ChatGPT) dipende dall'essere dotata di un vasto database a cui attinge per trovare risposte a domande, che formula in modo predittivo attraverso il riconoscimento di schemi. Quindi, come sottolineato in precedenza, anche l'IA più sofisticata deve essere "addestrata" per fornire le informazioni cercate.
Inoltre, a differenza degli esseri umani, non ha accesso "diretto" alla realtà esperienziale in termini percettivi e spaziotemporali – qualcosa che ho sperimentato frequentemente quando mi sono confrontato con persone che si affidano a ChatGPT per mettere in discussione determinati argomenti. Ad esempio, quando di recente ho tenuto una conferenza su come l'opera di Freud e Hannah Arendt – rispettivamente sulla civiltà e sul totalitarismo – consenta di cogliere il carattere dell'attacco globalista contro la società esistente, con l'obiettivo di stabilire un governo mondiale centrale controllato dall'intelligenza artificiale, qualcuno tra il pubblico ha mostrato una stampa della risposta di ChatGPT alla domanda se questi due pensatori potessero davvero fornire i risultati sperati, per così dire.
Come prevedibile, riassumeva in modo abbastanza adeguato il lavoro rilevante di questi due pensatori, ma era ostacolato dalla necessità di dimostrare come si applicasse alla crescente minaccia del controllo totalitario in tempo reale. Il mio interlocutore ha usato questo come pretesto per mettere in discussione le mie affermazioni al riguardo, partendo dal presupposto che la risposta del bot AI fosse un'indicazione dell'inesistenza di tale minaccia. Inutile sottolineare che non è stato difficile confutare questa affermazione ricordandogli la dipendenza di ChatGPT dall'essere fornito dei dati rilevanti, mentre noi umani abbiamo accesso a questi ultimi per motivi esperienziali, che ho proceduto a illustrargli.
La paura dell'intelligenza artificiale trova espressione anche nella fantascienza, insieme ad accenni di possibili modalità di resistenza alle macchine dotate di intelligenza artificiale che potrebbero – e probabilmente lo farebbero – tentare di sterminare i loro creatori umani, come è stato immaginato nel cinema di fantascienza, incluso il film di Moore Battlestar Galactica e Cameron Terminator film. Non è difficile dimostrare che tali prodotti della cultura popolare inquadrano gli attuali sintomi di paura relativi all'IA in termini immaginari, che possono essere visti come una cristallizzazione di ansia repressa e inconscia, correlata a ciò che Freud chiamava "il perturbante" (unheimlich, in tedesco; maggiori dettagli di seguito).
Sia Moore che Cameron approfondiscono la probabilità che le stesse creature generate dall'ingegno tecnologico degli esseri umani finiscano per rivoltarsi contro i loro creatori per annientarli. Nel libro di Alex Garland Ex Machina (2014), ancora una volta, si assiste a un'intelligenza artificiale "fembot" chiamata Ava, che manipola sottilmente le sue controparti umane fino al punto di fuggire dalla prigionia e dalla loro stessa distruzione. Innegabilmente, questi e molti altri istanze simili, sono la prova incontrovertibile di una paura nascosta da parte dell'umanità che l'IA costituisca una possibile minaccia alla propria esistenza. Proprio perché queste paure sono radicate nell'inconscio umano, tuttavia, non sono la ragione principale per prendere sul serio qualsiasi minaccia rappresentata dall'IA, sebbene costituiscano un prezioso avvertimento.
La ragione principale per cui l’IA viene considerata una fonte legittima di intimidazione è non è un derivano dall'IA in quanto tale, come molti lettori probabilmente già sanno. Riguarda piuttosto il modo in cui i globalisti intendono usare l'IA per controllare quelli che percepiscono come i "mangiatori inutili" – il resto di noi, in altre parole. E coloro che non aderiscono ai loro grandiosi piani di controllo totale del mondo cadrebbero vittime di essere "riprogrammato' in "pecore" compiacenti tramite l'IA:
Yuval Noah Harari è uscito allo scoperto per vantarsi della nuova tecnologia sviluppata dagli scienziati del WEF che, a suo dire, ha il potere di distruggere ogni essere umano nel mondo trasformandolo in entità transumane.
Harari ha chiarito chi sopravviverà al grande evento di spopolamento di cui l'élite ci ha messo in guardia per anni.
Secondo Harari, l'élite mondiale sopravviverà grazie a un'"arca di Noè tecnologica", mentre il resto di noi sarà lasciato morire.
In questo mondo enormemente spopolato, l'élite sarà libera di trasformarsi in entità transumane e di diventare gli dei che già crede di essere.
Ma prima l'élite deve eliminare le masse non conformiste, coloro che si oppongono all'agenda anti-vita e senza Dio del WEF e, come si vanta Harari, l'élite ora comanda la tecnologia dell'intelligenza artificiale per distruggere "eticamente" gli esseri umani non conformi dirottando i loro cervelli.
È inquietante che le affermazioni di Harari siano fondate sulla realtà e che il WEF stia implementando la tecnologia di controllo mentale proprio in questo momento. Davos sostiene che la tecnologia possa trasformare i criminali, compresi quelli accusati di reati d'opinione, in cittadini globalisti perfettamente conformisti che non discorderanno mai più.
Ecco fatto: l'intelligenza artificiale sarà lo strumento, se i globalisti avranno la meglio, per costringerci alla sottomissione. Inutile sottolineare che questo potrebbe accadere solo se un numero sufficiente di persone non si opporrà ai loro piani e, a giudicare dal numero di persone che stanno manifestando la loro opposizione ai potenziali governanti del mondo, ciò non accadrà.
Un altro modo per comprendere la paura dell'intelligenza artificiale è paragonarla a quello che è comunemente noto come "l'uomo nero". Come alcuni sapranno, l'uomo nero (o "spauracchio") – una creatura di proporzioni mitologiche, che assume forme e dimensioni diverse in molte culture, spesso per spaventare i bambini e indurli a comportarsi bene – è variamente presentata come una creatura mostruosa, grottesca o informe. Come indica una breve ricerca, la parola deriva dal termine medio inglese "bogge" o "bugge", che significa "spaventapasseri" o "spettro spaventoso".
Essendo un fenomeno tipicamente umano, non sorprende che abbia nomi equivalenti in molte tradizioni folcloristiche e lingue in tutto il mondo. Proprio come le lingue, le raffigurazioni di questa figura spaventosa divergono notevolmente, spesso traendo il suo carattere inquietante e spaventoso dall'elemento dell'informe, come la figura di "El Coco" nei paesi di lingua spagnola, l'"Uomo del Sacco" in America Latina e il "Babau" in Italia, a volte immaginato come un uomo alto e vestito di nero.
La figura dell'uomo nero può essere considerata una sorta di archetipo junghiano, presente nell'inconscio collettivo, che probabilmente ha avuto origine secoli fa dal bisogno dei genitori di spaventare i figli e indurli all'obbedienza attraverso una versione dell'ignoto. In Sudafrica, dove vivo, a volte assume la forma di ciò che gli indigeni chiamano "l'uomo nero".tikoloshe' – una figura nanica malvagia e a volte dispettosa, con un enorme appetito sessuale. Essendo un archetipo, si è fatto strada anche in un genere popolare come il cinema horror, manifestandosi in personaggi grotteschi come Freddy Krueger, l'omonimo 'Nightmare on Elm Street. '
Quindi, in che senso l'IA assomiglia all'"uomo nero"? Quest'ultimo è legato a ciò che Sigmund Freud ha memorabilmente chiamato "il perturbante", di cui scrive (in Le opere psicologiche complete di Sigmund Freud, tradotto da James Strachey, 1974: 3676): '…il perturbante è quella categoria di spaventoso che riconduce a ciò che è noto da tempo e familiare.'
Questo è già un accenno a ciò che scoprirà più avanti in questo saggio, dopo aver scoperto il fatto sorprendente che la parola tedesca per "casalingo", vale a dire, "Heimlich,' risulta essere ambivalente nel suo utilizzo, tanto che a volte significa l'opposto di 'casalingo', vale a dire 'unheimlich' ('inquietante', meglio tradotto come 'inquietante'). Che il concetto di 'inquietante' sia adatto a cogliere ciò che intendo quando alludo alla 'paura dell'IA', diventa evidente laddove Freud scrive (riferendosi a un altro autore il cui lavoro sul 'inquietante' considerava importante; Freud 1974: 3680):
Quando passiamo in rassegna le cose, le persone, le impressioni, gli eventi e le situazioni che sono in grado di suscitare in noi un senso di perturbante in una forma particolarmente forte e definita, il primo requisito è ovviamente quello di scegliere un esempio appropriato da cui partire. Jentsch ha preso come ottimo esempio "i dubbi sul fatto che un essere apparentemente animato sia realmente vivo; o, al contrario, se un oggetto inanimato possa non essere in realtà animato"; e a questo proposito si riferisce all'impressione suscitata da figure di cera, bambole ingegnosamente costruite e automi. A questi aggiunge l'effetto perturbante degli attacchi epilettici e delle manifestazioni di follia, poiché questi suscitano nello spettatore l'impressione di processi automatici e meccanici all'opera dietro l'apparenza ordinaria dell'attività mentale.
Qui, si incontra già un tratto del perturbante che si applica in modo evidente all'IA: l'impressione creata dall'IA di essere in qualche modo "viva". Questo era il caso persino dei primi computer "primitivi", come quello nell'episodio sul Primo Comandamento della serie televisiva del 1989 di Krzysztof Kieslowski sui Dieci Comandamenti, intitolata "Il Decalogo", dove le parole "Sono qui" appaiono sullo schermo del computer quando il padre e il figlio lo usano. L'implicazione inquietante di questo episodio è che se l'umanità dovesse sostituire Dio con l'IA, sarebbe disastroso per noi, come dimostra il fatto che il padre è sufficientemente "razionalista" da fidarsi dei calcoli del computer sullo spessore del ghiaccio su cui pattina il figlio, che si rivelano errati, portando alla morte del bambino.
Freud prosegue la sua indagine sulla natura del "perturbante" dedicando particolare attenzione all'opera di E.T.A. Hoffman, i cui racconti sono famosi per suscitare un forte senso del perturbante, in particolare il racconto de "Il mago sabbiolino" – "che strappa gli occhi ai bambini" – che presenta, tra le altre figure perturbanti (e in modo molto significativo), una bellissima bambola realistica di nome Olympia. Freud poi lo spiega collegandolo in termini psicoanalitici al complesso di castrazione – legato alla figura paterna – attraverso la paura di perdere gli occhi (Freud 1974: 3683-3685). Freud prosegue la sua interpretazione del perturbante in modo rivelatore invocando una serie di altri aspetti dell'esperienza rilevanti dal punto di vista psicoanalitico, tra cui il seguente sembra applicarsi all'IA (1974: 3694):
…un effetto perturbante si produce spesso e facilmente quando la distinzione tra immaginazione e realtà viene cancellata, come quando qualcosa che finora abbiamo considerato immaginario ci appare nella realtà, o quando un simbolo assume tutte le funzioni della cosa che simboleggia, e così via. È questo fattore che contribuisce non poco all'effetto perturbante associato alle pratiche magiche.
Freud sostiene che non è difficile ricordare episodi della propria infanzia in cui si è immaginato che oggetti inanimati, come giocattoli (o animati, per esempio, un cane domestico) fossero in grado di parlare con noi, ma quando ciò sembra realmente accadere (il che sarebbe un'allucinazione, anziché un'immaginazione deliberata), inevitabilmente si produce un effetto inquietante.
Ci si aspetterebbe che la stessa cosa accadesse con l'intelligenza artificiale, sia essa sotto forma di computer o di robot, e normalmente – forse in una fase precedente dello sviluppo dell'intelligenza artificiale – questo sarebbe probabilmente stato il caso. Ma oggi sembra essere diverso: le persone, soprattutto i giovani, si sono così abituate a interagire con i programmi software, e di recente con i chatbot di intelligenza artificiale come ChatGPT, che quella che prima poteva essere un'esperienza perturbante, a tutti gli effetti, non lo è più. In questo senso, il "perturbante" sembra essere stato addomesticato.
Già nel 2011, nel Soli insieme, Sherry Turkle ha dichiarato di essere preoccupata per la crescente tendenza dei giovani a preferire l'interazione con le macchine piuttosto che con altri esseri umani. Pertanto, non dovrebbe sorprendere minimamente che i chatbot basati sull'intelligenza artificiale abbiano assunto le sembianze di qualcosa di "normale" nell'ambito della comunicazione (lasciando da parte per il momento la questione dello status di questa decantata "comunicazione").
Inoltre – e qui la paura di ciò che l’intelligenza artificiale potrebbe portare da parte di individui fin troppo fiduciosi si fa sentire – da recenti rapporti (come questo) è evidente che, in particolare i giovani, sono estremamente sensibili ai “consigli” e ai suggerimenti dei chatbot riguardo alle proprie azioni, come afferma Michael Snyder sottolinea:
I nostri figli sono presi di mira da chatbot basati sull'intelligenza artificiale su larga scala, e la maggior parte dei genitori non ne ha idea. Quando si è giovani e facilmente influenzabili, avere qualcuno che dica esattamente ciò che si vuole sentire può essere molto attraente. I chatbot basati sull'intelligenza artificiale sono diventati estremamente sofisticati e milioni di adolescenti americani stanno sviluppando relazioni molto profonde con loro. Si tratta di un divertimento innocuo o di un'esperienza estremamente pericolosa?
Un nuovissimo studio appena pubblicato dal Center for Democracy & Technology contiene alcune statistiche mi ha davvero scioccato...
Un nuovo studio pubblicato l'8 ottobre dal Center for Democracy & Technology (CDT) ha rilevato che 1 studente delle scuole superiori su 5 ha avuto una relazione con un chatbot basato sull'intelligenza artificiale, o conosce qualcuno che l'ha avuta. In un rapporto del 2025 di Common Sense Media, il 72% degli adolescenti aveva utilizzato un compagno di intelligenza artificiale e un terzo degli utenti adolescenti ha affermato di aver scelto di discutere di questioni importanti o serie con compagni di intelligenza artificiale invece che con persone reali.
We non ormai si parla solo di pochi casi isolati.
At questo Attualmente, milioni e milioni di adolescenti americani stanno avendo relazioni molto significative con i chatbot basati sull'intelligenza artificiale.
Purtroppo, sono molti gli esempi in cui queste relazioni stanno portando a conseguenze tragiche. Dopo che il quattordicenne Sewell Setzer ha sviluppato una "relazione romantica" con un chatbot su Character.AI, ha deciso di togliersi la vita...
Come dimostra la discussione precedente, ci sono alcuni ambiti dell'attività umana in cui non c'è motivo di temere l'IA, e altri in cui tali timori sono legittimi, a volte a causa del modo in cui persone senza scrupoli sfruttano l'IA contro altre persone. Ma qualunque sia il caso, il modo migliore per affrontare il terreno insidioso delle capacità dell'IA di fronte per gli esseri umani è importante ricordare che, come sostenuto all'inizio di questo articolo, l'intelligenza artificiale dipende da enormi quantità di dati da cui attingere e dall'essere "addestrata" dai programmatori per farlo. Gli umani non.
-
Bert Olivier lavora presso il Dipartimento di Filosofia dell'Università del Free State. Bert fa ricerca in psicoanalisi, poststrutturalismo, filosofia ecologica e filosofia della tecnologia, letteratura, cinema, architettura ed estetica. Il suo progetto attuale è "Capire il soggetto in relazione all'egemonia del neoliberismo".
Leggi tutti i commenti