CONDIVIDI | STAMPA | E-MAIL
Prima del Covid, mi sarei descritto come un ottimista tecnologico. Le nuove tecnologie arrivano quasi sempre in mezzo a paure esagerate. Si pensava che le ferrovie causassero crolli mentali, che le biciclette rendessero le donne sterili o folli, e che l'elettricità primitiva fosse ritenuta responsabile di tutto, dal decadimento morale al collasso fisico. Col tempo, queste ansie si sono attenuate, le società si sono adattate e gli standard di vita sono migliorati. Lo schema era abbastanza familiare da far pensare che l'intelligenza artificiale avrebbe probabilmente seguito il suo esempio: dirompente, a volte abusato, ma in definitiva gestibile.
Gli anni del Covid hanno minato questa fiducia, non perché la tecnologia abbia fallito, ma perché lo hanno fatto le istituzioni.
In gran parte del mondo, governi e organismi di esperti hanno risposto all'incertezza con interventi sociali e biomedici senza precedenti, giustificati da modelli di scenario peggiore e applicati con notevole certezza. Le ipotesi contrastanti sono state marginalizzate anziché dibattute. Le misure di emergenza si sono consolidate in politiche a lungo termine. Quando i dati si sono modificati, le ammissioni di errore sono state rare e la responsabilità ancora più rara. L'esperienza ha messo in luce un problema più profondo di qualsiasi singolo errore politico: le istituzioni moderne sembrano scarsamente attrezzate per gestire l'incertezza senza esagerare.
Questa lezione pesa oggi molto sui dibattiti sull'intelligenza artificiale.
Il divario di rischio dell'IA
In generale, le preoccupazioni sull'intelligenza artificiale avanzata si dividono in due gruppi. Un gruppo – associato a pensatori come Eliezer Yudkowsky e Nate Soares – sostiene che un'intelligenza artificiale sufficientemente avanzata sia catastroficamente pericolosa per definizione. Nella loro formulazione volutamente cruda, Se qualcuno lo costruisce, tutti muoiono, il problema non sono le cattive intenzioni ma gli incentivi: la concorrenza fa sì che qualcuno tagli gli angoli e, una volta che un sistema sfugge a un controllo significativo, le intenzioni non contano più.
Un secondo schieramento, che include personaggi come Stuart Russell, Nick Bostrom e Max Tegmark, prende anch'esso sul serio il rischio dell'IA, ma è più ottimista sul fatto che l'allineamento, una governance attenta e un'implementazione graduale possano mantenere i sistemi sotto il controllo umano.
Nonostante le differenze, entrambi gli schieramenti convergono su una conclusione: lo sviluppo di un'IA senza vincoli è pericoloso e una qualche forma di supervisione, coordinamento o limitazione è necessaria. Ciò che li separa è la fattibilità e l'urgenza. Ciò che raramente viene esaminato, tuttavia, è se le istituzioni che dovrebbero fornire tale limitazione siano a loro volta idonee a svolgere tale ruolo.
Il Covid suggerisce motivi di dubbio.
Il Covid non è stato semplicemente una crisi di salute pubblica; è stato un esperimento dal vivo di governance guidata da esperti in condizioni di incertezza. Di fronte a dati incompleti, le autorità hanno ripetutamente scelto interventi massimalistici giustificati da danni speculativi. Il dissenso è stato spesso trattato come un fallimento morale piuttosto che come una necessità scientifica. Le politiche sono state difese non attraverso un'analisi trasparente dei costi-benefici, ma attraverso appelli all'autorità e la paura di futuri ipotetici.
Questo schema è importante perché rivela il comportamento delle istituzioni moderne quando la posta in gioco è inquadrata come esistenziale. Gli incentivi si spostano verso la risolutezza, il controllo narrativo e la certezza morale. La correzione degli errori diventa costosa in termini di reputazione. La precauzione smette di essere uno strumento e diventa una dottrina.
La lezione non è che gli esperti siano gli unici ad avere difetti. È che le istituzioni premiano l'eccesso di fiducia in se stessi in modo molto più affidabile dell'umiltà, soprattutto quando politica, finanziamenti e paura pubblica coincidono. Una volta che poteri straordinari vengono rivendicati in nome della sicurezza, raramente vengono abbandonati volontariamente.
Sono proprio queste le dinamiche ora visibili nelle discussioni sulla supervisione dell'intelligenza artificiale.
La macchina del "cosa succederebbe se"
Una giustificazione ricorrente per un intervento statale espansivo è quella dell'ipotetico cattivo attore: E se a costruire tutto questo fosse un terrorista? E se a farlo fosse uno Stato canaglia? Da questa premessa deriva l'argomentazione secondo cui i governi devono agire in modo preventivo, su larga scala e spesso in segreto, per impedire la catastrofe.
Durante il Covid, una logica simile giustificava programmi di ricerca biomedica radicali, autorizzazioni di emergenza e controlli sociali. Il ragionamento era circolare: perché qualcosa di pericoloso... forza Se ciò dovesse accadere, lo Stato deve adottare subito misure straordinarie, misure che di per sé comportano rischi significativi e poco compresi.
La governance dell'IA è sempre più inquadrata nello stesso modo. Il pericolo non è solo che i sistemi di IA possano comportarsi in modo imprevedibile, ma che il timore di tale possibilità legittimi una governance di emergenza permanente – un controllo centralizzato su elaborazione, ricerca e flussi di informazioni – sulla base del presupposto che non vi siano alternative.
Rischio privato, rischio pubblico
Una distinzione sottovalutata in questi dibattiti è quella tra rischi generati da attori privati e rischi generati dall'autorità statale. Le imprese private sono vincolate – in modo imperfetto, ma significativo – da responsabilità, concorrenza, reputazione e disciplina di mercato. Questi vincoli non eliminano il danno, ma creano circoli viziosi.
I governi operano in modo diverso. Quando gli stati agiscono in nome della prevenzione delle catastrofi, il feedback si indebolisce. I fallimenti possono essere riclassificati come necessità. I costi possono essere esternalizzati. La segretezza può essere giustificata dalla sicurezza. Ipotetici danni futuri diventano leve politiche nel presente.
Diversi pensatori dell'IA lo riconoscono implicitamente. Bostrom ha messo in guardia dagli effetti di "lock-in" – non solo dai sistemi di IA, ma anche dalle strutture di governance create in momenti di panico. L'appello di Anthony Aguirre alla moderazione globale, pur essendo logicamente coerente, si basa su organismi di coordinamento internazionali la cui recente esperienza in termini di umiltà e correzione degli errori è scarsa. Proposte ancora più moderate presuppongono che le autorità di regolamentazione siano in grado di resistere alla politicizzazione e al "mission creep".
Il Covid ci dà pochi motivi per essere certi di questa ipotesi.
Il paradosso della supervisione
Ciò porta a un inquietante paradosso al centro del dibattito sull'IA. Se si crede davvero che l'IA avanzata debba essere limitata, rallentata o bloccata, sono i governi e le istituzioni transnazionali ad avere più probabilità di detenere il potere per farlo. Eppure sono proprio questi attori il cui comportamento recente infonde la minore fiducia in un uso limitato e reversibile di tale potere.
L'inquadramento dell'emergenza è appiccicoso. L'autorità acquisita per gestire rischi ipotetici tende a persistere ed espandersi. Le istituzioni raramente sminuiscono la propria importanza. Nel contesto dell'IA, ciò solleva la possibilità che la risposta al rischio dell'IA consolidi sistemi di controllo fragili e politicizzati, più difficili da smantellare di qualsiasi singola tecnologia.
In altre parole, il pericolo non è solo che l'intelligenza artificiale sfugga al controllo umano, ma che la paura dell'intelligenza artificiale acceleri la concentrazione dell'autorità in istituzioni che si sono già dimostrate lente ad ammettere errori e ostili al dissenso.
Ripensare il rischio reale
Questo non è un argomento a favore dell'autocompiacimento nei confronti dell'IA, né una negazione del fatto che tecnologie potenti possano causare danni reali. È un argomento a favore di un ampliamento del quadro. Il fallimento istituzionale è di per sé una variabile esistenziale. Un sistema che presuppone una governance benevola e autocorrettiva non è più sicuro di uno che presuppone una superintelligenza benevola e allineata.
Prima del Covid, era ragionevole attribuire gran parte del pessimismo tecnologico al pregiudizio umano della negatività, ovvero la tendenza a credere che le sfide della nostra generazione siano particolarmente ingestibili. Dopo il Covid, lo scetticismo sembra meno un pregiudizio e più un'esperienza.
La questione centrale nel dibattito sull'IA non è quindi solo se le macchine possano essere allineate ai valori umani, ma se ci si possa fidare delle istituzioni moderne per gestire l'incertezza senza amplificarla. Se questa fiducia si è erosa – e il Covid suggerisce che sia così – allora le richieste di una supervisione estesa dell'IA meritano almeno la stessa attenzione delle affermazioni di inevitabilità tecnologica.
Il rischio maggiore potrebbe non essere che l'intelligenza artificiale diventi troppo potente, ma che la paura di questa possibilità giustifichi forme di controllo con cui poi scopriremo essere molto più difficili da convivere, o da cui sfuggire.
-
Roger Bate è un Brownstone Fellow, Senior Fellow presso l'International Center for Law and Economics (da gennaio 2023 a oggi), membro del consiglio di amministrazione di Africa Fighting Malaria (da settembre 2000 a oggi) e Fellow presso l'Institute of Economic Affairs (da gennaio 2000 a oggi).
Leggi tutti i commenti