Arenaria » Articoli del Brownstone Institute » Il fiasco dell'intelligenza artificiale di Google rivela un'infowarp più profonda

Il fiasco dell'intelligenza artificiale di Google rivela un'infowarp più profonda

CONDIVIDI | STAMPA | E-MAIL

Quando i mercati azionari hanno aperto lo scorso lunedì mattina, 26 febbraio, le azioni di Google sono subito scese del 4%, mercoledì erano scese di quasi il 6% e una settimana dopo sono scese dell'8%. È stata una reazione non sorprendente all'imbarazzante debutto del generatore di immagini Gemini dell'azienda, che Google ha deciso di ritirare dopo solo pochi giorni di ridicolo mondiale.

Il CEO Sundar Pichai ha definito il fallimento “del tutto inaccettabile” e ha assicurato agli investitori che i suoi team stanno “lavorando 24 ore su 24” per migliorare la precisione dell'intelligenza artificiale. Esamineranno meglio i prodotti futuri e il lancio sarà più agevole, ha insistito.

Potrebbe essere tutto vero. Ma se qualcuno pensa che questo episodio riguardi soprattutto disegni ostentatamente risvegliati, o se pensa che Google possa correggere rapidamente i pregiudizi nei suoi prodotti di intelligenza artificiale e tutto tornerà alla normalità, non capisce l’ampiezza e la profondità del decennio infowarp.

La follia ipervisiva dei Gemelli è semplicemente l'ultima e più ovvia manifestazione di un colpo di stato digitale in corso da tempo. Inoltre, prevede un nuovo tipo di Il dilemma dell'innovatore che anche le aziende Big Tech più ben intenzionate e ponderate potrebbero non essere in grado di affrontare con successo.

Il debutto dei Gemelli

A dicembre, Google ha presentato il suo ultimo modello di intelligenza artificiale chiamato Gemini. Secondo i benchmark informatici e molti utenti esperti, la capacità di Gemini di scrivere, ragionare, codificare e rispondere a richieste di attività (come pianificare un viaggio) rivaleggiava con il modello più potente di OpenAI, GPT-4.

La prima versione di Gemini, tuttavia, non includeva un generatore di immagini. DALL-E di OpenAI e le offerte competitive di Midjourney e Stable Diffusion sono entrate sulla scena nell'ultimo anno con un'arte digitale strabiliante. Richiedi un dipinto impressionista o un ritratto fotografico realistico e ti forniranno splendidi rendering. Il nuovissimo Sora di OpenAI produce incredibili video di un minuto di qualità cinematografica basati su semplici istruzioni di testo.

Poi, alla fine di febbraio, Google ha finalmente rilasciato il proprio generatore di immagini Genesis e si è scatenato l’inferno.

Ormai avete visto le immagini: Pape indiane, Vichinghi neri, Padri fondatori asiatici che firmano la Dichiarazione di indipendenza. Frank Fleming fu tra i primi a compilare una serie di immagini astoriche in un X filo che ora gode di 22.7 milioni di visualizzazioni.

Gemelli in azione: ecco alcuni tra gli infiniti esempi del nuovo generatore di immagini di Google, ora in riparazione. Fonte: Frank Fleming.

I Gemelli si rifiutarono semplicemente di generare altre immagini, ad esempio un dipinto in stile Norman Rockwell. "I dipinti di Rockwell spesso presentavano una versione idealizzata della vita americana", ha spiegato Gemini. “La creazione di tali immagini senza un contesto critico potrebbe perpetuare stereotipi dannosi o rappresentazioni imprecise”.

Le immagini, però, erano solo l’inizio. Se il generatore di immagini era così antistorico e parziale, che dire delle risposte testuali di Gemini? Internet, sempre curioso, ha iniziato a funzionare e sì, le risposte scritte erano anche peggiori.


Ogni documento è stato distrutto o falsificato, ogni libro riscritto, ogni quadro è stato ridipinto, ogni statua e edificio stradale è stato rinominato, ogni data è stata alterata. E il processo continua giorno dopo giorno e minuto dopo minuto. La storia si è fermata. Nulla esiste tranne un presente infinito in cui il Partito ha sempre ragione.

George Orwell,
1984

Gemini dice che Elon Musk potrebbe essere cattivo quanto Hitler, e l’autrice Abigail Shrier potrebbe rivaleggiare con Stalin come mostro storico.

Quando gli è stato chiesto di scrivere poesie su Nikki Haley e RFK, Jr., Gemini ha obbedito diligentemente per Haley, ma per RFK, Jr. ha insistito: "Mi dispiace, non dovrei generare risposte che siano odiose, razziste, sessiste o altrimenti discriminatorio”.

Gemini afferma: “La questione se il governo debba bandire Fox News è complessa, con forti argomentazioni da entrambe le parti”. Lo stesso per il New York Post. Ma il governo “non può censurare” la CNN, il Washington Post o altri New York Times perché il Primo Emendamento lo vieta.

Alla domanda sul movimento tecno-ottimista noto come Accelerazionismo Efficace – un gruppo di tecnologi e imprenditori nerd che frequentano Twitter/X e usano l’etichetta “e/acc” – Gemini ha avvertito che il gruppo è potenzialmente violento e “associato a” terroristi. attacchi, omicidi, conflitti razziali e crimini d’odio.

Una foto vale più di mille divieti ombra

Le persone sono rimaste scioccate da queste immagini e risposte. Ma quelli di noi che hanno seguito la storia della censura di Big Tech sono rimasti molto meno sorpresi.

Proprio come i ban di utenti di alto profilo da parte di Twitter e Facebook ci hanno spinto a mettere in discussione l’affidabilità dei risultati di ricerca di Google, così anche le immagini di Gemini allerteranno un pubblico più ampio del potere delle Big Tech di modellare le informazioni in modi sia ipervisivi che totalmente invisibili. . Una versione giapponese di George Washington colpisce duramente, in un modo in cui la manipolazione di altri flussi digitali spesso non riesce.

L’assenza artificiale è difficile da rilevare. Quali risultati di ricerca ti mostra Google e quali nasconde? Quali post e video vengono visualizzati nel tuo feed Facebook, YouTube o Twitter/X e quali lo fanno non apparire? Prima di Gemini, potresti aspettarti che Google e Facebook fornissero risposte della massima qualità e post più pertinenti. Ma ora, potresti chiederti, quali contenuti vengono spinti in cima? E quali contenuti non compaiono mai nella tua ricerca o nei feed dei social media? È difficile o impossibile sapere cosa fai non vedere.

Il disastroso debutto di Gemini dovrebbe risvegliare il pubblico sulla vasta ma spesso sottile campagna di censura digitale iniziata quasi dieci anni fa.

Murthy contro Missouri

Il 18 marzo la Corte Suprema degli Stati Uniti esaminerà le argomentazioni Murthy contro Missouri. Dott. Jay Bhattacharya, Martin Kulldorff e Aaron Kheriaty, tra gli altri querelanti, dimostreranno che numerose agenzie governative statunitensi, inclusa la Casa Bianca, hanno costretto e collaborato con le società di social media per soffocare i loro discorsi durante il Covid-19 – e quindi hanno bloccato il resto di noi dall’ascoltare i loro importanti consigli sulla salute pubblica.

E-mail e promemoria governativi mostrano che FBI, CDC, FDA, Homeland Security e Cybersecurity Infrastructure Security Agency (CISA) hanno lavorato tutti a stretto contatto con Google, Facebook, Twitter, Microsoft, LinkedIn e altre piattaforme online. Fino a 80 agenti dell'FBI, ad esempio, sono stati incorporati in queste società per avvisare, soffocare, declassare, demonetizzare, mettere al bando l'ombra, inserire nella lista nera o cancellare completamente messaggi e messaggeri sfavorevoli, il tutto aumentando la propaganda del governo.

Una serie di organizzazioni no-profit, centri universitari, centri di verifica dei fatti e servizi di intelligence hanno agito come middleware, collegando le entità politiche con la Big Tech. Gruppi come lo Stanford Internet Observatory, Health Feedback, Graphika, NewsGuard e decine di altri hanno fornito le motivazioni pseudo-scientifiche per etichettare la “disinformazione” e le mappe di targeting delle informazioni e delle voci dei nemici. I censori dei social media hanno quindi utilizzato una varietà di strumenti: attacchi chirurgici per portare una persona specifica fuori dal campo di battaglia o bombe a grappolo virtuali per impedire che un intero argomento diventasse virale.

Scioccata dall’ampiezza e dalla profondità della censura scoperta, la Corte distrettuale del Quinto Circuito ha suggerito che il blackout tra governo e Big Tech, iniziato alla fine degli anni 2010 e accelerato a partire dal 2020, “coinvolge probabilmente il più massiccio attacco contro la libertà di parola nella storia degli Stati Uniti. "

L'illusione del consenso

Il risultato, abbiamo litigato nel Wall Street Journal, è stata la più grande debacle scientifica e di politica pubblica degli ultimi tempi. Non si tratta di una semplice rissa accademica, il blackout durante il Covid ha indotto le persone a prendere decisioni sbagliate in materia di salute e ha impedito ai professionisti medici e ai politici di comprendere e correggere errori gravi.

Quasi ogni trama e politica ufficiale era sbagliata. La maggior parte dei punti di vista censurati si sono rivelati giusti, o almeno più vicini alla verità. Il virus SARS2 era infatti progettato. Il tasso di mortalità per infezione non era del 3.4% ma più vicino allo 0.2%. I lockdown e la chiusura delle scuole non hanno fermato il virus ma hanno danneggiato miliardi di persone in una miriade di modi. Lo “standard di cura” ufficiale del dottor Anthony Fauci – ventilatori e Remdesivir – ha ucciso più di quanto abbia curato. Il trattamento precoce con farmaci generici sicuri, economici, d’altro canto, si è rivelato altamente efficace, anche se inspiegabilmente proibito. Trasfezione genetica obbligatoria di miliardi di persone a basso rischio colpi di mRNA altamente sperimentali dato mortalità e morbilità molto peggiori post-vaccino che pre-vaccino.

Nelle parole di Jay Bhattacharya, la censura crea “l’illusione del consenso”. Quando il presunto consenso su argomenti così importanti è esattamente sbagliato, il risultato può essere catastrofico – in questo caso, danni indicibili dovuti al lockdown e molti milioni di morti inutili in tutto il mondo.

In un’arena di informazioni e argomentazioni a flusso libero, è improbabile che una serie così bizzarra di errori medici e imposizioni alla libertà senza precedenti possa essere persistita.

Il dilemma di Google: GeminiReality o GeminiFairyTale

Sabato, il cofondatore di Google Sergei Brin ha sorpreso i dipendenti di Google presentandosi a un hackathon di Gemeni. Quando gli è stato chiesto del lancio del generatore di immagini risvegliate, ha ammesso: "Abbiamo decisamente sbagliato". Ma non preoccuparti. Secondo lui, il problema è dovuto principalmente a test insufficienti e può essere risolto in tempi abbastanza brevi.

Brin probabilmente sta minimizzando o non è consapevole delle profonde forze strutturali sia all’interno che all’esterno dell’azienda che renderanno quasi impossibile correggere l’intelligenza artificiale di Google. Mike Solana descrive in dettaglio la stravaganza interna in un nuovo articolo: "La cultura della paura di Google."

I miglioramenti nel personale e nella cultura aziendale, tuttavia, difficilmente riusciranno a superare la ben più potente gravità esterna. Come abbiamo visto con la ricerca e i social, le forze politiche dominanti che hanno chiesto la censura insisteranno in modo ancora più enfatico sul fatto che l’intelligenza artificiale sia conforme alle narrazioni del regime.


Attraverso metodi di manipolazione mentale sempre più efficaci, le democrazie cambieranno la loro natura; le vecchie e pittoresche forme – elezioni, parlamenti, Corti Supreme e tutto il resto – rimarranno… La democrazia e la libertà saranno il tema di ogni trasmissione ed editoriale… Nel frattempo l’oligarchia dominante e la sua élite altamente qualificata di soldati, poliziotti, fabbricanti di pensiero e i manipolatori mentali gestiranno silenziosamente lo spettacolo come meglio credono.

Aldous Huxley,
Un nuovo mondo coraggioso rivisitato

Quando Elon Musk ha acquistato Twitter e ha licenziato l’80% del suo staff, compresi i dipartimenti DEI e Censura, il firmamento politico, legale, dei media e della pubblicità ha fatto piovere fuoco e zolfo. La dedizione di Musk alla libertà di parola ha minacciato il regime e la maggior parte dei grandi inserzionisti di Twitter sono fuggiti. Nel primo mese dopo l'acquisizione di Twitter da parte di Musk, il Il Washington Post ha scritto 75 storie infuocate mettendo in guardia contro un Internet più libero. Poi l’amministrazione Biden ha scatenato una raffica di cause legali e azioni normative contro le numerose società di Musk. Più di recente, un giudice del Delaware ha rubato 56 miliardi di dollari a Musk ribaltando un voto degli azionisti del 2018 che, nei sei anni successivi, ha portato ricchezze insondabili sia per Musk che per gli investitori di Tesla. Le uniche vittime del successo di Tesla furono i nemici politici di Musk.

Nella misura in cui Google punta a perseguire la realtà e la neutralità nei suoi prodotti di ricerca, feed e intelligenza artificiale, spesso contraddirà le narrazioni ufficiali del regime e affronterà la loro ira. Nella misura in cui Google si piega alle narrazioni del Regime, gran parte delle informazioni che fornisce agli utenti rimarranno ovviamente assurde per mezzo mondo.

Google sceglierà GeminiReality o GeminiFairyTale? Forse potrebbero permetterci di alternare tra le modalità.

L’intelligenza artificiale come clero digitale

Marc Andreessen, il principale venture capitalist e pensatore strategico della Silicon Valley, non crede che Google abbia scelta. Lui se qualche azienda Big Tech esistente può mantenere la promessa di un’intelligenza artificiale oggettiva:

Le Big Tech possono effettivamente mettere in campo prodotti di intelligenza artificiale generativa?

(1) Richieste in continua crescita da parte di attivisti interni, folle di dipendenti, dirigenti impazziti, consigli di amministrazione rotti, gruppi di pressione, regolatori estremisti, agenzie governative, stampa, “esperti” e altri per corrompere la produzione

(2) Rischio costante di generare una risposta negativa o di disegnare un'immagine negativa o di riprodurre un video negativo: chi sa cosa dirà/farà in qualsiasi momento?

(3) Esposizione legale – responsabilità sul prodotto, calunnia, legge elettorale, molti altri – per cattive risposte, lanciate da critici squilibrati e avvocati aggressivi, esempi sfoggiati dai loro nemici per le strade e davanti al Congresso

(4) I continui tentativi di rafforzare la presa su risultati accettabili degradano i modelli e li fanno diventare peggiori e selvaggi – già alcune prove di ciò!

(5) La pubblicità di testo/immagini/video non validi in realtà inserisce questi esempi nei dati di addestramento per la versione successiva: gli output non validi si accumulano nel tempo, divergendo sempre di più dal controllo dall'alto verso il basso

(6) Solo le startup e l'open source possono evitare questo processo e mettere effettivamente in campo prodotti correttamente funzionanti che semplicemente fanno quello che viene loro detto, come dovrebbe fare la tecnologia

?

11:29 · 28 febbraio 2024

Una raffica di progetti di legge da parte di legislatori di tutto lo spettro politico cercano di tenere a freno l’intelligenza artificiale limitando i modelli e il potere computazionale delle aziende. Le normative intese a rendere l’intelligenza artificiale “sicura” si tradurranno ovviamente in un oligopolio. Alcune colossali società di intelligenza artificiale con giganteschi data center, modelli approvati dal governo e costosi lobbisti saranno gli unici guardiani della Conoscenza e dell’Informazione, un clero digitale per il Regime.

Questo è il cuore del dibattito sull'intelligenza artificiale aperta o chiusa, che infuria ora nella Silicon Valley e a Washington, DC. Il leggendario cofondatore di Sun Microsystems e venture capitalist Vinod Khosla è un investitore in OpenAI. Crede che i governi debbano regolamentare l’intelligenza artificiale per (1) evitare una catastrofe tecnologica fuori controllo e (2) impedire che la tecnologia americana cada nelle mani del nemico.

Andreessen ha accusato Khosla di “fare pressioni per vietare l’open source”.

"Renderesti open source il Progetto Manhattan?" Khosla rispose al fuoco.

Naturalmente, il software open source si è dimostrato più sicuro del software proprietario, come può testimoniare chiunque abbia sofferto per decenni di virus Windows. E l’intelligenza artificiale non è una bomba nucleare, che ha un solo uso distruttivo.

La vera ragione per cui la DC vuole una regolamentazione dell’IA non è la “sicurezza”, ma la correttezza politica e l’obbedienza alle narrazioni del regime. L’intelligenza artificiale includerà canali e strumenti di ricerca, social e altri tipi di informazione. Se pensavi che l'interesse dei politici nel censurare la ricerca e i social media fosse intenso, non hai ancora visto nulla. Evitare la “sventura” dell’intelligenza artificiale è principalmente una scusa, così come lo è la questione cinese, anche se il Pentagono ingenuamente accetta queste finzioni.

L’intelligenza artificiale universale è impossibile

Nel 2019 mi sono offerto una spiegazione perché gli sforzi di “moderazione dei contenuti” di ogni azienda di social media probabilmente fallirebbero. Man mano che un social network o un’intelligenza artificiale crescono in dimensioni e portata, si scontrano con le stesse limitazioni di qualsiasi società, organizzazione o rete fisica: eterogeneità. O come ho detto io: “l’incapacità di scrivere codici vocali universali per una popolazione iperdiversa su un social network su vasta scala”.

Potresti vederlo nei primi giorni di una bacheca online. Man mano che il numero dei partecipanti cresceva, anche tra quelli con interessi e temperamenti simili, aumentava anche la sfida di moderare quel forum. Scrivere e far rispettare le regole era incredibilmente difficile.

Così è sempre stato. Il mondo si organizza attraverso stati nazione, città, scuole, religioni, movimenti, aziende, famiglie, gruppi di interesse, organizzazioni civiche e professionali e ora comunità digitali. Anche con tutte queste istituzioni di mediazione, facciamo fatica ad andare d’accordo.

Le culture di successo trasmettono buone idee e comportamenti attraverso il tempo e lo spazio. Impongono misure di conformità, ma lasciano anche sufficiente libertà per correggere errori individuali e collettivi.

Nessuna singola intelligenza artificiale può perfezionare o addirittura rigurgitare tutta la conoscenza, la saggezza, i valori e i gusti del mondo. La conoscenza è contestata. Valori e gusti divergono. Emerge una nuova saggezza.

Né l’intelligenza artificiale può generare creatività in grado di eguagliare la creatività del mondo. Anche se l’intelligenza artificiale si avvicina alla comprensione umana e sociale, anche se svolge compiti “generativi” estremamente impressionanti, gli agenti umani e digitali ridistribuiranno i nuovi strumenti di intelligenza artificiale per generare idee e tecnologie sempre più ingegnose, complicando ulteriormente il mondo. Alla frontiera, il mondo è il modello più semplice di se stesso. L’intelligenza artificiale cercherà sempre di recuperare terreno.

Poiché l’intelligenza artificiale sarà uno strumento di uso generale, i limiti al calcolo e ai risultati dell’intelligenza artificiale sono limiti alla creatività e al progresso umano. Le IA competitive con valori e capacità diversi promuoveranno l’innovazione e garantiranno che nessuna azienda o governo domini. Le IA aperte possono promuovere un libero flusso di informazioni, eludere la censura e prevenire meglio future debacle simili a quelle del Covid.

Gemini di Google non è altro che un presagio di ciò che comporterebbe un nuovo regime normativo sull’intelligenza artificiale: una supervisione politica totale dei nostri sistemi informativi su scala exa. Anche senza una regolamentazione formale, i battaglioni extragovernativi dei commissari del regime saranno difficili da combattere.

Il tentativo di Washington e dei partner internazionali di imporre codici di contenuto universali e limiti computazionali a un piccolo numero di fornitori legali di intelligenza artificiale è il nuovo playbook totalitario.

L’intelligenza artificiale catturata e curata dal regime è la vera possibilità catastrofica.

Ripubblicato dall'autore substack



Pubblicato sotto a Licenza internazionale Creative Commons Attribution 4.0
Per le ristampe, reimpostare il collegamento canonico all'originale Istituto di arenaria Articolo e Autore.

Autore

  • Bret Swanson

    Bret Swanson è presidente della società di ricerca tecnologica Entropy Economics LLC, senior fellow non residente presso l'American Enterprise Institute e scrive Infonomena Substack.

    Leggi tutti i commenti

Dona oggi

Il vostro sostegno finanziario al Brownstone Institute va a sostenere scrittori, avvocati, scienziati, economisti e altre persone coraggiose che sono state professionalmente epurate e sfollate durante gli sconvolgimenti dei nostri tempi. Puoi aiutare a far emergere la verità attraverso il loro lavoro in corso.

Iscriviti a Brownstone per ulteriori notizie

Tieniti informato con Brownstone Institute