Chiudi
Paolo Calvi | Consulenza di comunicazione, audit e formazione | logo x footer bianco 146x98

Servizi

Contatti

News

Icona sviluppo della consulenza di comunicazione
Restiamo in contatto

Una Matrix prossima ventura? L’orizzonte perturbante dell’Intelligenza Artificiale

Geoffrey Everest Hinton

Sempre più ricercatori stanno suonando il campanello d’allarme riguardo alle minacce a lungo termine poste dai sistemi di intelligenza artificiale agli esseri umani. Se a questa tecnologia fosse concessa troppa autonomia, il suo controllo potrebbe facilmente sfuggire di mano.

L’Intelligenza Artificiale potrebbe prendere il controllo dei suoi sviluppatori?

Mercoledì scorso, nella sua prima apparizione pubblica da quando ha lasciato Google e scioccando la comunità scientifica con il suo improvviso cambiamento di posizione sulla minaccia posta dall’IA, Geoffrey Everest Hinton – figura di spicco nello sviluppo dell’intelligenza artificiale – ha dipinto un quadro spaventoso della tecnologia che ha contribuito a creare.

L’allarme che sto lanciando riguarda la minaccia esistenziale che deriva dalla concreta possibilità che l’IA possa ora prendere il controllo sui suoi sviluppatori“, ha detto Hinton mercoledì, riferendosi ai potenti sistemi di intelligenza artificiale e parlando in videoconferenza all’EmTech Digital 2023, un incontro organizzato dalla rivista MIT Technology Review. “Pensavo che quel tempo fosse ancora lontano, ma ora penso invece che rappresenti una minaccia grave e abbastanza ravvicinata“.

Insieme ai colleghi Yoshua Bengio e Yann LeCun, con i quali ha condiviso il premio Turing 2018, ha contribuito a sviluppare un tipo di intelligenza artificiale basata su reti neurali multistrato, algoritmi informatici collegati che imitano l’elaborazione delle informazioni nel cervello. Una tecnologia – soprannominata da Hinton ‘deep learning‘ – che sta trasformando l’economia globale, ma il cui successo ora lo tormenta a causa del concreto potenziale di superare l’intelligenza umana.

In poco più di due decenni, l’apprendimento profondo è passato da semplici programmi informatici in grado di riconoscere immagini a modelli linguistici complessi e di grandi dimensioni come GPT-4 di OpenAI, che ha assorbito gran parte della conoscenza umana contenuta nei testi e che può generare linguaggio tanto quanto immagini e audio.

 

Non c’è alcuna possibilità di fermare ulteriori sviluppi dell’IA

Mercoledì Hinton ha detto che non c’è alcuna possibilità di fermare ulteriori sviluppi dell’IA: “Se si prende sul serio il rischio esistenziale, come faccio io ora, potrebbe essere abbastanza sensato smettere di sviluppare queste cose“, ha detto. “Ma penso che sia del tutto ingenuo pensare che ciò accadrà“.

Non conosco alcuna soluzione per fermare queste cose“, ha continuato. “E non credo che smetteremo di svilupparle perché sono così utili“. Quindi, ha definito “sciocca” la lettera aperta che chiede una moratoria.

L’apprendimento profondo si basa sull’algoritmo di retropropagazione dell’errore, che Hinton si rese conto decenni fa potesse venire impiegato per far insegnare ai computer ad apprendere. Ironia della sorte, il suo primo successo con l’algoritmo fu in un modello linguistico, sebbene molto più piccolo di quelli che teme oggi.

Abbiamo dimostrato che poteva sviluppare buone rappresentazioni interne e, curiosamente, lo abbiamo fatto implementando un piccolo modello linguistico“, ha ricordato. “Aveva vettori di incorporamento di soli sei componenti e il set di addestramento era di 112 casi, ma era un modello linguistico; cercava di prevedere il termine successivo in una sequenza di simboli“.

Oggi, invece, osserva che GPT-4 ha circa un trilione di connessioni neurali e contiene più conoscenza di quanta ne potrebbe mai avere un essere umano, nonostante il cervello umano abbia circa 100 trilioni di connessioni. “È molto, molto più bravo a inserire una grande quantità di conoscenza in soli un trilione di collegamenti“, ha detto riguardo all’algoritmo di retropropagazione. “La retropropagazione potrebbe essere un algoritmo di apprendimento molto, molto migliore di quello che abbiamo“. E aggiunge che “L’allarme che sto suonando riguarda la minaccia esistenziale del loro prendere il controllo“.

 

pericoli intelligenza artificiale

 

L’obiettivo di comprendere il cervello e le preoccupazioni sull’evoluzione dell’intelligenza artificiale

L’obiettivo principale di Hinton nella vita è stato capire come funziona il cervello e, sebbene abbia contribuito a far progredire questo campo, non ha raggiunto tale obiettivo. Ha invece definito gli algoritmi e le architetture di intelligenza artificiale potenti che ha sviluppato lungo il percorso come “effetti collaterali utili“. E tuttavia, con i recenti progressi incontrollati dei grandi modelli linguistici, teme che questi effetti collaterali possano sfuggire al controllo.

Un tempo pensavo che i modelli informatici che stavamo sviluppando non fossero così buoni come il cervello e l’obiettivo era vedere se si poteva capire di più sul cervello vedendo cosa ci vuole per migliorare i modelli informatici. Negli ultimi mesi, ho cambiato completamente idea“.

Nel dimettersi da Google, dove lavorava dal 2013, ha aggiunto di volerlo fare anche per poter essere libero di esprimere le sue preoccupazioni. Non da poco, se  ha detto che “È abbastanza concepibile che l’umanità sia solo una fase passeggera nell’evoluzione dell’intelligenza“. Ed ha raccontato di un’interazione recente che ha avuto con GPT-4:

Le ho detto che voglio che tutte le stanze della mia casa siano bianche tra due anni e al momento ho alcune stanze bianche, alcune stanze blu e alcune stanze gialle, e la vernice gialla sbiadisce in bianco entro un anno. Quindi, cosa dovrei fare? E mi ha detto, ‘dovresti dipingere le stanze blu di giallo’“. “È un ragionamento di buon senso piuttosto impressionante, del tipo che è stato molto difficile far fare all’IA“, ha continuato, notando che il modello aveva capito cosa significasse ‘sbiadire’ in quel contesto e aveva compreso la dimensione temporale.

PT-4 e il rischio della manipolazione: come controllare l’IA più intelligente degli esseri umani?

Assumendo che i modelli attuali potrebbero ragionare con un QI di 80 o 90, si è chiesto cosa succede quando avranno un QI di 210. Grandi modelli linguistici come GPT-4 “avranno imparato da noi leggendo tutti i romanzi che tutti hanno mai scritto e tutto ciò che Machiavelli ha mai scritto su come manipolare le persone. Di conseguenza saranno molto bravi a manipolarci e non ci accorgeremo di cosa sta succedendo“.

Se riesci a manipolare le persone, puoi invadere un edificio a Washington senza mai andarci di persona“, ha spiegato, riferendosi alla rivolta del 6 gennaio 2021 al Campidoglio degli Stati Uniti a causa di false affermazioni sul fatto che i democratici avessero ‘rubato’ le elezioni del 2020. “Le cose intelligenti possono superarci in astuzia“.

Intelligenze artificiali alle quali viene consentito non solo di generare i loro codici informatici, ma anche di gestirli in modo totalmente autonomo, arrivano a formulare ragionamenti e a prendere decisioni che non possono essere previste dai creatori dei programmi.

È quindi necessario condurre ulteriori ricerche per capire come controllare l’IA piuttosto che farci controllare da essa. “Quello che vogliamo è un modo per assicurarci che, anche se sono più intelligenti di noi, faranno cose che sono vantaggiose per noi – questo si chiama il problema dell’allineamento“, ha detto. “Vorrei avere una soluzione semplice da proporre, ma non ce l’ho“.

Hinton ha detto anche che stabilire “barriere di protezione” e altre misure di sicurezza intorno all’IA sembra essere promettente, ma ha contestualmente messo in dubbio la loro efficacia una volta che i sistemi di intelligenza artificiale saranno molto più intelligenti degli esseri umani. “Immagina il tuo bambino di due anni che dice: ‘mio papà fa cose che non mi piacciono, quindi farò delle regole su ciò che mio papà può fare’“, ha esemplificato, suggerendo il divario di intelligenza che potrebbe un giorno esistere tra gli esseri umani e l’IA. “Probabilmente riusciresti a convivere con quelle regole e ottenere comunque ciò che vuoi“.

Rischi plurimi

Non solo, i rischi risiedono anche all’esterno dell’IA. Quelli, peraltro già denunciati anche da Jen Easterly, massima autorità del governo Usa nel campo della cybersecurity, riguarda l’estrema difficoltà di individuare e neutralizzare i molti “attori maligni” che si apprestano a usare le enormi capacità dell’intelligenza artificiale per diffondere immagini, video, documenti e codici informatici falsi: la verità, sempre più incerta, che rischia di diventare irrilevante. E parimenti la possibilità concreta di attacchi sempre più sofisticati di hacker in grado di paralizzare interi sistemi informatici, mettendo in ginocchio aziende o, anche, infrastrutture essenziali (elettricità, acqua, reti informatiche) di interi Paesi.

pericoli dellintelligenza artificiale 2

L’evoluzione dell’intelligenza artificiale e la necessità di cooperazione internazionale per il suo controllo

Siamo evoluti; abbiamo certi obiettivi innati che ci risulta molto difficile disattivare, come cercare di non danneggiare i nostri corpi. È a questo che serve il dolore. Ma queste intelligenze digitali non si sono evolute, le abbiamo create noi, quindi non hanno questi obiettivi innati. Se riusciamo a inserire gli obiettivi, forse andrà tutto bene. Ma la mia grande preoccupazione è che, prima o poi, qualcuno cablerà in loro la capacità di creare i propri sotto-obiettivi… e se dai a qualcuno la capacità di stabilire sotto-obiettivi al fine di raggiungere altri obiettivi, capirà molto rapidamente che avere più controllo è un ottimo sotto-obiettivo perché aiuta a raggiungere altri obiettivi“. E se ciò dovesse accadere “saremo nei guai.”

Penso che sia molto importante che le persone si uniscano e ragionino insieme seriamente per capire se esiste una soluzione. Che non è chiaro né certo che esista“, ha chiosato. “Penso anzi che sia abbastanza concepibile che l’umanità sia solo una fase passeggera nell’evoluzione dell’intelligenza“.

Hinton ha notato che Google ha sviluppato per primo la tecnologia dei grandi modelli linguistici – chiamata AI generativa – ed è stato molto attento con essa perché sapeva che avrebbe potuto portare a conseguenze negative. “Ma una volta che OpenAI e Microsoft hanno deciso di renderla disponibile, Google non aveva davvero altra scelta“, ha evidenziato. “Non puoi impedire a Google di competere con Microsoft“.

Così, Hinton ha concluso il suo intervento con un appello per la cooperazione internazionale sul controllo dell’IA: “La mia unica speranza è che, dato che se permettessimo loro di prendere il controllo sarebbe male per tutti noi, potremmo far sì che gli Stati Uniti e la Cina concordino, come abbiamo fatto con le armi nucleari, che erano cattive per tutti noi“. “Siamo tutti sulla stessa barca per quanto riguarda la minaccia esistenziale“.

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.