Chiudi
Paolo Calvi | Consulenza di comunicazione, audit e formazione | logo x footer bianco 146x98

Servizi

Contatti

News

Icona sviluppo della consulenza di comunicazione
Restiamo in contatto

I veri rischi dell’intelligenza artificiale

rischi dell'intelligenza artificiale

Se si da credito ad alcuni osservatori, “stiamo correndo verso la Singolarità, cioè il punto in cui l’intelligenza artificiale supera la nostra e le macchine assumono l’autonomia di migliorarsi a un ritmo esponenziale“. Se ciò accade – ed è un grande se – cosa ne sarà di noi? Ovvio che questa descrizione della Singolarità è l’interpretazione di una teoria e non un fatto acclarato. Tuttavia merita una riflessione.

Il rischio nascosto dell’IA

Negli ultimi anni, diverse voci di alto profilo, da Stephen Hawking a Elon Musk e Bill Gates, hanno avvertito che dovremmo essere assai più preoccupati per i possibili esiti pericolosi dell’IA superintelligente anziché supinamente entusiasti se non estasiati. Nondimeno, costoro hanno investito i propri soldi in questo comparto: Musk, per esempio, è tra i vari sostenitori miliardari di OpenAI, un’organizzazione dedicata allo sviluppo dell’IA, nella previsione che ciò vada a beneficio dell’umanità.

Per molti, le paure sono esagerate. Per esempio, Andrew Ng della Stanford University, che è anche capo scienziato presso il gigante cinese di Internet, Baidu afferma che: “temere un aumento di robot killer è come preoccuparsi della sovrappopolazione su Marte“.

Probabilema questo non vuol dire che la nostra crescente dipendenza dall’IA non comporti rischi reali. Rischi che, probabilmente già ora, sono incalzanti.
Man mano che i sistemi intelligenti vengono coinvolti in un numero crescente di decisioni in ambiti che vanno dall’assistenza sanitaria alla finanza o alla giustizia penale, c’è il pericolo che decisioni importanti per la nostra vita vengano prese senza un controllo sufficiente. Inoltre, le IA potrebbero avere effetti a catena per i quali non siamo preparati, come cambiare il nostro rapporto con la medicina (ei medici) o il modo in cui i nostri quartieri vengono sorvegliati.

Cos’è esattamente l’IA?

Molto semplicemente, parliamo di macchine che fanno cose che si ritiene richiedano intelligenza quando le fanno gli umani: comprendere il linguaggio naturale, riconoscere i volti nelle foto, guidare un’auto o indovinare quali altri libri potrebbero interessarci in base a ciò che ci è piaciuto leggere in precedenza.
È la stessa differenza che esiste tra un braccio meccanico su una linea di produzione in fabbrica programmato per ripetere lo stesso compito di base più e più volte e un braccio che impara attraverso prove ed errori come gestire compiti diversi da solo.

 

rischi dellintelligenza artificiale 1200x800 1

Quali utilizzi?

Quinque, in che modo l’IA ci sta aiutando? L’approccio principale all’IA (intesa al plurale, perché ci sono molte altre tecniche e algoritmi di IA che vengono utilizzati in molteplici settori) in questo momento è l’apprendimento automatico. I programmi sono addestrati a individuare e rispondere a schemi elaborando grandi quantità di dati, come l’identificazione di un volto in un’immagine piuttosto che la scelta di una mossa vincente in un gioco da tavolo.

Questa tecnica può essere applicata a tutti i tipi di problemi, come – per esempio – fare in modo che i computer individuino schemi precisi nelle immagini mediche. Una delle società di intelligenza artificiale di Google, DeepMind, sta collaborando con il servizio sanitario nazionale del Regno Unito in una manciata di progetti, compresi quelli in cui al loro software viene insegnato a diagnosticare il cancro e le malattie degli occhi dalle scansioni dei pazienti. Altri stanno usando l’apprendimento automatico per catturare i primi segni di condizioni come malattie cardiache e Alzheimer.

L’intelligenza artificiale viene utilizzata anche per analizzare enormi quantità di informazioni (molecolari) alla ricerca di potenziali nuovi farmaci candidati ad essere sviluppati, un processo che impiegherebbe troppo tempo per gli esseri umani.
In effetti, l’apprendimento automatico potrebbe presto essere indispensabile per l’assistenza sanitaria: l’IA può sicuramente accelerare il processo di scoperta di nuovi farmaci. Ma la sua efficacia dipende ovviamente da molti altri fattori, tra cui la qualità e la quantità dei dati disponibili.

L’intelligenza artificiale può anche permetterci di gestire sistemi altamente complessi come le reti di spedizione globali. Ad esempio, il sistema di un centro del terminal container di Port Botany a Sydney gestisce il movimento di migliaia di container in entrata e in uscita dal porto, controllando una flotta di gru a cavaliere automatizzate e senza conducente in una zona completamente priva di persone.
Allo stesso modo, nell’industria mineraria, i motori di ottimizzazione vengono sempre più utilizzati per pianificare e coordinare il movimento di una risorsa, come il minerale di ferro, dal trasporto iniziale su enormi camion da miniera senza conducente, ai treni merci che portano il minerale in porto.

Le IA sono al lavoro ovunque si guardi, dalla finanza ai trasporti, monitorando il mercato azionario per attività commerciali sospette o assistendo il controllo del traffico aereo e di terra. Aiutano persino a tenere lo spam fuori dalle caselle di posta. E questo è solo l’inizio per l’intelligenza artificiale di nuova generazione. Con l’avanzare della tecnologia, aumenterà esonenzialmente anche il numero di applicazioni.

Allora, qual’è il problema?

Piuttosto che preoccuparci di una futura acquisizione dell’IA, il vero rischio è quello di riporre troppa fiducia nei sistemi intelligenti che stiamo costruendo. L’apprendimento automatico funziona addestrando il software a individuare schemi nei dati. Una volta addestrato, viene messo al lavoro analizzando altri dati, nuovi e invisibili. Ma quando il computer produce una risposta, in genere non siamo in grado di vedere come ci sia arrivato.

Ci sono problemi evidenti in questo. Un sistema è valido solo quanto i dati da cui apprende.

Prendiamo il caso di un sistema addestrato per sapere quali pazienti con polmonite avevano un rischio di morte più elevato, in modo che potessero essere ricoverati in ospedale. Questo ha inavvertitamente classificato i pazienti con asma come a basso rischio, perché – in situazioni normali – le persone con polmonite e una storia di asma vanno direttamente in terapia intensiva e quindi ricevono il tipo di trattamento che riduce significativamente il rischio di morire. L’apprendimento automatico ha quindi interpretato questo nel senso che asma + polmonite = minor rischio di morte.

Mano a mano che le IA vengono implementate per valutare qualsiasi cosa, dalla nostra solvibilità all’idoneità per un lavoro cui ci stiamo candidando o alla possibilità di recidiva dei criminali, i rischi che a volte i computer sbaglino – senza che noi necessariamente ce ne si accorga – aumentano sensibilmente.

Questo perché gran parte dei dati che forniamo alle IA è imperfetta; non dovremmo quindi aspettarci sempre risposte perfette. Anzi, andrebbe riconosciuto che è qui che si compie il primo passo nella gestione del rischio. I processi decisionali basati sulle IA devono essere resi più aperti al controllo. Dal momento che stiamo costruendo un’intelligenza artificiale a nostra immagine, è probabile che sia brillante e imperfetta quanto noi.

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.