L’intelligenza artificiale è una nuova frontiera, sia per la tecnologia emergente che per l’etica e la valutazione del rischio. Ci sono molte domande da affrontare, tra cui il futuro dell’occupazione, la distribuzione della ricchezza, la sicurezza informatica e il trattamento etico delle macchine intelligenti. Questo articolo esplora le principali questioni etiche legate all’intelligenza artificiale.
Ottimizzare la logistica, rilevare le frodi, comporre opere d’arte, condurre ricerche, fornire traduzioni: i sistemi di macchine intelligenti stanno trasformando le nostre vite in meglio. Man mano che questi sistemi diventano più capaci, il nostro mondo diventa più efficiente e di conseguenza più ricco.
Giganti della tecnologia come Alphabet, Amazon, Facebook, IBM e Microsoft – così come individui come Stephen Hawking ed Elon Musk – hanno detto che questo sia il momento giusto per parlare del panorama quasi sconfinato dell’intelligenza artificiale. Per molti versi, questa è una nuova frontiera tanto per l’etica e la valutazione del rischio quanto per la tecnologia emergente. Quindi quali problemi e conversazioni tengono svegli di notte gli esperti di intelligenza artificiale?
1. Disoccupazione
Cosa succede dopo la fine dei lavori?
La gerarchia del lavoro riguarda principalmente l’automazione. Poiché abbiamo inventato modi per automatizzare i lavori, potremmo creare spazio affinché le persone assumano ruoli più complessi, passando dal lavoro fisico che dominava il mondo preindustriale al lavoro cognitivo che caratterizza il lavoro strategico e amministrativo nella nostra società globalizzata.
Guarda l’autotrasporto: attualmente impiega milioni di persone solo negli Stati Uniti. Cosa accadrà loro se i camion a guida autonoma promessi da Elon Musk di Tesla diventeranno ampiamente disponibili nel prossimo decennio? Ma d’altra parte, se consideriamo il minor rischio di incidenti, i camion a guida autonoma sembrano una scelta etica. Lo stesso scenario potrebbe accadere agli impiegati, così come alla maggior parte della forza lavoro nei paesi sviluppati.
qui che arriviamo alla domanda su come trascorreremo il nostro tempo. La maggior parte delle persone fa ancora affidamento sulla vendita del proprio tempo per avere un reddito sufficiente per sostenere se stessi e le proprie famiglie. Possiamo solo sperare che questa opportunità consenta alle persone di trovare un significato nelle attività non lavorative, come prendersi cura delle proprie famiglie, impegnarsi con le proprie comunità e apprendere nuovi modi per contribuire alla società umana.
Se riusciremo con la transizione, un giorno potremmo guardare indietro e pensare che sia barbaro che agli esseri umani sia stato richiesto di vendere la maggior parte del loro tempo di veglia solo per poter vivere.
2. Disuguaglianza
Come distribuiamo la ricchezza creata dalle macchine?
Il nostro sistema economico si basa sul compenso per il contributo all’economia, spesso valutato utilizzando una paga oraria. La maggior parte delle aziende dipende ancora dal lavoro orario quando si tratta di prodotti e servizi. Ma utilizzando l’intelligenza artificiale, un’azienda può ridurre drasticamente la dipendenza dalla forza lavoro umana, e questo significa che i ricavi andranno a meno persone. Di conseguenza, le persone che detengono la proprietà di società guidate dall’intelligenza artificiale guadagneranno tutti i soldi.
Stiamo già assistendo a un crescente divario di ricchezza, in cui i fondatori di start-up portano a casa gran parte del surplus economico che creano. Nel 2014, più o meno gli stessi ricavi sono stati generati dalle tre più grandi aziende di Detroit e dalle tre più grandi aziende della Silicon Valley… solo nella Silicon Valley c’erano 10 volte meno dipendenti.
Se stiamo davvero immaginando una società post-lavoro, come strutturiamo un’economia post-lavoro equa?
3. Umanità
In che modo le macchine influenzano il nostro comportamento e la nostra interazione?
I robot artificialmente intelligenti stanno diventando sempre più bravi a modellare la conversazione e le relazioni umane. Nel 2015, un ragazzino-robot di nome Eugene Goostman ha vinto per la prima volta la Turing Challenge. In questa sfida, i valutatori umani hanno utilizzato l’input di testo per chattare con un’entità sconosciuta, quindi hanno indovinato se stavano chattando con un essere umano o una macchina. Eugene Goostman ha ingannato più della metà dei valutatori umani facendogli credere di aver parlato con un essere umano.
Questa pietra miliare è solo l’inizio di un’era in cui interagiremo spesso con le macchine come se fossero umani; sia nel servizio clienti che nelle vendite. Mentre gli umani sono limitati nell’attenzione e nella gentilezza che possono dedicare a un’altra persona, i robot artificiali possono incanalare risorse virtualmente illimitate nella costruzione di relazioni.
Anche se non molti di noi ne sono consapevoli, siamo già testimoni di come le macchine possano attivare i centri di ricompensa nel cervello umano. Basta guardare i titoli click-bait e i videogiochi. Questi titoli sono spesso ottimizzati con test A/B, una forma rudimentale di ottimizzazione algoritmica dei contenuti per catturare la nostra attenzione. Questo e altri metodi vengono utilizzati per creare dipendenza da numerosi videogiochi e giochi per dispositivi mobili. La dipendenza dalla tecnologia è la nuova frontiera della dipendenza umana .
D’altra parte, forse si può pensare a un uso diverso del software, che è già diventato efficace nel dirigere l’attenzione umana e innescare determinate azioni. Se usato correttamente, questo potrebbe trasformarsi in un’opportunità per spingere la società verso un comportamento più vantaggioso. Tuttavia, nelle mani sbagliate potrebbe rivelarsi dannoso.
4. Stupidità artificiale
Come possiamo proteggerci dagli errori?
L’intelligenza viene dall’apprendimento, che tu sia umano o macchina. I sistemi di solito hanno una fase di addestramento in cui “imparano” a rilevare i modelli giusti e ad agire in base al loro input. Una volta che un sistema è completamente addestrato, può quindi passare alla fase di test, dove viene colpito con più esempi e vediamo come si comporta.
Ovviamente, la fase di formazione non può coprire tutti i possibili esempi che un sistema può affrontare nel mondo reale. Questi sistemi possono essere ingannati in modi che gli umani non potrebbero. Ad esempio, modelli di punti casuali possono portare una macchina a “vedere” cose che non ci sono. Se ci affidiamo all’intelligenza artificiale per portarci in un nuovo mondo di lavoro, sicurezza ed efficienza, dobbiamo assicurarci che la macchina funzioni come previsto e che le persone non possano sopraffarla per usarla per i propri fini.
5. Robot razzisti
Come eliminiamo i pregiudizi dell’IA?
Sebbene l’intelligenza artificiale sia capace di una velocità e capacità di elaborazione che va ben oltre quella degli umani, non ci si può sempre fidare che sia equa e neutrale. Google e la sua società madre Alphabet sono uno dei leader quando si tratta di intelligenza artificiale, come si vede nel servizio Foto di Google, dove l’intelligenza artificiale viene utilizzata per identificare persone, oggetti e scene. Ma può andare storto, come quando una telecamera ha mancato il segno sulla sensibilità razziale o quando un software utilizzato per prevedere i futuri criminali ha mostrato pregiudizi nei confronti dei neri.
Non dovremmo dimenticare che i sistemi di intelligenza artificiale sono creati da esseri umani, che possono essere prevenuti e giudicanti. Ancora una volta, se usata nel modo giusto, o se usata da chi lotta per il progresso sociale, l’intelligenza artificiale può diventare un catalizzatore per un cambiamento positivo.
6. Sicurezza
Come proteggiamo l’IA dagli avversari?
Più potente diventa una tecnologia, più può essere utilizzata per ragioni nefande oltre che buone. Questo vale non solo per i robot prodotti per sostituire i soldati umani, o le armi autonome, ma per i sistemi di intelligenza artificiale che possono causare danni se usati maliziosamente. Poiché queste battaglie non saranno combattute solo sul campo di battaglia, la sicurezza informatica diventerà ancora più importante. Dopotutto, abbiamo a che fare con un sistema che è più veloce e più capace di noi per ordini di grandezza.
7. Geni de male
Come ci proteggiamo da conseguenze indesiderate?
Non sono solo gli avversari di cui dobbiamo preoccuparci. E se l’intelligenza artificiale stessa si rivoltasse contro di noi? Questo non significa trasformare il “male” nel modo in cui potrebbe farlo un essere umano, o nel modo in cui i disastri dell’IA sono rappresentati nei film di Hollywood. Piuttosto, possiamo immaginare un sistema di intelligenza artificiale avanzato come un “genio in bottiglia” in grado di esaudire i desideri, ma con terribili conseguenze impreviste.
Nel caso di una macchina, è improbabile che ci sia malizia in gioco, solo una mancanza di comprensione dell’intero contesto in cui è stato espresso il desiderio. Immagina un sistema di intelligenza artificiale a cui viene chiesto di sradicare il cancro nel mondo. Dopo un sacco di calcoli, sputa fuori una formula che, di fatto, determina la fine del cancro, uccidendo tutti sul pianeta. Il computer avrebbe raggiunto il suo obiettivo di “niente più cancro” in modo molto efficiente, ma non nel modo in cui gli umani lo intendevano.
8. Singolarità
Come mantenere il controllo di un sistema intelligente complesso?
Il motivo per cui gli esseri umani sono in cima alla catena alimentare non è dovuto a denti aguzzi o muscoli forti. Il dominio umano è quasi interamente dovuto alla nostra ingegnosità e intelligenza. Possiamo avere la meglio su animali più grandi, più veloci e più forti perché possiamo creare e utilizzare strumenti per controllarli: sia strumenti fisici come gabbie e armi, sia strumenti cognitivi come addestramento e condizionamento.
Questo pone una domanda seria sull’intelligenza artificiale: un giorno avrà lo stesso vantaggio su di noi? Non possiamo nemmeno fare affidamento solo sul “staccare la spina”, perché una macchina sufficientemente avanzata può anticipare questa mossa e difendersi. Questo è ciò che alcuni chiamano la “singolarità”: il momento in cui gli esseri umani non sono più gli esseri più intelligenti della terra.
9. Diritti dei robot
Come definiamo il trattamento umano dell’IA?
Mentre i neuroscienziati stanno ancora lavorando per svelare i segreti dell’esperienza cosciente, comprendiamo di più sui meccanismi di base della ricompensa e dell’avversione. Condividiamo questi meccanismi anche con animali semplici. In un certo senso, stiamo costruendo meccanismi simili di ricompensa e avversione nei sistemi di intelligenza artificiale. Ad esempio, l’apprendimento per rinforzo è simile all’addestramento di un cane: il miglioramento delle prestazioni è rafforzato da una ricompensa virtuale.
Ora come ora, questi sistemi sono piuttosto superficiali, ma stanno diventando più complessi e realistici. Possiamo considerare un sistema in sofferenza quando le sue funzioni di ricompensa gli danno un input negativo? Inoltre, i cosiddetti algoritmi genetici funzionano creando molte istanze di un sistema contemporaneamente, di cui solo le più riuscite “sopravvivono” e si combinano per formare la generazione successiva di istanze. Questo accade nel corso di molte generazioni ed è un modo per migliorare un sistema. Le istanze non riuscite vengono eliminate. A che punto potremmo considerare gli algoritmi genetici una forma di omicidio di massa?
Una volta che consideriamo le macchine come entità in grado di percepire, sentire e agire, non è un grande salto riflettere sul loro status legale. Dovrebbero essere trattati come animali di intelligenza paragonabile? Prenderemo in considerazione la sofferenza delle macchine “sensibili”?
Alcune questioni etiche riguardano la mitigazione della sofferenza, altre il rischio di esiti negativi. Mentre consideriamo questi rischi, dovremmo anche tenere presente che, nel complesso, questo progresso tecnologico significa vite migliori per tutti. L’intelligenza artificiale ha un vasto potenziale e la sua implementazione responsabile dipende da noi.