Chiudi
Paolo Calvi | Consulenza di comunicazione, audit e formazione | logo x footer bianco 146x98

Servizi

Contatti

News

Icona sviluppo della consulenza di comunicazione
Restiamo in contatto

Un approccio etico all’IA

Un approccio etico all'IA

Per parlare di approccio etico all’IA occorre premettere che l’intelligenza artificiale (AI) è ormai onnipresente nella nostra vita quotidiana. Che tu ne sia consapevole, o meno, l’intelligenza artificiale è già integrata in molte delle tecnologie che utilizzi regolarmente. Quando Netflix consiglia uno spettacolo che potrebbe piacerti o Google ti suggerisce di prenotare un viaggio online mentre ti trovi nell’aeroporto da cui voli di solito, l’intelligenza artificiale è sicuramente coinvolta. Non è quindi per caso se il 91% delle aziende oggi intende investire nell’intelligenza artificiale.

Approccio etico all’IA

Sebbene l’IA possa sembrare una cosa estremamente tecnica, quasi al limite della fantascienza, alla fine è solo uno strumento. E come qualsiasi strumento, può venire impiegato in bene tanto quanto in male. Va da sé, quindi, che siccome l’IA assume compiti sempre più sofisticati, diviene importante garantire, definire ed applicare un quadro etico per il suo corretto utilizzo.

Proviamo allora ad analizzare un po’ più a fondo le preoccupazioni chiave che circondano l’etica nell’IA, facendo alcuni esempi di applicazione dell’IA etica e, soprattutto, valutando come garantire il rispetto dell’etica quando si utilizza l’IA in un contesto aziendale.

Etica e intelligenza artificiale

L’etica dell’IA è un insieme di principi morali individuati per guidare e informare lo sviluppo e l’uso delle tecnologie di intelligenza artificiale. Poiché l’intelligenza artificiale fa cose che normalmente richiederebbero l’intelligenza umana, richiede linee guida morali tanto quanto il processo decisionale umano. Senza normative etiche applicate all’IA, il potenziale per l’utilizzo di questa tecnologia per perpetuare comportamenti scorretti diventa elevato.

Molte industrie utilizzano massicciamente l’intelligenza artificiale, tra queste finanza, assistenza sanitaria, viaggi, servizi clienti, social media e trasporti. Essendo questo impiego in costante ed esponenziale crescita in così tanti settori, la tecnologia AI assume implicazioni di una tale portata da dover essere sicuramente regolamentata.

Ora, ovviamente, sono richiesti diversi livelli di governance a seconda del settore e del contesto in cui viene implementata l’IA. È improbabile che un robot aspirapolvere che utilizza l’intelligenza artificiale per determinare la planimetria di una casa cambi drasticamente il mondo a meno che non utilizzi un quadro etico. Un’auto a guida autonoma che deve riconoscere i pedoni, o un algoritmo che determina quale tipo di persona ha maggiori probabilità di essere approvato per un prestito, invece, può avere ed anzi avrà un profondo impatto sulla società se le linee guida etiche non vengono implementate.

Determinando le principali preoccupazioni etiche introdotte dall’utilizzo dell’IA, consultando esempi di intelligenza artificiale etica e prendendo in considerazione le migliori pratiche per l’utilizzo etico dell’IA, è possibile assicurarsi che la propria organizzazione sia sulla strada giusta per utilizzare l’IA, quindi…

 

approccio etico allIA 1200x680 1

 

Quali sono le principali preoccupazioni etiche dell’IA?

Come accennato in precedenza, queste variano ampiamente a seconda del settore, del contesto e della potenziale entità dell’impatto. Ma in generale, i maggiori problemi etici quando si tratta di intelligenza artificiale sono i pregiudizi dell’IA, le preoccupazioni che l’IA possa sostituire i lavori umani, i problemi di privacy e l’utilizzo dell’IA per ingannare o manipolare. Esaminiamoli in modo più dettagliato.

Biases in AI

Una premessa: con bias si intende il bias cognitivo o distorsione cognitiva che è un pattern sistematico di deviazione dalla norma o dalla razionalità nei processi mentali di giudizio. Mentre l’IA assume compiti sofisticati e fa il lavoro pesante, non va quindi dimenticato che gli esseri umani hanno programmato e addestrato l’IA per eseguire tali compiti e che sono quindi le persone ad avere pregiudizi.

Ad esempio, se dei data scientist, prevalentemente maschi e bianchi, raccolgono dati su maschi anch’essi prevalentemente bianchi, l’intelligenza artificiale che progettano potrebbe replicare i loro giudizi / pregiudizi.

Ma in realtà questa non è la fonte più comune di distorsione dell’IA. Ciò che avviene con maggior frequenza è che i dati utilizzati per addestrare i modelli di intelligenza artificiale possano venire distorti. Ad esempio, se i dati raccolti provengono solo dalla maggioranza statistica, sono intrinsecamente distorti.

Un esempio toccante di ciò è la recente ricerca della Georgia Tech, uno dei più importanti centri di ricerca tecnologica negli Stati Uniti, sul riconoscimento degli oggetti nelle auto a guida autonoma. È stato riscontrato che i pedoni con la pelle scura sono stati urtati circa il 5% più spesso rispetto alle persone con la pelle chiara. Approfondendo, si è scoperto che i dati utilizzati per addestrare il modello AI erano probabilmente la fonte dell’ingiustizia: il set di dati conteneva circa 3,5 volte più esempi di persone con la pelle più chiara, quindi il modello AI poteva riconoscerli meglio. Una differenza apparentemente piccola avrebbe quindi potuto avere conseguenze mortali quando si trattava di qualcosa di potenzialmente pericoloso come le auto a guida autonoma che investono le persone.

Tra i lati positivi, l’aspetto interessante dei modelli di intelligenza artificiale e machine learning (ML) è che il set di dati su cui vengono addestrati può essere modificato e, con uno sforzo adeguato, possono diventare ampiamente imparziali. Al contrario, non è fattibile lasciare che le persone prendano decisioni completamente imparziali su larga scala.

AI che sostituisce i posti di lavoro

Quasi tutte le innovazioni tecnologiche della storia sono state accusate di sostituire i posti di lavoro. Cosa che finora non è mai successa, almeno in questi termini. Per quanto avanzata possa sembrare l’intelligenza artificiale, l’AI non sostituirà in tempi brevi gli esseri umani o il loro lavoro.

Negli anni ’70 furono introdotti sportelli automatici (ATM) e la gente temeva la disoccupazione di massa per i dipendenti delle banche. La realtà si è dimostrata essere esattamente l’opposto. Poiché era richiesto un minor numero di cassieri per gestire una filiale bancaria, le banche sono state in grado di aumentare il numero di filiali e il numero di posti di lavoro di cassiere in generale. E potevano farlo a un costo inferiore perché gli sportelli automatici si occupavano delle semplici attività quotidiane come l’elaborazione dei depositi di assegni e il prelievo di contanti.

Una cosa simile si riflette su ciò che sta accadendo oggi con l’IA e le sue applicazioni. Un esempio lo si ha se si pensa a quando l’intelligenza artificiale è stata introdotta per la prima volta per comprendere e imitare il linguaggio umano. Le persone sono state prese dal panico quando i chatbot e gli assistenti virtuali intelligenti (IVA) hanno sostituito gli agenti umani del servizio clienti. La realtà è che l’automazione basata sull’intelligenza artificiale può essere estremamente utile, ma è improbabile che l’IA sostituisca veramente gli esseri umani.

Allo stesso modo in cui gli sportelli automatici si sono occupati delle attività banali che non richiedevano l’intervento umano, i chatbot e gli IVA basati sull’intelligenza artificiale possono occuparsi delle richieste semplici e ripetitive e persino comprendere le domande in linguaggio naturale utilizzando l’elaborazione del linguaggio per fornire utili, risposte contestuali.

Ma le domande più complicate richiedono ancora l’intervento di un agente umano. L’automazione basata sull’intelligenza artificiale può essere limitata in qualche modo, ma l’impatto può essere enorme. Gli agenti virtuali basati sull’intelligenza artificiale riducono i costi del servizio clienti fino al 30% e i chatbot possono gestire fino all’80% delle attività di routine e delle domande dei clienti.

Il futuro dell’intelligenza artificiale è realisticamente quello in cui gli esseri umani e i robot basati sull’intelligenza artificiale lavorano insieme, con i robot che gestiscono compiti semplici e gli esseri umani si concentrano su questioni più complesse.

IA e privacy

Forse la preoccupazione più valida sull’etica nell’IA è la privacy. La privacy è riconosciuta come un diritto umano fondamentale nella Dichiarazione dei diritti umani delle Nazioni Unite e varie applicazioni di intelligenza artificiale possono rappresentare una vera minaccia per essa. Tecnologie come telecamere di sorveglianza, smartphone e Internet hanno reso più semplice la raccolta di dati personali. Ma quando le aziende non sono trasparenti sul motivo e sul modo in cui i dati vengono raccolti e archiviati, la privacy è a rischio.

Il riconoscimento facciale, ad esempio, è controverso per molte ragioni. Uno dei motivi è il modo in cui le immagini vengono riconosciute e archiviate da questa tecnologia. Essere monitorati senza un consenso esplicito è una delle applicazioni AI che molti considerano non etiche. In effetti, la Commissione europea ha vietato la tecnologia di riconoscimento facciale negli spazi pubblici fino a quando non saranno stati messi in atto adeguati controlli etici.

La sfida nella creazione di regolamenti etici sulla privacy relativi all’IA è che le persone sono generalmente disposte a rinunciare ad alcune informazioni personali per ottenere un certo livello di personalizzazione. Questa è una grande tendenza nel servizio clienti e nel marketing per una buona ragione.

Secondo Epsilon L’80% dei consumatori è più propenso ad acquistare quando i brand offrono esperienze personalizzate. Alcuni esempi sono negozi di alimentari o le drogherie che offrono coupon basati su acquisti precedenti o agenzie di viaggio che offrono offerte basate sulla posizione dei consumatori.

Questi dati personali aiutano l’IA a fornire i contenuti tempestivi e personalizzati che i consumatori apprezzano. Tuttavia, senza adeguati protocolli di sanificazione dei dati, esiste il rischio che questi dati vengano elaborati e venduti a società terze e utilizzati per scopi non previsti.

Ad esempio, l’ormai famigerato scandalo Cambridge-Analytica ha coinvolto la società di consulenza politica che ha lavorato per la campagna di Trump e che ha venduto i dati privati di decine di milioni di utenti di Facebook. Queste società di terze parti sono anche più vulnerabili agli attacchi informatici e alle violazioni dei dati, il che significa che le tue informazioni private potrebbero cadere ancora di più in mani sbagliate.

Quantunque sembri ironico, l’intelligenza artificiale è un’ottima soluzione per la protezione dei dati. Le capacità di autoapprendimento dell’intelligenza artificiale portano a che i programmi basati sull’intelligenza artificiale possano rilevare virus o modelli dannosi che spesso producono violazioni della sicurezza. Ciò significa che implementando l’intelligenza artificiale, le organizzazioni possono rilevare in modo proattivo i tentativi di violazione dei dati o altri tipi di attacchi alla sicurezza dei dati prima che le informazioni possano essere rubate.

Inganno e manipolazione usando l’intelligenza artificiale

L’uso dell’intelligenza artificiale per perpetuare la disinformazione è un altro importante problema etico. I modelli di machine learning possono facilmente generare testi effettivamente errati, il che significa che articoli di notizie false o titoli tendenziosi possono essere creati in pochi secondi e così pure distribuiti attraverso gli stessi canali degli articoli di notizie reali.

Ciò è ben illustrato da quanto i social media abbiano influenzato la diffusione di notizie false durante le elezioni del 2016, mettendo Facebook sotto i riflettori dell’intelligenza artificiale etica. Uno studio del 2017 condotto da ricercatori della NYU e di Stanford mostra che le notizie false più popolari su Facebook sono state condivise più spesso delle notizie dei media ufficiali. Il fatto che questa disinformazione sia stata in grado di diffondersi senza regolamentazione da parte di Facebook, influenzando potenzialmente i risultati di qualcosa di così importante come un’elezione presidenziale, è estremamente inquietante.

Non solo: l’intelligenza artificiale è anche in grado di creare false registrazioni audio, nonché immagini e video sintetici in cui qualcuno in un’immagine o un video esistente viene sostituito con qualcun altro. Conosciute come “deepfake”, queste impersonificazioni possono essere estremamente persuasive.

Quando l’intelligenza artificiale viene utilizzata per ingannare intenzionalmente in questo modo, impone agli individui l’onere di discernere ciò che è reale o meno e, a causa della mancanza di abilità o mancanza di volontà, abbiamo visto che gli esseri umani non sono sempre in grado di determinare ciò che è reale o no.

 

approccio etico allIA 1200x800 1

 

Come usare l’intelligenza artificiale in modo etico

Con tutte le sfide che l’IA comporta, potresti chiederti come mitigare i rischi quando implementi l’IA come soluzione nella tua organizzazione. Fortunatamente, esistono alcune best practice per utilizzare l’IA in modo etico in un contesto aziendale.

Educazione e consapevolezza sull’etica dell’IA

Inizia istruendo te stesso e i tuoi colleghi su ciò che l’IA può fare, le sue sfide e i suoi limiti. Piuttosto che spaventare le persone o ignorare completamente il potenziale di un uso non etico dell’IA, assicurarsi che tutti comprendano i rischi e sappiano come mitigarli è il primo passo nella giusta direzione.

Il passaggio successivo consiste nel creare una serie di linee guida etiche a cui la tua organizzazione deve aderire. Infine, poiché l’etica nell’IA è difficile da quantificare, controlla regolarmente per assicurarti che gli obiettivi vengano raggiunti e che i processi vengano seguiti.

Adottare un approccio umano all’IA

Adottare un approccio incentrato sull’essere umano significa controllare i pregiudizi. Innanzitutto, assicurati che i tuoi dati non siano distorti (come l’esempio dell’auto a guida autonoma menzionato prima). In secondo luogo, rendilo inclusivo. In Italia, solo il 3% dei laureati in informatica è donna. Le programmatrici sono 9 su 100.

Ciò significa che le persone che sviluppano gli algoritmi che modellano il modo in cui funziona la società non rappresentano necessariamente la diversità di quella società. Adottando un approccio inclusivo all’assunzione ed espandendo la diversità dei team che lavorano sulla tecnologia AI, puoi assicurarti che l’IA che crei rifletta il mondo per cui è stata creata.

Dare priorità alla trasparenza e alla sicurezza in tutti i casi d’uso dell’IA

Quando l’intelligenza artificiale è coinvolta nella raccolta o nell’archiviazione dei dati, è imperativo istruire i tuoi utenti o clienti su come vengono archiviati i loro dati, per cosa vengono utilizzati e sui vantaggi che derivano dalla condivisione di tali dati. Questa trasparenza è essenziale per creare fiducia con i tuoi clienti. In questo modo, l’adesione a un quadro di intelligenza artificiale etica può essere vista come la creazione di un sentimento positivo per la tua azienda piuttosto che una regolamentazione restrittiva.

L’IA etica

Sebbene l’intelligenza artificiale sia un campo relativamente nuovo, i giganti della tecnologia che sono stati nel campo per decenni e terze parti obiettive che riconoscono la necessità di intervento e regolamentazione hanno creato un quadro rispetto al quale è possibile allineare le politiche della propria organizzazione.

Quadri che ispirano l’IA etica

Diverse terze parti imparziali hanno riconosciuto la necessità di creare linee guida per l’uso etico dell’IA e garantire che il suo utilizzo sia vantaggioso per la società.

L’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) è un’organizzazione internazionale che lavora per creare strategie migliori per una vita migliore. Hanno creato i Principi AI dell’OCSE , che promuovono l’uso di un’IA che sia innovativa, affidabile e rispettosa dei diritti umani e dei valori democratici.

Le Nazioni Unite (ONU) hanno anche sviluppato un Framework per l’IA etica che discute di come l’IA sia uno strumento potente che può essere utilizzato a fin di bene, ma rischia di essere utilizzato in modo incoerente con i valori delle Nazioni Unite e contro di essi. Suggerisce che sia necessario creare una serie di linee guida, politiche o un codice etico per garantire che l’uso dell’IA alle Nazioni Unite sia coerente con i suoi valori etici.

Imprese e IA etica

Oltre a terze parti oggettive, anche i più grandi leader del settore hanno sviluppato le proprie linee guida per utilizzare l’IA in modo etico.

Google, ad esempio, ha sviluppato Principi di intelligenza artificiale che formano una carta etica che guida lo sviluppo e l’uso dell’intelligenza artificiale nella ricerca e nei prodotti. E non solo, Microsoft ha creato Responsible AI Principles per guidare tutta l’innovazione dell’IA nelle attività del gruppo, ma ha anche creato una business school AI per aiutare altre aziende a creare le proprie politiche di supporto AI.

E non è necessario risiedere nella Silicon Valley per difendere l’IA etica. Alcune aziende di intelligenza artificiale più piccole hanno seguito l’esempio e stanno iniziando a includere l’etica come parte dei loro valori guida.

Ci sono anche modi in cui le aziende a scopo di lucro possono essere certificate come etiche e sostenibili, come la certificazione B Corp che convalida che un’organizzazione utilizza il business come forza per il bene.

Diverse società di intelligenza artificiale a scopo di lucro hanno aderito agli standard B Corp, dimostrando che l’IA è sempre una tendenza emergente. Sebbene questo tipo di accreditamento non sia esclusivo delle aziende di intelligenza artificiale, segnala un impegno ad agire in modo etico e più aziende tecnologiche possono e dovrebbero richiedere la certificazione.

AI, problema o soluzione?

Quando si discute di etica nell’IA, l’attenzione si concentra maggiormente sui possibili casi d’uso e impatti negativi dell’IA, ma l’IA sta davvero facendo molto bene. È importante ricordare che la tecnologia AI non è solo un potenziale problema, ma una soluzione a molti dei maggiori problemi del mondo.

C’è l’intelligenza artificiale per prevedere gli effetti del cambiamento climatico e suggerire azioni per affrontarlo; i chirurghi robotici possono eseguire o assistere in operazioni che richiedono una precisione maggiore di quella che un essere umano può gestire. La tecnologia agricola assistita dall’intelligenza artificiale sta aumentando i raccolti riducendo al contempo gli sprechi di raccolto.

Esistono persino organizzazioni senza scopo di lucro come AI for Good dedicate esclusivamente a rendere l’IA una forza con un impatto globale. E per quanto naturale possa sembrare, l’intelligenza artificiale semplifica le attività quotidiane semplici come navigare nel traffico o chiedere a Siri informazioni sul tempo.

L’intelligenza artificiale migliora con la giusta etica

L’intelligenza artificiale è diventata un potente strumento intessuto nella tua vita quotidiana. Quasi tutti i tuoi servizi e i dispositivi che usi si avvalgono dell’intelligenza artificiale per semplificarti la vita o renderla più efficiente. E sebbene sia, ovviamente, possibile utilizzare l’IA in modo dannoso, la stragrande maggioranza delle aziende dispone di principi etici per mitigare gli effetti negativi ove possibile.

Finché vengono seguite le migliori pratiche, l’IA ha il potenziale per migliorare praticamente ogni settore, dall’assistenza sanitaria all’istruzione e oltre. Spetta alle persone che creano questi modelli di intelligenza artificiale assicurarsi di tenere a mente l’etica e chiedersi costantemente come ciò che creano possa giovare alla società nel suo insieme.

Quando pensi all’intelligenza artificiale come a un modo per ridimensionare l’intelligenza umana piuttosto che sostituirla, non sembra essere così complesso o spaventoso. E con il giusto quadro etico, è facile vedere come cambierà il mondo in meglio.

Post a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.