La nuova era dell’intelligenza artificiale impiegata in campo militare solleva una serie di difficili questioni etiche a cui non abbiamo ancora una risposta. Gli USA hanno provato a dare una risposta in questo senso, formulando una dichiarazione politica, o di intenti, sull’uso militare responsabile dell’IA: tanto bella quanto utopistica
L’IA per usi militari
Dichiarazione Politica sull’Uso Militare Responsabile dell’Intelligenza Artificiale
A cura del Bureau of Arms Control, Verification and Compliance del Dipartimento di Stato degli Stati Uniti
Un numero crescente di Stati sta sviluppando capacità militari basate sull’intelligenza artificiale (IA), che possono includere l’utilizzo dell’IA per abilitare sistemi autonomi (1). L’uso militare dell’IA può e deve essere etico, responsabile e migliorare la sicurezza internazionale. L’uso dell’IA nei conflitti armati deve essere in accordo con il diritto internazionale umanitario applicabile, incluso i suoi principi fondamentali. L’uso militare delle capacità di IA deve essere responsabile, incluso attraverso l’utilizzo durante le operazioni militari all’interno di una catena di comando e controllo umano responsabile. Un approccio basato su principi all’uso militare dell’IA dovrebbe includere un’attenta valutazione dei rischi e dei benefici e dovrebbe anche ridurre al minimo gli effetti indesiderati, i pregiudizi involontari e gli incidenti. Gli Stati dovrebbero adottare misure appropriate per garantire lo sviluppo, l’impiego e l’utilizzo responsabile delle loro capacità militari basate sull’IA, comprese quelle che abilitano sistemi autonomi. Queste misure dovrebbero essere applicate durante tutto il ciclo di vita delle capacità militari basate sull’IA.
Le seguenti dichiarazioni riflettono le migliori pratiche che gli Stati firmatari ritengono debbano essere implementate nello sviluppo dellIA per usi militari e quindi del dispiegamento e utilizzo delle capacità militari basate sull’IA, comprese quelle che abilitano sistemi autonomi:
- Gli Stati dovrebbero adottare misure efficaci, come revisioni legali, per garantire che le loro capacità militari basate sull’IA vengano utilizzate solo in conformità con i rispettivi obblighi derivanti dal diritto internazionale, in particolare il diritto internazionale umanitario.
- Gli Stati dovrebbero mantenere il controllo e il coinvolgimento umano per tutte le azioni critiche relative all’informazione e all’esecuzione delle decisioni sovrane riguardanti l’impiego di armi nucleari.
- Gli Stati dovrebbero garantire che funzionari di alto livello supervisionino lo sviluppo e il dispiegamento di tutte le capacità militari basate sull’IA con applicazioni ad alta conseguenza, incluse, ma non limitate a, sistemi d’arma.
- Gli Stati dovrebbero adottare, pubblicare e attuare principi per la progettazione, lo sviluppo, il dispiegamento e l’utilizzo responsabile delle capacità di IA da parte delle loro organizzazioni militari.
- Gli Stati dovrebbero garantire che il personale competente eserciti la dovuta diligenza, inclusi livelli appropriati di giudizio umano, nello sviluppo, dispiegamento e utilizzo delle capacità militari basate sull’IA, compresi i sistemi d’arma che incorporano tali capacità.
- Gli Stati dovrebbero garantire che vengano intraprese azioni deliberate per ridurre al minimo i pregiudizi involontari nelle capacità militari basate sull’IA.
- Gli Stati dovrebbero garantire che le capacità militari basate sull’IA siano sviluppate con metodologie, fonti di dati, procedure di progettazione e documentazione verificabili.
- Gli Stati dovrebbero garantire che il personale che utilizza o approva l’utilizzo delle capacità militari basate sull’IA sia formato in modo da comprendere adeguatamente le capacità e i limiti di tali capacità e possa formulare giudizi informati sul loro utilizzo nel contesto.
- Gli Stati dovrebbero garantire che le capacità militari basate sull’IA abbiano utilizzi espliciti e ben definiti e che siano progettate e ingegnerizzate per soddisfare tali funzioni previste.
- Gli Stati dovrebbero garantire che la sicurezza, la protezione e l’efficacia delle capacità militari basate sull’IA siano soggette a test e garanzie appropriate e rigorose all’interno dei loro utilizzi ben definiti e durante tutto il loro ciclo di vita. Le capacità militari basate sull’IA auto-apprendenti o in continuo aggiornamento dovrebbero essere soggette anche a un processo di monitoraggio per garantire che le caratteristiche di sicurezza critiche non siano state degradate.
- Gli Stati dovrebbero progettare e ingegnerizzare le capacità militari basate sull’IA in modo tale che possiedano la capacità di rilevare ed evitare conseguenze involontarie e la capacità di disimpegnare o disattivare sistemi dispiegati che dimostrano comportamenti non intenzionali.
- Gli Stati dovrebbero anche implementare altre salvaguardie appropriate per mitigare i rischi di gravi guasti. Queste salvaguardie possono essere tratte da quelle progettate per tutti i sistemi militari e da quelle per le capacità di IA non destinate all’uso militare.
- Gli Stati dovrebbero perseguire discussioni continuative su come le capacità militari basate sull’IA vengono sviluppate, dispiegate e utilizzate in modo responsabile, al fine di promuovere l’attuazione efficace di queste pratiche e l’istituzione di altre pratiche che gli Stati firmatari ritengono appropriate.
Queste discussioni dovrebbero includere il considerare come implementare queste pratiche nel contesto delle loro esportazioni di capacità militari basate sull’IA. Gli Stati firmatari si impegneranno a:
- implementare queste pratiche nello sviluppo, dispiegamento o utilizzo delle capacità militari basate sull’IA, comprese quelle che abilitano sistemi autonomi;
- descrivere pubblicamente il loro impegno in queste pratiche;
- sostenere altri sforzi appropriati per garantire che tali capacità vengano utilizzate in modo responsabile e lecito;
- coinvolgere ulteriormente il resto della comunità internazionale per promuovere queste pratiche, anche in altri forum su temi correlati e senza pregiudizio per le discussioni in corso su temi correlati in altri forum.
[1] I concetti di intelligenza artificiale e autonomia sono soggetti a una serie di interpretazioni. Ai fini di questa Dichiarazione, l’intelligenza artificiale può essere intesa come la capacità delle macchine di svolgere compiti che altrimenti richiederebbero l’intelligenza umana, ad esempio riconoscere schemi, apprendere dall’esperienza, trarre conclusioni, fare previsioni o intraprendere azioni, sia in forma digitale sia come software intelligente alla base di sistemi fisici autonomi. Allo stesso modo, l’autonomia può essere intesa come la capacità di un sistema di operare senza ulteriori interventi umani dopo l’attivazione.
Trovate il testo originale a questo indirizzo: https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/