I problemi etici sullo sviluppo delle IA: dagli usi civili a quelli militari

L'applicazione delle IA in contesti quotidiani e militari ci condurrà a delle scelte morali non aggirabili che necessitano di un'attenta analisi.

I problemi etici sullo sviluppo delle IA: dagli usi civili a quelli militari
Articolo a cura di

Nel precedente speciale vi abbiamo parlato del Machine Learning per arrivare a discutere delle questione morali legate allo sviluppo di un'intelligenza artificiale. Cos'è un'IA? La cultura fantascientifica ci ha dato abbastanza materiale per poter immaginare un'intelligenza artificiale, ma la figura di Skynet usata da tutti i media non è quella giusta. Ad oggi una IA nasce con un contesto specifico e non può interfacciarsi con qualcosa per cui non è stata creata. Vi abbiamo parlato delle IA di facebook, in quel caso erano semplici bot che chattavano fra di loro, ma solo con lo scopo per il quale sono stati creati, ovvero contrattare degli oggetti: potreste provare a salutare i bot dalla vostra webcam, ma se nessuno gli ha dato la possibilità di interfacciarsi con questa non riusciranno mai a vedervi. Il Bot creato da OpenAI che ha sconfitto i migliori giocatori di Dota 2 è stato battuto da giocatori con molta meno esperienza dei campioni in carica, sfruttando semplicemente la 'fantasia'.

Parleremo anche di questo argomento in uno speciale dedicato, adesso focalizziamoci su cosa è un'IA attualmente: un algoritmo, ovvero un codice predisposto per un compito specifico che cerca di svolgerlo al meglio secondo i dati che gli vengono forniti. Se avete compreso il precedente speciale sul Machine Learning sapete già come funziona un'IA in linea di principio: rispetto ai programmi 'normali', quelli basati sull'apprendimento automatico riescono a migliorarsi in base all'esperienza, ovvero in base ai dati che gli vengono forniti. Questo è il punto cruciale che mette in discussione non certo l'utilità del Machine Learning, quanto l'eticità di alcune possibili applicazioni. Analizzeremo due casi molto semplici ma sufficienti per ragionare sull'eticità di alcuni sviluppi, invitandovi ad esprimere il vostro parere nei commenti e suggerire possibili notizie da approfondire con speciali dedicati.

Case A: intelligenza artificiale al comando di un'automobile completamente autonoma nella guida

Nel primo caso immaginiamo di aver progettato un'intelligenza artificiale che controlli un'automobile in grado di condurre dei passeggeri ad una meta prestabilita. Dunque salite sulla vostra auto soli, e selezionate la destinazione: il vostro posto di lavoro al centro della città. Non ci interessa sapere come può funzionare un'IA del genere nello specifico, ma capirne il funzionamento basilare: ci saranno dei sensori predisposti a captare tutti i segnali che provengono dall'esterno, che verranno rielaborati dell'IA per decidere che strada prendere. Possiamo supporre che inizialmente l'IA scelga la strada più breve, così come farebbe Google Maps, in base al traffico stimato e al limite di velocità imposto ad ogni strada.

Deciso il percorso, sono necessarie delle telecamere integrate al veicolo che riescano a captare i segnali dall'esterno: l'automobile dovrà rimanere dentro alle strisce bianche, o si dovrà fermare se vede un pedone che sta per attraversare la strada sulle strisce pedonali. Tutti questi dati vengono processati ed elaborati dall'IA, che decide la priorità di ogni azione che è possibile compiere. Un pedone che sta per attraversare ha priorità massima rispetto all'arrivare nel minor tempo possibile a destinazione, dunque l'IA dovrà far salire questa azione nella 'lista delle cose da fare' al primo posto e frenare immediatamente. Nulla di impensabile, le IA sono già in grado di identificare oggetti in foto o video. Stiamo supponendo che le strade siano predisposte per far sì che l'algoritmo intelligente non possa sbagliare e che i suoi sensori rilevino senza errore qualunque oggetto o persone. Adesso ipotizziamo che a ridosso delle strisce pedonali ci sia un tombino aperto, che l'automobile lo abbia notato solo all'ultimo istante e debba sterzare a destra o sinistra per evitarlo. Avendo acquistato troppa velocità e non potendo frenare per assenza di spazio, può solo decidere quale delle due direzioni prendere. Purtroppo in quello stesso istante stanno attraversando la strada un bambino e una signora anziana: sterzando a destra l'automobile colpirà il bambino, a sinistra colpirà la signora anziana.

Cosa deve fare l'IA in questo caso? Un essere umano non potrebbe ragionare in un istante così breve, e agirebbe d'istinto, per lui non si pone alcun problema. Un'IA invece ha il totale controllo della situazione e può analizzarla in un tempo così breve da poter decidere cosa fare: continuare dritto e mettere in pericolo il proprio passeggero, sterzare a destra e rischiare di colpire il bambino oppure sterzare a sinistra e rischiare di colpire la signora anziana. Sembrerà un caso assurdo, ma ammettendo di trovarsi in quella situazione l'IA dovrà per forza di cose trarre una conclusione. Se non è stata esplicitamente programmata per affrontare un caso del genere, deciderà in base ai dati che gli sono stati forniti: non ci sbilanciamo in nessun parere sull'azione più sensata da compiere, stiamo solo esponendo un caso nel quale un programma elettronico dovrà decidere la vita o la morte di alcune persone. Un scelta difficile, ma qualcuno dovrà pur farla se queste IA vengono sfruttate in questo ambito. Bisognerà decidere una scala di priorità su chi è più meritevole di vivere o di morire? A voi la scelta.

Case B: armi autonome letali, ovvero i "robot-killer" che verranno usati nelle guerre future

Si parla ancora di Elon Musk e delle sue battaglie ideologiche su determinate applicazioni delle IA, appoggiate da un totale di 116 persone che hanno a che fare con la ricerca scientifica inerente al Machine Learning o nella sua applicazione in campi diversi. Tra questi compaiono anche Demis Hassabis & Mustafa Suleyman di DeepMind (Google), quindi non proprio gli ultimi arrivati. Queste persone hanno firmato ed inviato una lettera alle Nazioni Unite per parlare di un problema che attualmente non esiste, ma che è imminente: parliamo di armi letali autonome. Non ci riferiamo semplici armi che in qualche modo aiutano l'essere umano solo con una mira automatizzata a livello elettronico ed informatico, ma che sono completamente indipendenti da chi li ha create: non stiamo parlando di nessun robot-killer di cui parla la stampa, che purtroppo richiama alla mente il troppo inflazionato e irrealistico Skynet, ma di sistemi concettualmente più semplici .

Un'arma letale autonoma potrebbe consistere in una torre di guardia con armi a puntamento automatico che colpiscono qualsiasi 'nemico' che gli si pari davanti, analizzando ad esempio il calore circostante con un sensore ad infrarossi. Oppure un aereo con guida e puntamento automatici, che identifica degli obiettivi a terra e spara quando li riconosce come nemici. Tutte le problematiche associate a questo tipo di armi sono abbastanza ovvie: cosa succede se per sbaglio l'algoritmo confonde un 'amico' con un 'nemico'? Se un soldato nemico cattura un soldato amico e lo tiene in ostaggio, l'IA deciderà di sparare comunque con il rischio di colpire entrambi, scegliendo in base ad un bene superiore? Sulle scelte morali ci si può sbizzarrire, ma un caso critico è un eventuale attacco hacker volto a controllare un'arma automatica: basta una falla a livello informatico per impossessarsene con evidenti conseguenze per chi ha subito l'hacking. Secondo Elon Musk e tutti i firmatari della lettera lo sviluppo di queste armi porterebbe ad un conflitto su scala mondiale ben più grande di quelli precedenti.

Potrebbe essere impossibile capire chi sta controllando un certo veicolo alleato sotto hacking, con conseguenze disastrose dal punto di vista diplomatico. Anche la velocità degli scontri sarebbe più grande di quanto un essere umano può concepire: un'IA analizza la situazione e prende una decisione in tempi brevissimi, le reazioni di eventuali stati sotto attacco sarebbero immediate e probabilmente errate. Inutile teorizzare cosa potrebbero fare i terroristi con armi intelligenti, il solo pensiero farebbe gelare il sangue nelle vene di qualunque persona dotata di buonsenso. Il vaso di Pandora non deve essere aperto quindi le Nazioni Unite, secondo la lettera di Elon Musk e altri 115 firmatari esperti di IA, devono vietare subito lo sviluppo di armi che siano in grado di uccidere delle persone senza il consenso di un essere umano. L'appello è serio e lanciato da chi è consapevole di cosa è capace questa tecnologia, a che punto si trova e in quanto tempo porterebbe allo sviluppo di armi letali autonome. Con la tecnologia attuale sarebbe già possibile ipotizzarle, ed è solo questione di tempo prima che qualche stato finanzi qualche progetto svilupparle. L'appello dunque vuole essere preventivo e lungimirante, sollevando una questione che non va sottovalutata in alcun modo.