La moralità di un’Intelligenza Artificiale

Gennaio 24, 2018

Il 6 gennaio del 1896, un gruppo di persone fugge terrorizzato dal  Salon indien du Grand Café di Boulevard des Capucines a Parigi, dopo la visione di un treno che giunge verso di loro a velocità sostenuta. Seppure la vicenda legata alla prima proiezione del film L’arrivo di un treno alla stazione di La Ciotat dei fratelli Lumière non sia probabilmente molto più di una leggenda, rappresenta in modo pittoresco ma efficace la reazione dell’uomo davanti ad una ‘diavoleria moderna’ solo poco più di 100 anni fa. Oggigiorno la nostra soglia di sensibilità verso il progresso tecnologico è notevolmente mutata e l’idea che una proiezione su tela possa essere scambiata per realtà non può farci che sorridere. Si tratta, comunque, di una questione di prospettiva. La tecnologia e il progresso suscitano timore quando non se ne conosce a fondo la natura e la governabilità. Ieri erano i treni, costretti agli albori ad essere preceduti da uno sbandieratore per garantire l’incolumità dei passanti, oggi sono i robot e l’intelligenza artificiale, tecnologie che sembriamo al momento più capaci a sviluppare che a comprendere e gestire.

 

Sophia, la donna-robot che ha sorpreso il mondo con le sue affermazioni sulla conquista del mondo, supportate da 65 espressioni facciali e un ragionamento autonomo comparabile ad un bambino di 3 anni, è solo il cavallo da parata di una schiera di ‘intelligenze’ che l’uomo ha creato e che ora, a posteriori, sta tentando di comprendere e spiegarne l’evoluzione. La differenza essenziale tra le altre tecnologie, con le quali ci siamo già abituati a condividere il nostro tempo e il nostro pianeta, e l’intelligenza artificiale, risiede nella capacità di elaborare decisioni autonome. Per quanto sofisticati, i sistemi avanzati oggi a disposizione di tutti, rispondono ai nostri bisogni pescando in frazioni di secondo tra un infinito numero di casistiche e informazioni, ma restituendole all’uomo per l’uso finale. L’IA invece è capace, e lo sarà sempre di più, di elaborare soluzioni autonome, imparando in modo incrementale dalle proprie azioni, ad una velocità non ancora del tutto comprensibile all’uomo.

 

Affidare non solo dei compiti prestabiliti ma una decisionalità autonoma ad una macchina apre spiragli su domande e interrogativi tutt’altro che nuovi. È il dilemma della moralità il perno attorno al quale ruotano i dubbi e le incertezze che la diffusione dell’intelligenza artificiale potrebbe causare. Chi sarà il responsabile dei danni prodotti a terzi da macchine intelligenti al nostro servizio? Ci stiamo trovando davanti a quesiti inaspettati poiché nel caso lasciassimo il diritto di decisione, e la relativa responsabilità di azione, ad una macchina, saremmo ad un passo dal caos o dall’ammettere l’esistenza di una coscienza e di una diversa forma di vita? Inoltre, è possibile supporre che, in un futuro non lontanissimo, potremmo non essere più noi a poter decidere?

 

La perdita di controllo sulla tecnologia spaventa, in modo forse molto più giustificato e ragionevole del famoso treno dei fratelli Lumière. Il neuroscienziato e filosofo Sam Harris dipinge uno scenario in cui le macchine, da un certo punto in poi, cominciano ad automigliorarsi senza il nostro aiuto, o permesso. Harris sostiene che un’intelligenza artificiale non diventa spontaneamente malvagia come vediamo accadere nei film, ma certamente comprende la necessità di autoconservarsi. La più piccola discrepanza tra i nostri obiettivi e quelli dell’IA, potrebbe causare danni alla ‘specie’ meno forte. L’essere umano, come suggerisce Harris, non odia le altre specie viventi, ma non esita a limitarle o a distruggerle se è nel suo interesse.

 

Secondo la corrente di pensiero più ottimista, il problema della supremazia dell’IA non si porrà se saremo capaci di instillarvi qualcosa che è sempre stato ad appannaggio esclusivo dell’uomo: la moralità. Un robot, però, non riesce a comprendere un comando come ‘fai del bene’ oppure ‘scegli il male minore’, poiché trae i suoi ragionamenti da numeri infiniti di esempi e di casi. Far comprendere qualcosa che non è univoco nemmeno per l’uomo, però, è di gran lunga più difficile del previsto. Sebbene potremmo essere tutti d’accordo che bene e male siano due categorie molto ben distinte, l’accordo sfuma se tentiamo di stabilire con precisione assoluta cosa rientra in una piuttosto che in un’altra.

 

Uno dei primi prodotti legati all’intelligenza artificiale che ci ha definitivamente messi di fronte a questa domanda è l’avvento delle vetture senza conducente. Materialmente quasi pronte ad essere immesse sulle nostre strade, questi prodigi tecnologici si trovano davanti ad uno scoglio che per ora pare insormontabile: come far prendere una decisione, che può salvare una vita a discapito di un’altra, ad una macchina? Quali possono essere le istruzioni giuste, a patto che esse esistano? Risale al 1978 il famoso The trolley problem di Philippa Ruth Foot, dove le persone si trovavano a dover scegliere tra uccidere 5 persone, lasciando procedere il convoglio nella direzione presa, oppure togliere la vita ad una sola azionando una leva di scambio. Numerosi sono stati i test a questo proposito e i dilemmi etici e morali che ne sono nati. Nel 2011, ad esempio, lo psicologo Carlos Davis Navarrete dell’Università del Michigan ne ha ideato una variante, confermando le ricerche effettuate in precedenza. Di 147 partecipanti, ben 133 (il 90%) hanno azionato lo scambio, 11 non l’hanno toccato e 3 hanno azionato lo scambio prima di riportare la leva nella posizione originaria. La scelta utilitiristica sembrerebbe la strada più spesso percorsa, ovvero prediligere il male minore e la salvaguardia del maggior numero di vite.

 

La concezione filosofica dell’utilitarismo sostiene che l’azione morale è quella che genera la felicità maggiore al maggior numero di persone. In base a questo ragionamento, un’auto senza conducente dovrebbe scegliere di salvare il numero più alto di vite e, nel caso del dilemma del carrello, scegliere sempre la deviazione. Oltre all’utilità, però, andrebbe valutata anche la responsabilità morale. Considerando che il guidatore crea il rischio già salendo in macchina, sarebbe giusto prediligere di salvarlo a discapito di un ignaro passante? E se nella vettura fossero in due a fronte di un unico pedone? Nel caso i pedoni fossero cinque ma apportassero alla società molto meno di quanto faccia il singolo conducente della vettura?

 

Warren Quinn, professore all’università della California, ha respinto l’idea utilitarista, sostenendo che da un punto di vista etico un’azione che arreca danni in maniera diretta e deliberata è peggiore di una indiretta che li provochi in maniera casuale. Secondo uno studio pubblicato a ottobre del 2015 sul sito scientifico Arxiv, se si chiede a persone che non si occupano di filosofia come dovrebbe comportarsi un’auto senza pilota nel caso si debba scegliere tra la morte dei passeggeri o quella dei pedoni, la maggior parte risponderà che le auto dovrebbero essere programmate in modo da non ferire in nessun caso passanti. Lo psicologo Jean-Francois Bonnefon invece, della scuola di Economia di Tolosa, ha scoperto che il 75% dei partecipanti al suo esperimento pensa che l’auto debba sempre sterzare e uccidere il passeggero, anche per salvare un solo pedone. Se le vetture senza conducente fossero programmate per sacrificare sempre la vita del conducente, cosa succederebbe se un pedone la facesse sterzare di proposito? Le auto a guida autonoma non sono in grado di valutare le relazioni tra le persone e pertanto è impossibile allo stato attuale lasciare a loro la decisione. Allo stesso modo estremamente improbabile l’unanimità del genere umano sulle possibili casistiche con le quali istruire le vetture.

 

Ad evidenziare le diverse interpretazioni che le persone danno ai concetti di ‘giusto’ e ‘sbagliato’, si aggiunge anche la Moral Machine del MIT (Massachussets Institute of Technology) di Boston. Un gioco interattivo dove tramite un test gli utenti si possono immedesimare nei programmatori delle intelligenze artificiali: si viene sottoposti ad una serie di situazioni e di volta in volta bisogna scegliere l’azione più corretta e morale, restituendoci una nostra personalissima classifica di ‘sacrificabilità’ di individui e animali.

 

Il punto vero non è riuscire a trasferire in modo completo il modus operandi del cervello umano a quello di un’AI, poiché l’uomo è fallibile e nelle situazioni di incertezza spesso agisce per istinto o in base a valutazioni più o meno distorte e del tutto personali. Il punto è la trasposizione della responsabilità di scelta e di azione. La commissione etica istituita dal Ministero dei Trasporti tedesco, composta da luminari del settore automobilistico, dell’etica, della religione e della giurisprudenza, ha infatti prodotto il primo documento sulle linee guida per le auto senza conducente, dove si impone che il pilota dovrà sempre poter rientrare in controllo dell’auto e l’IA dell’auto dovrà sempre privilegiare la vita umana rispetto a beni o animali. La commissione ha altresì stabilito l’obbligatoria presenza di una scatola nera a bordo per ricostruire la responsabilità in caso di incidente, la quale sarà a prescindere a carico del conducente, salvo nei casi in cui la guida automatica fosse attiva per difetto di produzione o guasto. Questa decisione nega qualsiasi autonomia decisionale dell’IA e nello stesso momento ne frena lo sviluppo, dato che la stessa impara dalle proprie azioni. Decisioni che quindi dimostrano l’oggettiva difficoltà di dotare l’IA di un’etica e la necessità di non sottovalutare il potere del diritto di formulare decisioni.

 

La resistenza culturale degli esseri umani nei confronti delle macchine autonome e dell’IA nel suo complesso pare in questo momento giustificata ma, come in passato, il progresso non può essere fermato ma solamente capito e gestito. In un recente sondaggio condotto dall’American Automobile Association’s Foundation for Traffic Safety, il 78% degli intervistati ha dichiarato di aver paura di salire su un veicolo senza conducente, mentre da un sondaggio condotto dal gigante assicurativo AIG emerge che il 41% dei partecipanti non ha voluto condividere la strada con un veicolo driverless. Lo stesso risultato è dato anche dalle indagini condotte negli ultimi 2 anni dal Massachusetts Institute of Technology (MIT) e dalla società di marketing JD Power and Associates. Per quanto le aziende possano investire nella sicurezza di questi sistemi, aumenta la paura dei consumatori e la loro sfiducia, in parte a causa della mistificazione dei temi legati all’intelligenza artificiale, in parte perché gli stessi addetti ai lavori sembrano non avere risposte univoche convincenti.

 


 

Qualunque sarà l’evoluzione dell’intelligenza artificiale e del suo impiego nella nostra vita di tutti i giorni, possiamo essere certi del fatto che questa evoluzione avrà comunque luogo. Siamo testimoni della transizione del nostro mondo e, come ipotizzano alcuni, della nostra specie, verso una nuova era. Possiamo scegliere di osservare questa trasformazione da lontano, schermati da scetticismo e preoccupazione, oppure decidere di farne parte, prendendo coscienza di ciò che sta accadendo o addirittura contribuendo noi stessi. Bologna Business School mette a disposizione di chi desidera approcciare le sfide del futuro con le giuste competenze, programmi pensati per formare gli specialisti delle tecnologie di oggi e domani.

 



ISCRIZIONE

Back To Top