bacheca social

FAI UNA DONAZIONE





La libertà al tempo dell’Intelligenza Artificiale

Internet

Internet

di Nicolò Bellanca

Ha ancora senso trarre ispirazione, nelle nostre azioni etiche e politiche, dall’idea della libertà umana? Ha ancora senso, nell’epoca delle macchine intelligenti e dell’analisi biochimica dei nostri processi decisionali? Iniziamo evocando alcune semplici definizioni e alcuni punti del dibattito in corso di svolgimento. L’Intelligenza Artificiale (IA) esiste quando una macchina si comporta in modi che chiameremmo intelligenti se a comportarsi così fosse un essere umano.[1] Su uno degli aspetti più importanti dell’intelligenza umana, la capacità di apprendere, i computer si stanno rivelando, negli ultimi anni, altrettanto validi, o migliori, di noi in compiti come il riconoscimento vocale, la traduzione linguistica o l’identificazione delle malattie dalle analisi radiografiche.[2]

Queste formidabili prestazioni sono consentite dall’affermarsi del machine learning. A lungo i computer sono stati programmati unicamente mediante algoritmi: sequenze di istruzioni che indicano come risolvere un problema. Tuttavia, per molti dei problemi che contano nella vita – camminare, nuotare, andare in bicicletta, riconoscere un viso o capire una parola detta o scritta – non siamo in grado di scrivere un preciso algoritmo. L’IA sta superando questa difficoltà mediante un approccio basato su esempi. Esaminando molti casi di risposta ad una certa classe di problemi, il computer procede ad una generalizzazione che gli permette di affrontare anche situazioni parzialmente nuove e differenti: esso impara ad imparare sotto la supervisione di un umano, effettuando una fase di “allenamento” al termine della quale manifesta intelligenza, intesa come capacità di realizzare fini complessi, ovvero di risolvere problemi.[3] Quest’anno, ad esempio, il programma informatico Pluribus ha battuto a Texas hold’em, una delle specialità più diffuse del poker, cinque giocatori professionisti. Gli aspetti più notevoli sono stati che il programma si è allenato giocando contro sé stesso, partendo da zero, ossia senza analizzare partite già giocate; e che a poker non sappiamo quali carte hanno in mano gli avversari e non c’è un solo vincitore, ossia si tratta di un gioco più vicino degli scacchi (nel quale conosciamo la disposizione dei pezzi sulla scacchiera e, alla fine, vi è un solo vincitore) al mondo reale.

Questi straordinari avanzamenti presentano nondimeno limiti e difficoltà di controllo. Anzitutto, con i metodi di machine learning i computer apprendono quasi soltanto dai dati che noi gli procuriamo; se questi dati sono distorti, la macchina apprende in modo distorto. Ma, ovviamente, la collocazione sociale della macchina non è neutra: se essa fosse programmata da tecnici dell’esercito russo, che le fornissero le informazioni di base per interagire con il popolo ceceno, possiamo supporre che alla fine la macchina opererebbe lungo linee conformi alla visione e alle intenzioni di Putin.

In secondo luogo, l’IA funziona come un processo di ottimizzazione, capace di usare i mezzi disponibili per ottenere determinati fini. Se il fine che assegniamo alla macchina non è formulato assieme a tutti i vincoli e alle regole contestuali che per noi sono importanti (non provocare sofferenza, non essere sleale, …), gli esiti possono essere perversi. Immaginiamo che un robot-sitter senta i bambini lamentarsi per la fame, che il frigorifero sia vuoto e che per casa circoli un gatto: la macchina potrebbe non tenere conto che per noi il valore sentimentale del gatto supera il valore nutritivo.[4] Tuttavia, di fronte a situazioni cangianti e incerte, spesso non siamo in grado di individuare tutti i vincoli e le regole contestuali; inoltre, siamo divisi tra noi, e quello che è un vincolo decisivo per un gruppo umano, può non esserlo per un altro.

In terzo luogo, l’efficacia crescente dell’IA comporta che le macchine riescano a svolgere tante funzioni meglio di noi: ad esempio, il navigatore satellitare che usiamo in automobile e perfino muovendoci a piedi, ci offre informazioni sempre aggiornate sulle condizioni della viabilità, oltreché sull’itinerario esatto e migliore, al punto che diventa masochistico rinunciarvi, perfino quando viaggiamo in zone che conosciamo benissimo. In questo e nei tanti altri casi in cui il computer è nettamente più affidabile di noi stessi, siamo spinti a rinunciare alla “libera scelta” e ad affidarci al sistema. È questa la promessa di ogni delega tecnocratica: liberarci dalla libertà.

La libertà è fatta di scelte, molte volte faticose e laceranti. Al contrario la tecnocrazia invita a non scegliere, introducendoci in un orizzonte nel quale convivono “troppe” possibilità, che non siamo in grado di vagliare nemmeno volendolo, e in cui soltanto il sistema può stabilire cosa è meglio per noi. Ne segue che se un giorno l’IA dominerà le nostre società, ciò non avverrà tramite un conflitto aperto. Piuttosto, «sarà un lento ed insidioso subentrare nella nostra economia, a malapena percepibile mentre noi volontariamente cediamo il controllo a intelletti sintetici apparentemente benigni. Mentre impariamo a riporre fiducia in questi sistemi che ci trasportano, ci presentano a potenziali partner, personalizzano le nostre notizie, proteggono le nostre proprietà, monitorano il nostro ambiente, crescono, preparano e servono il nostro cibo, educano i nostri bambini e curano i nostri anziani, sarà facile non cogliere il grande disegno».[5]

Di fronte a questa inquietante prospettiva, alcuni osservano che quando le macchine rischiano di obbedire ai nostri ordini solo nominalmente, possiamo sempre reagire “staccando la spina”, bloccando il funzionamento della macchina. Ma possiamo veramente farlo? Gran parte dell’IA opera sul web, e dove sta la spina di Internet? Inoltre, se la macchina è più intelligente di noi, può anticipare la nostra mossa e impedirla.[6] La possibilità, se non la probabilità, di sistemi essenzialmente “fuori controllo” è in effetti molto concreta. Ad esempio, i programmatori di virus informatici, a volte, perdono il controllo delle loro creature. Estirpare programmi di questo tipo è molto difficile, perché essi continuano a fare copie di sé stessi e a diffondersi attraverso le reti informatiche.[7] Occorrerebbe pertanto individuare regole e procedure di sicurezza che possano orientare il comportamento delle macchine intelligenti prima che esse sfuggano al controllo umano.

Al riguardo, la discussione in corso presenta aspetti del massimo interesse. Immaginiamo che l’IA venga programmata per sottostare alle leggi umane, che debba rivelare sempre la sua natura artificiale agli utenti e che non possa conservare o diffondere informazioni sugli utenti senza il loro esplicito permesso. In apparenza, siamo davanti a criteri stringenti e convincenti. Ma «che succede se la legge umana è la Costituzione della Repubblica popolare cinese, che consente il controllo di massa, la censura e l’arresto arbitrario dei suoi cittadini? O se l’IA è quella utilizzata da Facebook per inondare di propaganda russa gli elettori americani nel 2016? Come potrebbe “svelare” la sua natura artificiale senza distruggere il modello d’impresa di Facebook?».[8]

Immaginiamo altresì, assieme a Stuart Russell, di provare a superare l’approccio standard all’IA, nel quale, come abbiamo ricordato, l’essere umano impone un fine e la macchina punta a realizzarlo in modo ottimale. Ipotizziamo di sviluppare una cornice etica e legale basata su queste tre regole: 1) L’unico obiettivo della macchina è di massimizzare la realizzazione delle preferenze umane; 2) La macchina non è inizialmente certa su quali siano queste preferenze; 3) L’ultima fonte d’informazione sulle preferenze umane è il comportamento umano.

Si tratta di criteri che tengono conto di quali e quante insidie possono sorgere se il fine è mal definito. La regola 2 attiva quindi l’apprendimento della macchina che, data l’incertezza nella definizione iniziale dei fini o delle preferenze, impara gradualmente ad allinearsi alle intenzioni di ogni singola persona. La regola 3 stabilisce che l’apprendimento si verifica osservando tante scelte di quella persona, per prevedere (seppur in modo imperfetto) quale vita quella persona preferisce.[9] Non sembra però che questa impostazione eluda le precedenti difficoltà. Se quella persona avesse le preferenze di Hitler, la macchina – suggerisce Russell – dovrebbe far prevalere regole (morali) di civile convivenza. Ciò segnala che anche nell’approccio basato sull’autoapprendimento della macchina, occorre selezionare e introdurre un codice morale; ma i codici morali sono tanti e non di rado tra loro incompatibili, quindi la scelta è in definitiva di natura politica. La libertà (etico-politica) degli umani rimane decisiva nel ragionare e nell’intervenire sulla libertà delle macchine intelligenti.

Questa constatazione conferisce al dibattito un sapore antico: esiste la libertà degli umani? È al riguardo che, nel dibattito recente, entrano in scena i processi biochimici che presiedono alle nostre decisioni. Gli esperimenti del neurofisiologo Benjamin Libet sono tra i più famosi risultati a sostegno dell’idea che le nostre decisioni sono predeterminate e che non c’è spazio per la libertà: in essi prendiamo coscienza dei processi che ci portano a decidere 500 millesimi di secondo più tardi dell’attivazione neurale che predispone alla decisione stessa.[10] Alcuni interpretano questo risultato come la prova che il libero arbitrio, da sempre considerato promotore delle nostre libere azioni, va relegato al ruolo di semplice supervisore dell’azione. Come scrive lo stesso Libet, «il libero arbitrio, se esiste, non inizia come azione volontaria». Tuttavia, altri studiosi rilevano che l’atto impulsivo può essere un momento in cui ci esprimiamo con la massima libertà, perché lasciamo che quanto abbiamo appreso emotivamente attraverso l’esperienza venga fuori senza censure. Altri ancora notano che se invece di decidere, come accade nell’esperimento di Libet, sulla flessione di due dita, affrontiamo la complessità delle maggiori scelte esistenziali, richiediamo tempi di ponderazione ben più lunghi.

In effetti l’esperimento di Libet ha per bersaglio il libero arbitrio, inteso come scelta intenzionale non determinata da eventi precedenti. Ma il libero arbitrio, così definito, non è altro che un’illusione, poiché immaginare di poter effettuare una scelta deliberata e significativa che prescinda dall’esterno o da influenze precedenti è semplicemente privo di senso.[11] Tuttavia, scartare quest’idea non equivale a disconoscere la libertà umana. Supponiamo ad esempio che per i membri di un gruppo l’aborto sia immorale, per quelli di un altro gruppo no. Supponiamo di appurare, esaminando i tracciati neurali, che i due gruppi adottano le rispettive posizioni attivando un differente processo biochimico. Nulla cambia rispetto al punto di fondo: dobbiamo stabilire chi, tra i due gruppi, ha ragione. La determinazione dei correlati neurologici delle scelte non contribuisce a risolvere i dilemmi morali.[12]

Piuttosto, l’autentica sfida epocale per la libertà (etico-politica) degli umani riguarda la separazione tra intelligenza e coscienza. Abbiamo già definito intelligenza la capacità di realizzare fini complessi, ovvero di risolvere problemi. La coscienza è la capacità di sperimentare emozioni e sensazioni, ovvero esperienze soggettive come la paura, la gioia, l’amore e la rabbia;[13] ed è anche l’abilità di interpretare le informazioni, distinguendo i tratti salienti di una situazione complessa. Secondo Christof Koch e Giulio Tononi, il test più appropriato per accertare se una macchina è dotata di coscienza consiste nel chiederle di cogliere quali sono le caratteristiche decisive di una scena. Ad esempio, la macchina dovrebbe essere in grado di capire se la scena raffigurata in una fotografia sia “giusta” o “sbagliata”: il “rendersi conto” che in cima alla Torre Eiffel non dovrebbe stare appollaiato un elefante, definisce una proprietà essenziale della mente cosciente. A loro avviso, «oggi nessuna macchina o programma si avvicina alla realizzazione di tale impresa».[14] Allo stesso modo, «non sembra che i computer siano prossimi a sperimentare emozioni e sensazioni».[15] Ne segue che l’intelligenza (propria degli umani e delle macchine) si è separata dalla coscienza (appartenente ancora soltanto agli umani).[16]

Questa circostanza parrebbe confortarci, riaffermando la peculiarità degli umani, ma comporta un ulteriore problema: in quale realtà si esercita la coscienza umana, posto che «la realtà virtuale è un mondo falso che si avverte come assolutamente autentico»?[17] Nel celebre film di fantascienza Matrix, i personaggi godono o soffrono in un contesto creato dall’IA e ogni esperimento che potrebbero escogitare apparterrebbe a quel contesto e sarebbe quindi inabile a segnalargliene la natura artificiale.[18] Non sappiamo se e quando entreremo in Matrix; fino a quel momento siamo coscienti nell’intraprendere azioni etico-politiche che, in ultima istanza, esprimono la nostra libertà.[19]

In breve, «a distinguerci dalle macchine non sono le risposte, ma le domande».[20] La nostra coscienza interroga e interpreta il mondo, provando a distinguere i nessi causali dalle mere correlazioni. Al contrario, l’IA opera (efficacemente) dentro una “scatola nera” che non le permette di spiegare le ragioni del risultato cui è giunta: «permetteresti ad un medico informatico estremamente preciso di decidere di amputarti la gamba destra, quando tale computer non è in grado di rispondere alle tue domande sul perché è necessario?».[21]

L’intera argomentazione fin qui svolta vuole costituire una critica verso il fatalismo come nuovo atteggiamento ideologico dominante. Il neoliberismo in declino – lo documenta Paul Mason nel suo ultimo libro – tende ad essere rimpiazzato da dottrine apertamente antiumaniste che, attaccando il concetto di libertà umana, minano la nostra capacità di agire ed esaltano l’immodificabilità di un mondo disuguale ed eterodiretto. «Dobbiamo difendere l’idea di un essere umano capace, sottostando a determinate circostanze storiche, di pensiero e azione autonomi. O, come la chiamano i filosofi, di libertà».[22] Questa idea va riformulata, oltre le sue classiche enunciazioni illuministe e liberali, per confrontarsi con la soggettività “aumentata” dall’intelligenza artificiale. Se però rinunciassimo a quest’idea, le persone perderebbero interesse per i giudizi morali e per l’ethos democratico, svuotando ogni forma di partecipazione attiva alla vita collettiva. Peraltro, a differenza di quanto sostiene Mason, appare impossibile e comunque non auspicabile, per programmare l’IA, convergere su un codice etico unico, basato su una nozione universale di natura umana. Riconoscere che gli umani sono divisi sui valori e sulle scelte etico-politiche è un punto irrinunciabile, perché equivale proprio a riconoscerne la libertà.

NOTE

[1] Per un’ottima esposizione dei vari approcci all’IA, vedi Stuart Russell & Peter Norvig, Artificial intelligence. A modern approach, III ed., Pearson, Harlow, 2016.

[2] Ad esempio, Google usa gli umani per valutare le traduzioni dei computer su una scala da zero (completo non senso) a sei (perfetto): l’algoritmo guidato dalla IA Google Translate ottenne un punteggio di 3,6 nel 2015, parecchio peggiore del traduttore umano medio, che ricevette un punteggio di 5,1; ma nel 2016 Google Translate ottenne 5,8 e la sua abilità continua a migliorare rapidamente. Vedi Richard Baldwin, The Globotics Upheaval, Oxford University Press, Oxford, 2019.

[3] Vedi Francesca Rossi, Il confine del futuro, Feltrinelli, Milano, 2019.

[4] Stuart Russell, Human compatible. Artificial intelligence and the problem of control, Viking, London, 2019. Vedi anche https://www.ted.com/talks/stuart_russell_3_principles_for_creating_safer_ai?language=it#t-143823

[5] Jerry Kaplan, Le persone non servono. Lavoro e ricchezza nell’epoca dell’intelligenza artificiale, LUISS University Press, Roma, 2016, p.199.

[6] Nick Bostrom, Superintelligenza. Tendenze, pericoli, strategie, Bollati Boringhieri, Torino, 2018, capitolo 9. Vedi anche https://www.ted.com/talks/nick_bostrom_what_happens_when_our_computers_get_smarter_than_we_are?language=it

[7] Jerry Kaplan, Intelligenza artificiale, LUISS University Press, Roma, 2017, p.215.

[8] Paul Mason, Il futuro migliore, Il Saggiatore, Milano, 2019, p.195.

[9] Russell, Human compatible, op.cit., capitoli 7-10.

[10] Benjamin Libet, Mind time. The temporal factor in consciousness, Harvard University Press, Cambridge (Mass.), 2004.

[11] Sam Harris, Free will, Free Press, New York, 2012.

[12] Mario De Caro, Libertà umana, causalità, neuroetica (2009), all’indirizzo http://www.treccani.it/enciclopedia/liberta-umana-causalita-neuroetica_%28XXI-Secolo%29/

[13] Vedi Max Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Raffaello Cortina editore, Milano, 2018, capitolo 8.

[14] Christof Koch & Giulio Tononi, “Can Machines Be Conscious?”, IEEE Spectrum, 45(6), 2008, p.59.

[15] Yuval Noah Harari, Homo deus, Bompiani, Milano, 2017, p.469.

[16] Sulla base della separazione tra intelligenza e coscienza, se una macchina intelligente segue istruzioni imperfette e/o dati non bilanciati, essa può farci danni (anche gravi), ma non si tratta di un’azione intenzionale, appunto perché non è governata da una coscienza. A differenza di tanti romanzi e film, che antropomorfizzano i computer o i robot, le macchine con IA puntano soltanto a realizzare fini che noi abbiamo dato loro, o che autoapprendono da noi. Non ci odiano (né amano) e non perseguono alcun disegno per sostituirci. Sarà difficile evitare le difficoltà menzionate nel testo, ma l’IA non è un «nemico»!

[17] Kevin Kelly, L’inevitabile, Il Saggiatore, Milano, 2017, p.171.

[18] Coloro che stanno in Matrix non possono dunque fruire della prova della realtà: «se volete imparare a distinguere fra finzione e realtà, il luogo giusto per iniziare è la sofferenza. Perché è la cosa più reale che ci sia al mondo. Quando vi imbattete in una qualche grande storia, e desiderate sapere se è vera o frutto dell’immaginazione, una delle domande fondamentali da porsi è se il protagonista della vicenda può soffrire». Yuval Noah Harari, 21 lezioni per il XXI secolo, Bompiani, Milano, 2018, p.447.

[19] «Qualsiasi scelta affrontiamo, noi siamo in grado di argomentarla attraverso ragioni. Semplicemente, dentro queste ragioni si anniderà sempre almeno un elemento che non è né fattuale né logico, ma intrinsecamente deontico. Che rimanderà, per la sua giustificazione, ad altri argomenti razionali, ad eccezione tuttavia di un ulteriore frammento irriducibile di dover-essere. E così via, in un regresso che metterà inevitabilmente capo ad una prima scelta pura, non ulteriormente argomentabile. È questa scelta prima, e solo essa, che resta alla lettera indecidibile sotto il profilo conoscitivo, logico-argomentativo, razionale». Paolo Flores d’Arcais, L’individuo libertario, Einaudi, Torino, 1999, p.42.

[20] Frank Schirrmacher, La libertà ritrovata. Come (continuare a) pensare nell’era digitale, Codice, Torino, 2010, p.127.

[21] Baldwin, The Globotics Upheaval, op.cit., p.243.

[22] Mason, Il futuro migliore, op.cit., p.162.

Invia un commento

Puoi utilizzare questi tag HTML

<a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>