No man (or AI) is an island: l’intelligenza artificiale tra psicologia, computer science e diritto

Molti giuristi e commentatori hanno versato negli ultimi mesi fiumi di inchiostro (virtuale) per analizzare i più svariati profili connessi allo sviluppo e alla diffusione di forme di intelligenza artificiale sempre più sofisticate. Il tema è stato oggetto anche di una proposta di risoluzione del Parlamento Europeo, recante una serie di raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.

Su Tech Mood vogliamo fare un passo indietro e definire i contorni, i limiti e le prospettive dello strumento dell’intelligenza artificiale, da una prospettiva filosofica e psicologica, prima che giuridica.

Ne parliamo con Stefano Triberti, Ph.D., assegnista di ricerca presso il Dipartimento di Oncologia ed Emato-Oncologia dell’Università Statale di Milano, dove si occupa di ergonomia e User Experience di tecnologie per la medicina e la chirurgia, oltre che dell’utilizzo di nuovi media per la promozione della salute (eHealth).

Stefano, cominciamo dalle basi: in cosa consistono i concetti di intelligenza artificiale e di machine learning?

L’Intelligenza Artificiale è una disciplina scientifica che ha le sue radici nell’Informatica, nelle Scienze Cognitive e nella Filosofia contemporanea… oltre che, ovviamente, nella fantascienza. In ambito scientifico, il concetto vede la luce nel 1956, quando John McCarthy invitò importanti ricercatori a un workshop presso il Dartmouth College per discutere sulla possibilità di ricreare artificialmente le facoltà intellettive umane. Storicamente il dibattito fece nascere due posizioni opposte, per molti versi valide ancora oggi: alcuni studiosi ritenevano che i processi computazionali realizzabili all’interno delle macchine fossero effettivamente equiparabili ai processi cognitivi (Strong AI), mentre altri ritenevano che le operazioni dei processori potessero arrivare al massimo a simulazioni più o meno efficaci delle facoltà umane (Weak AI). Oggi le tecnologie hanno fatto passi da gigante e molti traguardi sono stati raggiunti, e tuttavia si può parlare ancora di intelligenza artificiale “debole” più che di una reale identità tra facoltà umane e tecnologiche.

Con “machine learning”, invece, si fa riferimento a un concetto più ristretto, di certo fondamentale per l’Intelligenza Artificiale: è la capacità delle macchine di imparare, ovvero di mettere in atto azioni ed elaborazioni che vanno al di là della loro programmazione originale. Di solito, attualmente, ci si riferisce a computer i cui software sono basati su algoritmi e funzioni statistiche con capacità predittiva: il computer è quindi capace di modificare i propri output sulla base di informazioni nuove, in modo parzialmente imprevedibile rispetto alle sue capacità di partenza.

Quali sono le più promettenti applicazioni pratiche, attuali e future?

Le applicazioni sono innumerevoli.

Macchine “intelligenti” e “capaci di imparare” sono, in parole povere, macchine sempre più automatiche o meglio autonome; possono risolvere e gestire problemi per i quali prima era necessario l’impiego di una o più persone e un maggior tempo di elaborazione e presa di decisione. A mio avviso le applicazioni che vedremo “prima” nel futuro non saranno tanto influenzate da una qualche adeguatezza di questi costrutti ad ambiti specifici, quanto dalla direzione dei finanziamenti. Per cui, a mio personale parere, le principali applicazioni di tecnologie avanzate saranno negli ambiti della salute, dell’ingegneria bellica, dell’intrattenimento e del marketing, non necessariamente in quest’ordine.

Detto questo, bisogna precisare che questi concetti non fanno riferimento solo a tecnologie avanzate e futuribili, al contrario fanno già parte della nostra vita. Per fare un paio di esempi appartenenti al nostro quotidiano, anche i personaggi non giocanti dei videogiochi hanno una forma di intelligenza artificiale, così come le caselle email che smistano la nostra posta possono contenere algoritmi di machine learning.

Quanto siamo vicini al momento in cui l’intelligenza artificiale sarà paragonabile o addirittura superiore all’intelletto umano?

A questa domanda e a quelle seguenti risponderò in maniera un po’… “sofistica”!

Dipende tutto da come definiamo i concetti, in questo caso quelli di “paragonabile” e “superiore”, e anche quello di “intelligenza”. In realtà, nella Psicologia si dibatte da più di un secolo sull’intelligenza. Se la consideriamo in maniera tradizionale, ovvero come l’insieme di capacità di ragionamento di matrice soprattutto logico-linguistica e logico-matematica, potremmo dire che (perlomeno) alcuni computer sono già più intelligenti di alcuni esseri umani. Di certo fanno di conto meglio di noi, e anche i sistemi di comprensione del linguaggio naturale sono oggi molto avanzati (si veda Watson, il recente software di IBM). Se però inseriamo nell’intelligenza anche capacità creative, intuitive, e soprattutto la capacità di risolvere problemi che emergono nella vita quotidiana e nel mondo reale, il discorso si fa più complesso.

Anche considerando soltanto il linguaggio, non può non tornare in mente il famoso esempio della “stanza cinese” del filosofo John R. Searle: c’è un uomo dentro una stanza, il quale non sa il cinese, ma a cui viene dato un dizionario di sintassi cinese; significa che quest’uomo, guardando il dizionario, sa con quale ideogramma si può rispondere a quale ideogramma, pur non conoscendo il loro significato. Se un secondo uomo fuori dalla stanza passasse al primo degli ideogrammi cinesi sotto la porta, egli potrebbe rispondergli in modo sempre sensato; così, l’uomo fuori dalla stanza potrebbe convincersi che quello all’interno capisce effettivamente il cinese… eppure, non è così. Il computer funziona esattamente come l’uomo dentro la stanza cinese; sa che si può rispondere “buondì” a “buongiorno” e “bene” a “come stai”, ma non conosce il significato esperienziale del salutare o tanto meno quelli del benessere e della buona educazione.

Nello specifico, è possibile prevedere se l’intelligenza artificiale potrà acquisire una piena consapevolezza di sé, una sorta di “libero arbitrio”?

La risposta a questa domanda è simile alla precedente.

Con vari gradi di complessità, i computer sono già in grado di fare azioni senza che gli sia stato ordinato; per esempio, il sistema di sicurezza di un veicolo può fermare la macchina se percepisce un ostacolo, anche se il guidatore sta ancora accelerando. Se riduciamo il libero arbitrio alla facoltà di agire quando si vuole, e la consapevolezza di sé a definizioni e locazioni spazio-temporali, sì, i computer possono avere accesso a queste capacità. Se però, in modo probabilmente più ragionevole, includiamo in questi fenomeni elementi esistenziali e spirituali, in tutta la complessità con cui un essere umano è portato a viverli all’interno della propria coscienza, questo è ancora al di fuori della portata dei computer.

Può l’intelligenza artificiale sviluppare una sorta di “creatività”?

Anche qui, dipende da come definiamo il concetto. Una definizione curiosa e in un certo modo brillante di creatività è quella dello psicologo Jerome Bruner:

creativo è un prodotto che genera sorpresa”.

In generale, non trovo per niente improbabile che una intelligenza artificiale possa “creare” qualcosa che qualcuno potrebbe trovare sorprendente.

Tuttavia, se andiamo a studiare la creatività come processo, vediamo che il fenomeno è complesso: secondo le principali teorie, la creatività nasce dalla capacità di produrre molte idee, senza farsi limitare da fissità concettuali e vincoli logici; oppure, dalla capacità di associare concetti molto diversi producendo soluzioni innovative; o ancora, dall’abilità a guardare i contesti e i problemi da punti di vista alternativi, intuendo opportunità e corsi d’azione prima inesplorati. Tutte queste visioni del processo creativo lo associano a facoltà strettamente semantiche e radicate nei contesti, perlopiù inaccessibili alle intelligenze artificiali.

Credi che l’intelligenza artificiale possa diventare una concreta minaccia per l’umanità, sia in termini di minaccia “fisica”, sia a livello di diminuzione dei posti di lavoro?

L’umanità è un concetto abbastanza astratto; se ci si riferisce a scenari più o meno fantascientifici in cui le macchine si coalizzano contro la razza umana, non credo che al momento esistano i presupposti perché qualcosa del genere accada.

Quanto a specifiche situazioni, qualsiasi tecnologia può rappresentare per il suo utente o fruitore risorse quanto pericoli. Ciò è in gran parte legato a problemi d’uso; per questa ragione, una recente tendenza di interesse è quella che vede la progettazione delle tecnologie come basata su dati di ricerca. La User Experience e lo User Centered Design vengono sempre più impiegati perché le nuove tecnologie non vengano sviluppate solo sulla base delle prescrizioni ingegneristiche; al contrario, gli utenti e i contesti reali vengono studiati e compresi proprio per garantire fin dall’inizio che ogni tipo di tecnologia sia sicura, facile da usare e (ove questo è possibile e auspicabile) capace di sostenere la salute e il benessere delle persone.

Quanto al discorso sui posti di lavoro, le Rivoluzioni Industriali ci hanno insegnato che sicuramente le macchine possono prendere il posto delle persone in alcune mansioni. Tuttavia secondo me bisogna fare almeno due considerazioni. Nel caso dell’intelligenza artificiale ci riferiamo evidentemente a lavori non semplici e automatizzabili (quelli le macchine li fanno già), bensì a mestieri che richiedono ragionamento e risoluzione di problemi in ambiente reale, oltre che responsabilità più o meno importanti. Anche se le intelligenze artificiali arrivassero a essere dieci volte più sofisticate di quanto siano oggi, di certo incontreremmo notevoli resistenze da parte delle persone alle possibilità che queste ci curino dalle malattie, ci difendano in tribunale piuttosto che educhino i nostri figli; non è neanche detto che l’aggiornamento e la manutenzione di sistemi tanto complessi costerebbero meno del salario dei lavoratori umani. È possibile dunque che, semplicemente, “il gioco non valga la candela”.

In secondo luogo, se anche questo accadesse, si accompagnerebbe probabilmente a un profondo mutamento sociale in cui emergerebbero opportunità del tutto nuove per il lavoro degli esseri umani. In modo un po’ ironico, ma a mio avviso appropriato, mi torna in mente il personaggio di Susan Calvin, la psicologa esperta di androidi che compare in quasi una ventina di racconti del grande Isaac Asimov. Tecnologie sempre più complesse possono sfuggire al controllo e alla comprensione anche degli umani che le hanno create; e tuttavia, a quel punto è necessaria ancora un’intelligenza umana (oltre a una competenza specifica e del tutto nuova) per comprendere la radice dei problemi e individuare delle soluzioni.

Marco Galli