separateurCreated with Sketch.

Implicazioni morali al bivio tra i robot e la c.d. “intelligenza” artificiale

robot thinking
whatsappfacebooktwitter-xemailnative
Giovanni Marcotullio - pubblicato il 31/12/19
whatsappfacebooktwitter-xemailnative

Siri e Alexa hanno portato nella nostra vita la pratica di “parlare con dei software”, e malgrado sia estremamente difficile illudersi che quelle siano autentiche “conversazioni”, si diffonde l’idea che davvero siano in mezzo a noi delle “intelligenze artificiali”. Un articolo de La Civiltà Cattolica aiuta a problematizzare meglio, quindi a fare chiarezza.

Io ho un caro amico che immancabilmente desta in quanti vengono a contatto con lui un certo stupore: figlio di contadini, è pure un fisico teorico con dottorato di ricerca conseguito all’estero. L’idioma che predilige per esprimersi è un italiano fortemente venato di regionalismi, eppure per studio e per lavoro ha imparato a parlare fluentemente in altre due lingue.


ROBOT LAVORO
Leggi anche:
La Chiesa apre a robot e intelligenza artificiale?

Da qualche tempo il mio amico ha trovato un lavoro che sembra tagliato su misura per lui, bucolico semidio figlio dell’Agricoltura e della Fisica: ottimizzare le tecnologie agricole e inventarne di nuove. Attualmente, nella fattispecie, sta esplorando le frontiere della robotica per programmare un androide capace di riconoscere e raccogliere la ruchetta, distinguendola dalle erbacce e dall’insalata.


MĘŻCZYZNA PRZY KOMPUTERZE
Leggi anche:
Intelligenza artificiale: Uomo versus macchina è finita 1 a 1

Una sera ci vedemmo a cena e lui era scuro in volto perché il programma che stava scrivendo permetteva alla macchina di riconoscere il 75% della ruchetta. Al che io, anche per incoraggiarlo: «Beh, mi pare buono»; e lui: «E l’altro 25% lo lasciamo là?». Quando invece la giornata gli va meglio è tutto baldanzoso, sembra un piccolo Prometeo e gli scintillano gli occhi. È allora che con più convinzione mi parla di AI, la cosiddetta “intelligenza artificiale”.

Un computer non sa giocare

A quel punto mi tocca vestire i panni del pensatore scettico che crivella di problematiche gli entusiasmi del religioso scientista (né lui né io abbiamo altro Dio che quello di Cristo, ma nel dialogo ci differenziamo): gli faccio notare che per quanto si possa perfezionare una macchina non le si potrà mai dare una cosa che sia un pensiero nel senso pieno, proprio e forte del termine. La si potrà invece rendere adatta a gestire a velocità eccezionale una quantità smisurata di dati, le si potranno dare istruzioni dettagliatissime e quanto si vuole variegate, ma sempre limitate. “Limitate” non nel mero senso di “finite” – anche la mente umana e i suoi contenuti sono finiti, sul piano metafisico –, bensì in quanto incapaci di evolvere e modellarsi al di fuori di istruzioni già date. E lì il mio amico a farmi una testa così con il “machine learning”, grazie al quale sta insegnando alla sua macchina (per la quale in moltissimi gli saremo grati) ad affinare automaticamente la propria sensibilità mano a mano che incontra nuove forme di ruchetta. «Benissimo – ribatto –: ma questo perché tu programmi il suo software così che il database di riferimento si accresca in modo indefinito», e non perché la macchina abbia spontaneamente momenti di riflessione sul proprio operato. Insomma alla macchina manca la coscienza soggettiva – e anzi molto più di questo! –, come ho avuto occasione di indicargli in modo lampante girandogli via WhatsApp questo tweet:

e commentandoglielo così:

Ecco un punto interessante: sulle prime uno dice che se c’è un campo in cui una AI davvero può prevalere sull’uomo questi sono gli scacchi. Però la AI non sa giocare, è vero: non sa concentrarsi, distrarsi, ambire alla vittoria, pregustarla e goderla, nonché temere la sconfitta. E tutto questo, molto più che “calcolare le mosse migliori per terminare positivamente la partita”, è giocare.

A questo messaggio l’amico non ha risposto, però da molto tempo mi invita a scrivere un articolo sulla materia: invito che ho sempre declinato perché (anche se mi diletto di programmazione in Swift) mi rendo conto di non avere che informazioni rudimentali nel campo della robotica, e del resto dovrei approfondire anche le letture filosofiche a tema, che pur essendomi care non stanno – per così dire – sul mio comodino.

Portare il tema sul piano filosofico e su quello psicologico

L’articolo che il mio amico voleva, però, l’ha scritto padre Giovanni Cucci (del quale ho avuto l’onore di essere stato alunno in Gregoriana) e verrà pubblicato il 4 gennaio 2020 nel Quaderno 4069 de La Civiltà Cattolica. “Per un umanesimo digitale” è un contributo consapevolmente importante della rivista dei Gesuiti italiani, e anche per questo la Direzione del quindicinale ha scelto di inserirlo nel numero che festeggerà i 170 anni di (pressoché ininterrotta) attività della più antica rivista italiana.


VATICAN SECRET ARCHIVES
Leggi anche:
Riscoprire i tesori dell’Archivio Segreto Vaticano grazie all’intelligenza artificiale

Padre Cucci non è un pioniere della robotica né dell’informatica, a quanto so, e tuttavia abbina due delle altre competenze più importanti per trattare la materia: è uno specialista della mente umana, nella veste di psicanalista, e nella veste di filosofo è uno specialista del pensiero umano. All’inizio del suo articolo, dunque, Cucci precisa con una citazione da un testo di Roberto Cordeschi la definizione corrente di “intelligenza artificiale”: essa è la capacità di

riprodurre con programmi per calcolatore, o con robot mobili, comportamenti che, se osservati negli esseri umani, o più in generale negli esseri viventi, verrebbero definiti “intelligenti”.

Roberto Cordeschi, Intelligenza artificiale in Enciclopedia Filosofica, Milano 2006, VI,5734, citato in Giovanni Cucci, Per un umanesimo digitale, in La Civiltà Cattolica 4069, 27-40, 27

Nel primo paragrafo Cucci presenta al lettore alcune Luci e ombre dell’automazione, ossia fatti di cronaca più o meno recente in cui l’automazione e l’introduzione del calcolo ad alti livelli della vita sociale ha prodotto danni attuali (soprattutto per via dell’omissione di sorveglianza degli agenti umani) o sembrerebbe capace di produrre migliorie virtuali: se vi sembra aberrante l’idea di consultare un algoritmo per aiutarsi a «stabilire con maggiore precisione la possibilità di recidive» in àmbito giudiziario, evitando magari «di tenere in carcere una persona che davvero ha deciso di cambiare vita», leggete gli impressionanti risultati di certi studi sulla varietà delle decisioni giudiziarie su casi identici.



Leggi anche:
Con l’intelligenza artificiale i tempi stanno cambiando. Davvero?

Dunque non si può arrogantemente presumere che un uomo, per il solo fatto di essere uomo, giudichi sempre e comunque meglio di una macchina adeguatamente programmata. Del resto permane assolutamente aberrante l’ipotesi che un qualsivoglia software giudichi (e dunque che non si limiti a fornire un consuntivo dal valore consultivo) una persona, quand’anche ciò avvenisse in ambito civile e non penale. Ma c’è dell’altro, a partire dal linguaggio (che fin dai tempi di Aristotele è ritenuto peculiarità dominante dell’uomo dall’antropologia filosofica):

Il linguaggio umano ha una complessità enorme e misteriosa, perché non è riconducibile a una teoria, a un programma, o a una serie di informazioni accumulate. Esso fa inoltre riferimento a dimensioni “impalpabili”, come gli affetti, l’immaginazione, la fantasia, i simboli, le sfumature della pronuncia, le relazioni. Nello stesso tempo, viene appreso con facilità fin dai primissimi anni di vita. Il bambino non inizia a parlare in forza di continue e ripetute istruzioni, ma perché possiede le sue strutture basilari […].

Giovanni Cucci, Per un umanesimo digitale, 31

Il linguaggio non si impara davanti a una asettica riproduzione di suoni o di gesti, ma esclusivamente in una relazione interpersonale, e ciò presenta dei caratteri di irriducibilità formale del processo umano all’informatica e alla robotica: Siri e Alexa possono divertirci per alcuni minuti, ma il diletto dell’utente sta tutto sempre e solo nel sondare “quanto bene” i loro programmatori ne abbiano scritto il software. Mai interloquendo con loro si ha la genuina impressione di una conversazione, ma neppure la sua illusione!, perché il simulacro della coscienza vi appare (nonostante il grande lavoro sotteso) qualitativamente inconfondibile con il modello umano. A queste osservazioni il mio amico – quando è nel pieno del suo fideismo prometeico – ribatte puntualmente: «Non ancora!», sottintendendo che sia tutta questione di affinare la programmazione (secondo il noto detto “è la quantità che fa la qualità”).

Cucci invece osserva:

Il rapporto tra linguaggio e salute mentale [nel paragrafo precedente, N.d.R.] dice della dimensione essenzialmente biologica, corporea, vivente del linguaggio umano, la cui semantica presenta un insieme di regole estremamente complesse e non codificabili, ma nello stesso tempo note a tutti. In questa prospettiva, una macchina o un robot non potrebbero mai “parlare” come un essere umano, perché non comprendono una lingua, ma utilizzano strisce di informazioni […].

Ivi, 33

Le pagine di Cucci mi hanno riportato alla memoria un noumeno meraviglioso di John Searle, noto come “l’esperimento della stanza cinese”, che affrontai negli studi di filosofia del linguaggio:

Un volontario viene posto in una stanza dove si trovano delle strisce di testo in lingua cinese, che egli non conosce. Successivamente riceve un manuale di istruzioni che indica quali simboli dovrà usare per rispondere a ciascuna striscia. Alla fine le risposte risulteranno corrette, anche se il volontario continua a ignorare la lingua cinese.

Ivi, 34

Ecco cosa mi ci voleva per rispondere al mio amico nelle nostre lunghe conversazioni sullo sviluppo dell’AI, ed è ecco la ragione per cui Siri e Alexa non potranno mai conversare con noi. Con le parole di Searle:

  1. I programmi sono completamente sintattici;
  2. La mente ha una semantica;
  3. La sintassi non è la stessa cosa e non è di per sé sufficiente per la semantica.

Ecco: non è lo sviluppo della sintassi (cosa indefinitamente possibile, questa sì, in informatica) a produrre la semantica (vera anima del linguaggio umano), e in questo si mostra ingenuo il timore degli astronauti di 2001 Odissea nello Spazio, che si preoccupavano di come il calcolatore “avrebbe preso l’esclusione” dai comandi di bordo.

In realtà Hal non commette errori, e non è per una qualche irascibilità che – una volta appurate le loro intenzioni – uccide i membri dell’equipaggio, bensì per l’esatto opposto, cioè per la totale assenza di qualsivoglia componente emotiva alla sua intelligenza.

Il che – passando dalla fantascienza alla neuropsichiatria – trova un importante riscontro negli studi del portoghese Antonio Damasio: dalle sue ricerche sembrerebbe infatti che

la lobotomizzazione, cioè l’asportazione dei lobi frontali della neocorteccia cerebrale (sede delle emozioni), comporti gravi deficit nella valutazione, smentendo un pregiudizio piuttosto comune, cioè che una mente fredda e priva di emozioni si trovi nelle condizioni ottimali per prendere decisioni sagge. In realtà, si nota esattamente il contrario. Damasio riferisce il caso di un paziente, Elliot, che in seguito a una lobotomizzazione (effettuata per rimuovere un tumore) mantenne intatte le sue capacità intellettive, linguistiche, di comunicazione e di comprensione, ma divenne completamente privo di emozioni. Tale privazione lo aveva reso «l’essere umano intelligente più freddo e meno emotivo che si potesse immaginare, la cui ragione pratica, però, era talmente menomata da produrre, nelle vicende della vita quotidiana, un seguito di errori, una perpetua violazione di quel che voi e io riterremmo socialmente appropriato e vantaggioso dal punto di vista personale».

Antonio Damasio, L’errore di Cartesio, Milano 1995, 17 ss., citato in Giovanni Cucci, Per un umanesimo digitale, 37

Se sono gli uomini a pensare come macchine

Questo deficit incolmabile sul piano linguistico/gnoseologico implica a fortiori un’inadeguatezza totale alla vita etica – il che è piuttosto ovvio – ma pure alle questioni morali: le macchine che il mio amico inventa potranno cambiare (e in meglio) la vita di moltissime persone, ma proprio perché resteranno delle abili esecutrici di programmi circoscritti, e perciò prive di qualunque intelligenza anche solo analoga a quella umana. Il problema vero, piuttosto, è che gli uomini stessi rischiano di appiattire il loro linguaggio e la loro morale su quelli univoci delle macchine di loro invenzione: abbandonato lo sforzo kantiano di indagare il fondo misterioso e inattingibile della ragione pratica, l’umanità abbraccia entusiasta l’etica utilitaristica, che dei dilemmi morali nega perfino l’esistenza. Prima o poi, dunque, qualcuno potrà illudersi che le macchine pensino come gli uomini per il fatto che nel frattempo gli uomini cominciano a “pensare” come le macchine.



Leggi anche:
L’intelligenza artificiale è un pericolo per l’umanità?

Padre Cucci non manca di riportare il pensiero di Heidegger, che sul predominio della tecnica ebbe una visione lucida: egli infatti

notava come il problema centrale non risiedesse nella rilevazione di un tale dominio [quello della tecnica nell’età moderna, N.d.R.], ma piuttosto nel fatto che l’uomo non fosse preparato a viverlo in maniera critica e consapevole, soppesando possibili vantaggi e perdite. Ma, precludendosi un confronto con la dimensione sapienziale della vita, la mentalità tecnologica rischia di avvicinarsi pericolosamente alla follia e alla perdita del senso.

Ivi, 40

Top 10
See More