Aleteia logoAleteia logoAleteia
mercoledì 28 Febbraio |
Aleteia logo
News
separateurCreated with Sketch.

“È spaventoso: stiamo creando Dio”, dice un ex di Google sull’Intelligenza Artificiale dell’impresa

main de robot

© Willyam Bradberry - Shutterstock

Francisco Vêneto - pubblicato il 06/10/21

Per Mo Gawdat, l'aspetto pericoloso della fantascienza potrebbe smettere presto di essere mera finzione

Mo Gawdat, un ex funzionario di Google che ha guidato un dipartimento di Intelligenza Artificiale (IA) dell’impresa, ha dichiarato in un’intervista al quotidiano britannico The Times di essere “spaventato” per quello che il gigante statunitense della tecnologia sta creando in quel settore.

Lo scienziato ha lasciato Google nel 2017 dopo aver perso un figlio di 21 anni durante un intervento chirurgico. Imprenditore digitale, ha scritto il libro “La Formula della Felicità”, che ricorda la sua esperienza di fronte alla perdita del figlio.

Nell’intervista, Gawdat ha rivelato che Google ha sviluppato un sistema per far sì che bracci robotici trovassero e afferrassero piccole sfere. Durante lo sviluppo del progetto, uno dei bracci robotici ne ha presa una, e poi l’ha anche trattenuta. Gawdat non ha chiarito se quest’ultima azione era prevista nella capacità di apprendimento artificiale del braccio robotico o se è stata eseguita “autonomamente” dal meccanismo.

In sostanza, stiamo parlando di un robot che sembra essere andato oltre quello che era stato programmato per fare, perché avrebbe “imparato”, attraverso codici di intelligenza artificale, a eseguire “per conto proprio” un prossimo passo che non era ancora incluso nei suoi compiti.

Al riguardo, Gawdat ha detto al The Times:

“È lì che mi sono reso conto di quanto questo sia spaventoso”.

Stiamo creando Dio”

A suo avviso, la tecnologia è sempre più vicina a crea un’“intelligenza artificiale generale”, capace di inserire nel suo codice la capacità di prendere decisioni in modo autonomo, e quindi di diventare una minaccia per l’umanità.

Il cinema fantascientifico ha esplorato in varie occasioni questa ipotesi che all’epoca sembrava remota. Una delle opere più popolari in cui le macchine passano ad agire in modo autonomo, diventando un enorme problema per l’umanità, è Terminator. Optando per un’altra prospettiva, è emblematico anche A. I. – Intelligenza Artificiale, di Steven Spielberg, che mostra una sorta di “umanizzazione” di un bambino-robot che impara a sviluppare emozioni.

Per Mo Gawdat, l’aspetto pericoloso della fantascienza potrebbe smettere presto di essere mera finzione: “La realtà dei fatti è che stiamo creando Dio”.

I lati positivi e negativi dell’Intelligenza Artificiale

Mo Gawdat non è l’unico a mettere in guardia sugli aspetti dell’IA che richiedono più controllo.

Un dei nomi attualmente più influenti a livello di alta tecnologia, l’imprenditore Elon Musk, ha già dichiarato che bisogna implementare restrizioni e regolamentazioni per non correre il rischio di essere dominati da qualche tipo di Intelligenza Artificiale “ribelle”. Musk probabilmente sa bene ciò che dice, visto che è il fondatore di marchi storici nel processo dell’evoluzione tecnologica dell’umanità, come SpaceX, Tesla, The Boring Company e Neuralink.

Anche il gigante Microsoft chiede in modo ricorrente alle autorità governative non solo statunitensi di promuovere regolamentazioni e restrizioni più rigide a livello di ricerca e sviluppo dell’Intelligenza Artificiale.

I rischi derivanti dal cattivo uso di questa tecnologia non sono del resto relegati a un ipotetico futuro.

Sviluppatori indipendenti hanno già implementato algoritmi predittivi che creano “deepfakes” di donne famose o anonime con gradi straordinari di realismo. I “deepfakes” sono video realistici e che quindi sembrano autentici, pur essendo del tutto falsi. Molti ritraggono le persone in scene che coinvolgono pornografia o anche crimini, provocando seri problemi finché non se ne riesce a dimostrare l’inattendibilità. Un codice di questo tipo che sfugga al controllo e passi a produrre “deepfakes” per conto proprio potrebbe generare il caos.

Un altro caso di tecnologia che ha già “preso decisioni” sbagliate sembra essere quello del software Rekognition, creato da Amazon per il riconoscimento fcciale. Le autorità di polizia statunitensi lo hanno testato e hanno riferito che la tecnologia dimostrava “pregiudizi razzisti”, commetendo gravi errori nell’identificazione di persone di colore.

Dall’altro lato, ci sono anche successi importanti, come sistemi già in uso tra i biologi per prevedere malattie di origine animale capaci di infettare gli esseri umani, allo scopo di promuovere le ricerche per trovare cure idonee.

Il problema è che ci sono molte lacune e incognite nella legislazione sull’Intelligenza Artificiale, e questo scenario richiede l’attenzione della società civile e dei suoi rappresentanti nel potere legislativo. Come accade in altri settori complessi, come la genetica e l’ecologia, la sfida è creare leggi che non ostacolino lo sviluppo della scienza e dell’economia e non siano al contempo permissive al punto da non stabilire alcun limite.

Tags:
intelligenza artificiale
Top 10
See More