Ricevi Aleteia tutti i giorni
Solo le storie che vale la pena leggere: leggi la newsletter di Aleteia
Iscriviti!

Non vuoi fare nessuna donazione?

Ecco 5 modi per aiutare Aleteia

  1. Prega per il nostro team e per il successo della nostra missione
  2. Parla di Aleteia nella tua parrocchia
  3. Condividi i contenuti di Aleteia con amici e familiari
  4. Disattiva il tuo AdBlock quando navighi nel nostro portale
  5. Iscriviti alla nostra Newsletter gratuita e non smettere mai di leggerci

Grazie!
Il team di Aleteia

iscriviti

Aleteia

Intersezione tra ecologia e tecnologia

AI
Condividi

L’intelligenza artificiale incontra la Laudato si’

di Paolo Benanti

La creazione di un singolo modello di intelligenza artificiale può emettere tanta anidride carbonica quanto cinque automobili nell’intero arco della loro vita. Il mondo dell’intelligenza artificiale viene spesso paragonato all’industria petrolifera: una volta estratti e raffinati, i dati, come il petrolio, possono essere un bene molto redditizio. Ora sembra che la metafora possa estendersi ulteriormente. Come la sua controparte dei combustibili fossili, il processo di deep learning ha un impatto ambientale straordinario.

In un recente studio, i ricercatori dell’Università del Massachusetts hanno eseguito una valutazione del ciclo di vita per l’addestramento di diversi modelli comunemente adottati per le ai di grandi dimensioni. I ricercatori hanno calcolato che il processo può emettere più di 284.000 chilogrammi di anidride carbonica — quasi cinque volte le emissioni della vita media di un’auto nel mercato americano — includendo nel calcolo la produzione della stessa auto. È una sconcertante quantificazione di qualcosa che i ricercatori nel mondo delle AI sospettavano da molto tempo. «Mentre probabilmente molti di noi hanno pensato a questo in un livello astratto e vago, le cifre mostrano davvero l’entità del problema», afferma Carlos Gómez-Rodríguez, un informatico dell’Università di La Coruña in Spagna, che non è stato coinvolto nella ricerca. «Né io né altri ricercatori abbiamo mai parlato di ai pensando che l’impatto ambientale fosse sostanziale».

Il documento esamina in particolare il processo di addestramento del modello per l’elaborazione del linguaggio naturale (Nlp), un sottocampo dell’ai che si concentra sul rendere le macchine in grado di gestire il linguaggio umano. Negli ultimi due anni, la comunità dell’Nlp ha raggiunto diversi traguardi importanti per quanto riguarda la traduzione automatica, il completamento delle frasi e altri compiti standard di benchmarking. Il famigerato modello Gpt-2 di OpenAI, per esempio, eccelleva nello scrivere articoli di fake newsmolto convincenti.

Ma tali progressi hanno richiesto la formazione di modelli sempre più grandi su ampie serie di dati ottenuti da frasi prese da internet. L’approccio è computazionalmente costoso e ad alta intensità energetica. I ricercatori hanno esaminato i quattro modelli che hanno prodotto i più grandi miglioramenti nelle prestazioni: Transformer, ELMo, Bert e Gpt-2. Si sono allenati su una singola Gpu per un massimo di un giorno per misurare la potenza assorbita. Hanno quindi utilizzato il numero di ore di addestramento elencate nei documenti originali del modello per calcolare l’energia totale consumata durante l’intero processo di formazione. Questo numero è stato convertito in chili equivalenti di anidride carbonica in base al modo con cui si produce mediamente l’energia negli Stati Uniti, che corrisponde strettamente al mix energetico utilizzato da Aws di Amazon, il più grande fornitore di servizi cloud.

I ricercatori hanno scoperto che i costi computazionali e ambientali dell’addestramento sono cresciuti proporzionalmente alla dimensione del modello e poi sono esplosi quando sono stati utilizzati ulteriori passaggi di messa a punto per aumentare la precisione finale del modello. In particolare, hanno scoperto che un processo di sintonizzazione noto come ricerca dell’architettura neurale, che cerca di ottimizzare un modello modificando in modo incrementale la progettazione di una rete neuronale attraverso prove ed errori esaurienti, ha avuto costi associati straordinariamente elevati per un piccolo beneficio prestazionale. Senza di esso, il modello più costoso, il Bert, aveva un’impronta di carbonio di circa 640 chilogrammi equivalenti di anidride carbonica, una cifra vicina a un volo nazionale di andata e ritorno negli Stati Uniti per una persona.

Pagine: 1 2 3

Newsletter
Ricevi Aleteia tutti i giorni
I lettori come te contribuiscono alla missione di Aleteia.

Fin dall'inizio della nostra attività nel 2012, i lettori di Aleteia sono aumentati rapidamente in tutto il mondo. La nostra équipe è impegnata nella missione di offrire articoli che arricchiscano, ispirino e nutrano la via cattolica. Per questo vogliamo che i nostri articoli siano di libero accesso per tutti, ma per farlo abbiamo bisogno del vostro aiuto. Il giornalismo di qualità ha un costo (più di quello che può coprire la vendita della pubblicità su Aleteia). Per questo, i lettori come TE sono fondamentali, anche se donano appena 3 dollari al mese.