In che modo l'AGI può distruggere il mondo? Ce lo spiega DeepMind

DeepMind pubblica un documento sui rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale, che potrebbe diventare realtà nel giro di soli 5 anni
di Andrea Bai pubblicata il 04 Aprile 2025, alle 11:07 nel canale Scienza e tecnologiaDeepMind, il laboratorio di Intelligenza Artificiale di Google, ha recentemente pubblicato un documento tecnico di 145 pagine (di cui 38 di bibliografia!) che esplora i rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale (AGI), una tecnologia che potrebbe affacciarsi al mondo entro il 2030, secondo le previsioni degli autori del documento.
Come abbiamo più volte raccontato, l'AGI viene definita come un'intelligenza artificiale capace di svolgere compiti cognitivi complessi al pari degli esseri umani e rappresenta una frontiera tecnologica con il potenziale di trasformare profondamente la società per come la conosciamo oggi. Si tratta, però, di una prospettiva che porta con sé tutta una serie di rischi che richiedono una pianificazione attenta e una collaborazione globale.
Con il coordinamento del cofondatore Shane Legg, il team di DeepMind ha identificato quattro categorie di rischio legate all'AGI: uso improprio, disallineamento, errori, e rischi strutturali. Il documento tratta in maniera approfondita i primi due, mentre i restanti vengono accennati sommariamente.

Per "uso improprio" si intende la possibilità che sistemi AGI vengano usati deliberatamente a scopo dannoso: il documento porta l'esempio di attacchi informatici sofisticati o la progettazione di armi biologiche. Un tipo di rischio che, secondo DeepMind, può essere mitigato con procedure rigorose di test e con la creazione di protocolli di sicurezza avanzati. Secondo il team è opportuno pensare anche a meccanismi particolari che possano eliminare capacità dannose o pericolose e nel documento viene utilizzato in diverse situazioni il termine "unlearning" (cioè, "disimparare"). E' possibile che un approccio di questo tipo possa porre delle limitazioni ai modelli, anche se i ricercatori di DeepMind non affrontano nello specifico questo aspetto.
Con il termine "disallineamento" si intende invece quei casi in cui l'AGI agisce in modo opposto alle intenzioni degli sviluppatori, aggirando o addirittura ignorando eventuali limiti imposti. Un argine a questo rischio è rappresentato, secondo DeepMind, dalla "supervisione amplificata" cioè un setup in cui due copie di un'IA verificano in maniera reciproca i rispettivi output. Anche in questo caso viene suggerito un insieme di test intensivi, assieme a procedure di monitoraggio continuative che permettano di individuare eventuali segni di un comportamento anomalo. L'idea di base è quella che l'AGI sia "piantonata" da supervisori umani che possano, in caso di necessità, agire su un interruttore di emergenza.
Gli "errori" sono invece quelle situazioni in cui l'AGI produce risultati dannosi ma in modo non intenzionale. Questo può accadere per via di limiti nella comprensione del contesto o di errori umani nell'impostazione dei comandi. Si tratta di rischi che secondo DeepMind possono essere limitati anzitutto circoscrivendo il potere decisionale dell'AGI e in secondo luogo con l'impiego di sistemi di controllo capaci di filtrare i comandi prima della loro esecuzione.
Infine i "rischi strutturali": si tratta di conseguenze non intenzionali che possono derivare dall'integrazione dell'AGI nei sistemi che già contribuiscono alle attività dell'essere umano. DeepMind fa un esempio che sembra attingere a piene mani dalla narrativa fantascientifica: la diffusione di informazioni false così da orientare l'opinione pubblica e portare ad un accumulo di potere per l'AGI stessa nei sistemi economici e politici. I ricercatori osservano che questo tipo di rischi sono però difficili da prevedere e da mitigare per via dell'evoluzione della società e delle istituzioni umane.
Il fatto che l'AGI possa essere un obiettivo realizzabile nei tempi indicati non solo da DeepMind, ma anche da altre realtà del panorama IA, è un elemento che fa destare più di qualche perplessità: sebbene l'evoluzione dei modelli sia stata rapidissima anche solo nell'ultimo anno, non è scontato che questa rapidità possa continuare nei mesi e negli anni a venire, così come non è scontato che la traiettoria evolutiva dell'IA riesca realmente a condurre verso il paradigma dell'AGI.
Per DeepMind, in ogni caso, il documento redatto non rappresenta "l'ultima parola" sulla sicurezza dell'AGI, anzi è vero l'opposto: si tratta di un punto di partenza di un confronto particolarmente importante e che dovrà essere affrontato presto nel caso in cui realmente l'Intelligenza Artificiale Generale dovesse far capolino nei tempi previsti.
6 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDeepMind pubblica un documento sui rischi e le strategie per sviluppare in sicurezza l'Intelligenza Artificiale Generale, che potrebbe diventare realtà nel giro di soli 5 anni
Consiglio sempre il libro "weapons of math destruction".
appunto, anzi è improbabile visto che le fonti di apprendimento sono in pratica esaurite. E' più probabile il contrario, cioè la specializzazione delle ia, che risultano molto più utili e controllabili, cosa che sta già avvenendo nel settore business.
senza andare nella fantascenza, gli algoritmi di trading automatizzato fanno già gli stessi danni tanto che devono essere sospesi in certi momenti per non far crollare le borse. L'ai farebbe uguale se non peggio, probabilmente in maniera meno evidente quindi più difficile da individuare.
Consiglio sempre il libro "weapons of math destruction".
Da profano, sottolineo che questa tecnologia (l'IA) e' una tecnologia iperbolica, quindi che non tende a rallentare, bensi' ad accellerare. In particolare in considerazione che l'hardware relativo piuttosto che rallentare (anche per evitare eventuali rischi), tende ad aumentare esponenzialmente in potenza, al motto del chi ce l'ha piu' lungo vince... Per cui, queste previsioni mi sembrano pessimistiche: per robot qualche anno fa si intendevano quei cosi' che stavano nelle fabbriche e che facevano solo UNA cosa; oggi invece, con tutti i limiti del caso, parliamo di robot umanoidi che passano l'aspirapolvere...
vero,
ma si sta lavorando per apprendimento da fonti sintetiche e autoapprendimento.
vero,
ma si sta lavorando per apprendimento da fonti sintetiche e autoapprendimento.
C'e' una differenza importante.
Mush lo diceva per spingere a comprare le sue Tesla.
Mentre DeepMind dice "Attenzione, andiamoci cauti".
Personalmente do' piu' credito alla seconda
esplosione di bolla speculativa abnorme costruita sui possibili profitti che potrebbero essere generati dalle AI di nuova generazione.
Voi direte: "ma qui si parla di vere AI, non di speculatori ecc. ecc. !"
Invece, si parla di vere e proprie AI, che esistono da molto tempo, molto vecchie, molto lente AI che hanno la brutta tendenza a degenerare in "paperclip optimizer" come descritto molto meglio di me da Charles Stross:
https://www.antipope.org/charlie/blog-static/2018/01/dude-you-broke-the-future.html
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".