L'intelligenza artificiale potrebbe portare all'estinzione dell'umanità: lo dice 'chi l'ha creata'

L'intelligenza artificiale potrebbe portare all'estinzione dell'umanità. È questa la sintesi di un avvertimento diffuso da molti esponenti del settore hi-tech tra cui Sam Altman, CEO di OpenAI, e Demis Hassabis, omologo di Google DeepMind.
di Manolo De Agostini pubblicata il 30 Maggio 2023, alle 20:31 nel canale WebIntelligenza Artificiale
Si addensano i timori sull'intelligenza artificiale e la sua veloce evoluzione. Se in prima battuta Elon Musk, Steve Wozniak e altri avevano chiesto una moratoria per definire regole comuni, e poi il CEO di OpenAI Sam Altman aveva parlato di "danni significativi al mondo", ora si parla apertamente di possibile estinzione dell'umanità.
Un gruppo di ricercatori di primo piano nel settore dell'AI, ingegneri e CEO ha firmato un avvertimento di 22 parole in cui si parla di IA come possibile minaccia esistenziale per l'umanità. Fa un po' specie che a dirlo siano i creatori e maggiori propugnatori di questa nuova, e per certi versi oscura ai suoi stessi padri, tecnologia.
"Mitigare il rischio di estinzione da parte di una AI dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare", sono le parole di firmatari come Demis Hassabis (CEO di Google DeepMind), Sam Altman (CEO di OpenAI) e molti altri tra cui Geoffrey Hinton (uscito da poco da Google) e Yoshua Bengio, due ricercatori che nel 2018 vinsero il Turing Award. Le parole sono state pubblicate dal Center for AI Safety, una non profit di San Francisco.
Secondo Dan Hendrycks, direttore esecutivo del Center for AI Safety, la breve dichiarazione nasce per non diluire troppo il messaggio e far prendere coscienza che all'interno del settore sono molti, e non pochi, quelli che vedono nell'IA una tecnologia foriera di potenziali sciagure.
"C'è un malinteso molto comune, anche nella comunità dell'IA, secondo cui vi siano solo una manciata di doomer", ha detto Hendrycks al Times riferendosi a chi prevede un futuro infausto per la razza umana. "Ma, anzi, molte persone in privato esprimerebbero preoccupazioni per queste cose".
Chi teme per il futuro della razza umana pensa a uno scenario in stile Terminator o quasi, con i sistemi di intelligenza artificiale che diventano rapidamente sempre più evoluti e non seguono più il volere umano, rendendo impossibile il controllo delle loro azioni.
Altri ritengono che tali previsioni siano eccessivamente pessimistiche e un esempio richiamato soventemente è la difficolta per l'intelligenza artificiale di gestire anche compiti relativamente banali come, ad esempio, guidare un'auto. Nonostante anni di sforzi e miliardi di investimenti, le auto a guida autonoma sono ancora lontane dal diventare una realtà concreta.
Nel frattempo, un po' tutti concordano che, anche senza evoluzioni, i sistemi di intelligenza artificiale rappresentino una minaccia in alcuni frangenti: permettono la sorveglianza di massa e possono facilitare la diffusione di disinformazione.
128 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoOppure semplicemente per un errore inneschi un evento che ad esempio la ai di Tesla decida di chiudere tutte le auto e non riaprirle più.
Diciamo che determinati compiti dovrebbero essere degli script basici a gestirli. Altrimenti sarebbe come dare un lavoro molto importante (es. Chirurgo) in mano a dei bambini che hanno a malapena la capacità di saper leggere e scrivere.
Oppure semplicemente per un errore inneschi un evento che ad esempio la ai di Tesla decida di chiudere tutte le auto e non riaprirle più.
Diciamo che determinati compiti dovrebbero essere degli script basici a gestirli. Altrimenti sarebbe come dare un lavoro molto importante (es. Chirurgo) in madò a dei bambini che hanno a malapena la capacità di saper leggere e scrivere.
e se quei bambini sono più intelligenti di te come tu lo sei di una formica funziona lo stesso?
ora non viene difficile immaginare cosa possa fare un AI se gli venisse chiesto di fare secca l'umanità visto che ha bucato le difese di un batterio multiresistente in due ore..
l'AI ha già dimostrato che, con forza bruta o sistemi più evoluti, è in grado di fare quello che vuole in tempi molto brevi.. per errore o per volontà umana non sarebbe difficile creare qualcosa che ci stermina tutti
per ora sono costose e complesse ma sul fronte delle medicine le stanno iniziando ad usare da anni con salti enormi in avanti e questo è potenzialmente una cosa bellissima e altrettanto pericolosissima
per creare un antibiotico si usavano i virus su cui testarli, pensate se una AI iniziasse a creare virus per capire meglio come funzionano e poi uno di questi super virus intelligenti "scappasse" inavvertitamente
com'era ? da grandi poteri grandi responsabilità ?... auguri..
Difatti la gente fa sempre meno figli, cosa che (stranamente) porterà all'estinzione della specie
se gli venisse detto di testare un virus in grado di uccidere il 100% degli umani e prendesse alla lettera il compito da svolgere ?
basta una fesseria a volte per creare un colpo di genio e altre volte basta poco per fare un disastro.. lo facciamo tutti i giorni noi umani e le AI non sono differenti da noi visto che siamo noi a programmarle e crearle
Quando vedrò...
...che mi vengono dati consigli per gli acquisti che abbiano un minimo di senso inizierò a preoccuparmiPrima di allora mi sembra empiricamente evidente che siamo ancora molto, ma molto indietro.
IMHO
Se il CEO di OpenAI dice che le AI sono pericolose è perché vuole siano regolamentate... Quelle degli altri. La strategia di Altman è puro gatekeeping per fermare il progresso dei competitor.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".