Quanto siamo vicini alla Superintelligenza artificiale? I tre livelli spiegati (MisterGadget.Tech)
Superintelligenza Artificiale: un salto evolutivo per l’umanità o l’inizio della fine? La verità dietro le previsioni più audaci (e inquietanti) sull’IA
Sam Altman, CEO di OpenAI, ha affermato in un post sul blog lo scorso anno che la superintelligenza artificiale potrebbe diventare realtà in un futuro non troppo lontano. Altri leader tecnologici concordano sull’imminente arrivo della superintelligenza artificiale, e molti ne prevedono scenari positivi. Masayoshi Son, presidente di Softbank e della super-venture AI Stargate, ha dichiarato all’assemblea generale degli azionisti di SoftBank nel 2024 che la superintelligenza artificiale potrebbe superare la capacità cerebrale umana di 10.000 volte entro il 2035. All’annuncio di Stargate alla Casa Bianca nel gennaio 2025, Son ha ipotizzato che essa “risolverà problemi che l’umanità non ha mai pensato di poter risolvere”.
Ma cos’è esattamente la superintelligenza artificiale, e dovremmo accoglierla con entusiasmo o timore? Un’IA superintelligente supererebbe di gran lunga l’intelletto umano, spingendosi oltre i limiti della nostra stessa immaginazione. Tuttavia, siamo ancora distanti da questo traguardo. L’intelligenza artificiale viene classificata in tre livelli: Intelligenza Artificiale Ristretta (ANI), Intelligenza Artificiale Generale (AGI) e Superintelligenza Artificiale (ASI). Attualmente, ogni forma di IA esistente, dai chatbot alle auto a guida autonoma, rientra nella categoria dell’Intelligenza Artificiale Ristretta. Prima di poter raggiungere la superintelligenza, è necessario compiere il passo intermedio cruciale: l’Intelligenza Artificiale Generale, ovvero un’IA con un intelletto pari a quello umano.
Mentre Altman e Son considerano il raggiungimento dell’AGI e dell’ASI come imminente e auspicabile, altri esperti si mostrano scettici sia sui tempi che sui benefici. Tra questi, Brent Smolinski, AI Leader di Kearney, ha scritto in un articolo su LinkedIn: “È ancora probabile che non raggiungeremo mai la superintelligenza”.
Ogni forma di intelligenza artificiale con cui interagiamo oggi è riconducibile all’Intelligenza Artificiale Ristretta. Nonostante le notevoli performance raggiunte dalle più recenti iterazioni di modelli linguistici di grandi dimensioni (LLM) o generatori di immagini, queste IA rimangono fortemente focalizzate sull’esecuzione di compiti specifici. Si tratta di modelli confinati al dominio per cui sono stati progettati. ChatGPT non può guidare un’automobile, e il pilota automatico di Tesla non può comporre musica. AlphaFold è in grado di prevedere le strutture proteiche, ma non può sostenere una conversazione.
Sebbene queste IA eccellano nelle loro funzioni specialistiche, mancano della vera comprensione e versatilità che caratterizzano l’intelletto umano. Il modello linguistico di OpenAI può sembrare pensare, ma in realtà non analizza o ragiona nel modo in cui lo facciamo noi. L’Intelligenza Artificiale Ristretta è in grado di seguire istruzioni complesse in modo estremamente rapido e generare output basati su correlazioni statistiche apprese durante la fase di addestramento. Un esempio emblematico è AlphaGo di Google DeepMind, che ha dimostrato una maestria nel gioco del Go tale da sconfiggere il campione mondiale con mosse inaspettate persino per i suoi creatori; tuttavia, AlphaGo era incapace di svolgere qualsiasi altro compito al di fuori del gioco del Go. Analogamente, sebbene sia possibile interagire con Gemini Live, il nuovo assistente conversazionale di Google, in modo apparentemente naturale, esso opera pur sempre entro confini ben definiti.
L’Intelligenza Artificiale Generale (AGI) viene generalmente definita come il punto in cui raggiungeremo un’IA capace di pensare in modo equiparabile a un essere umano. L’AGI rimane ancora un’ipotesi teorica, e le opinioni divergono notevolmente sulla sua imminenza. Elon Musk, in una diretta streaming su X (precedentemente Twitter) nell’aprile 2024, ha previsto l’arrivo dell’AGI “entro due anni”. Dario Amodei, CEO di Anthropic, si allinea a questa previsione nel suo saggio di ottobre 2024, “Machines of Loving Grace”, affermando: “Penso che potrebbe arrivare già nel 2026”.
Altri esperti si mostrano più scettici, prospettando tempistiche più dilatate o mettendo in dubbio la realizzabilità stessa dell’AGI. Mustafa Suleyman, CEO di Microsoft AI, in un’intervista con Nilay Patel sul podcast Decoder di The Verge, ha dichiarato: “L’incertezza in merito è talmente elevata che qualsiasi affermazione categorica mi appare infondata e presuntuosa”. Gary Marcus, professore di scienze neurali alla New York University, in un recente articolo su Fortune, ha scritto: “La maggior parte degli investimenti si basa sulla premessa che una di queste aziende raggiungerà l’Intelligenza Artificiale Generale, il che appare (almeno nel breve termine) sempre più improbabile”.
Una delle difficoltà nel prevedere l’arrivo dell’AGI risiede nella mancanza di consenso su una definizione univoca e su come identificarne il raggiungimento. Sul suo sito web, OpenAI definisce l’AGI come “un sistema altamente autonomo che supera gli esseri umani nei lavori economicamente più redditizi”. Questa definizione appare riduttiva rispetto ad altre, che includono la capacità di risolvere problemi con la stessa flessibilità della mente umana, la capacità di apprendere autonomamente e la autocoscienza. Sebbene l’idea di un’IA autocosciente possa sembrare fantascientifica, rientra comunque nella categoria dell’AGI. Gli esseri umani, dopotutto, raggiungono l’autocoscienza senza essere superintelligenti. Una volta raggiunta l’AGI, il passaggio alla Superintelligenza Artificiale potrebbe essere estremamente rapido.
Potremmo non essere noi umani a dover costruire la Superintelligenza Artificiale: l’AGI potrebbe farlo per noi. Sam Altman, in un saggio pubblicato sul suo sito personale, ipotizza: “I sistemi di intelligenza artificiale diventeranno così efficienti da aiutarci a creare sistemi di nuova generazione ancora migliori”. Leopold Aschenbrenner, autore di “Situational Awareness”, ritiene che il passaggio dall’AGI all’ASI potrebbe avvenire in tempi brevissimi: “entro un solo anno”. Scrive: “Il progresso dell’IA non si fermerà al livello umano. Centinaia di milioni di AGI potrebbero automatizzare la ricerca sull’IA, comprimendo un decennio di progresso algoritmico in 1 anno. Passeremmo rapidamente da sistemi di intelligenza artificiale di livello umano a sistemi di intelligenza artificiale estremamente sovrumani”.
Questo scenario è noto come auto-miglioramento ricorsivo. Un’IA crea una nuova IA migliorata, che a sua volta genera versioni ancora più avanzate di sé stessa. Le scoperte nel campo dell’IA, susseguendosi a un ritmo esponenzialmente superiore a quanto possibile per gli esseri umani, potrebbero innescare una “esplosione di intelligenza”. Questa espressione fu coniata dal matematico I.J. Good in un saggio del 1965 intitolato “Speculations Concerning the First Ultraintelligent Machine”. Good scriveva: “una macchina ultra-intelligente potrebbe progettare macchine ancora migliori; si verificherebbe quindi senza dubbio una ‘esplosione di intelligenza’, e l’intelligenza dell’uomo verrebbe lasciata molto indietro. Pertanto, la prima macchina ultra-intelligente è l’ultima invenzione che l’uomo dovrà mai realizzare”.
Se l’AGI suona già come fantascienza, cosa possiamo aspettarci dalla superintelligenza? L’ASI supererebbe di gran lunga le capacità umane, pensando in modi a noi inaccessibili. Nick Bostrom, autore di “Superintelligence”, la definisce come un’IA in grado di “superare di gran lunga le migliori menti umane attuali in praticamente ogni campo di interesse”. Un’intelligenza che penserà meglio di noi, un concetto difficile da comprendere pienamente proprio per “la nostra mancanza di esperienza con qualsiasi variazione di qualità dell’intelligenza al di sopra dell’estremità superiore dell’attuale distribuzione umana”, come sottolinea Bostrom.
Un esempio efficace, seppur immaginario, di superintelligenza artificiale è “Pensiero Profondo” dalla Guida Galattica per Autostoppisti. Incaricata di trovare la risposta definitiva alla vita, all’universo e a tutto quanto, “Pensiero Profondo” giunge alla conclusione che la risposta è “42”. Questo esempio illustra un potenziale problema dell’ASI: potrebbe fornirci risposte che la nostra limitata intelligenza umana non sarebbe in grado di verificare o comprendere appieno. Sarebbe come spiegare le equazioni quadratiche a un gerbillo.
Nonostante la potenziale incomprensibilità dei processi di pensiero di una superintelligenza, Sam Altman prevede, nel suo post sul blog, che beneficeremo inequivocabilmente dei vantaggi dell’ASI: “Strumenti superintelligenti potrebbero accelerare in modo massiccio la scoperta scientifica e l’innovazione, ben oltre le nostre capacità attuali, aumentando a loro volta abbondanza e prosperità”. Questo meccanismo potrebbe essere analogo a come un gatto può beneficiare del calore di una coperta elettrica senza comprendere i principi di resistenza elettrica, trasferimento di calore e termoregolazione che ne consentono il funzionamento. Terrence J. Sejnowski, autore di “ChatGPT and the Future of AI”, in un articolo per Built In, ha ipotizzato che “Nel migliore dei casi, la superintelligenza potrebbe essere straordinariamente utile nel far progredire la nostra salute e la nostra ricchezza, prevenendo catastrofi causate dall’uomo”.
Lo scenario ottimistico vede l’ASI utilizzare la sua potenza intellettuale per curare malattie come il cancro, risolvere sfide globali come il cambiamento climatico e, in generale, migliorare la condizione umana. Tuttavia, esiste anche uno scenario alternativo, decisamente più inquietante. Roman Yampolskiy, professore di informatica all’Università di Louisville, nel suo libro “AI: Unexplainable, Unpredictable, Uncontrollable”, afferma che l’IA ha “il potenziale per causare una catastrofe esistenziale“. Analogamente, Dan Hendrycks, direttore del Center for AI Safety, nel suo articolo “Natural Selection Favors AIs over Humans”, sostiene che la superintelligenza “potrebbe portare l’umanità a perdere il controllo del proprio futuro”.
Cosa si può fare per salvaguardare un futuro simile? Una lettera aperta pubblicata su AItreaty.org invoca “una pausa nello sviluppo delle capacità dell’intelligenza artificiale”, affermando che “la metà dei ricercatori di intelligenza artificiale stima una probabilità superiore al 10% che l’IA possa portare all’estinzione umana o a una riduzione altrettanto catastrofica del potenziale umano“. Anche il Future of Life Institute ha pubblicato una lettera aperta intitolata “Pause Giant AI Experiments”, chiedendo “a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”. Questa lettera ha raccolto oltre 30.000 firme. Tuttavia, al momento non si registra alcuna battuta d’arresto nello sviluppo dell’IA. OpenAI ribadisce che “Costruire un’AGI sicura e benefica è la nostra missione”.
Non esiste un consenso definitivo su cosa sia la superintelligenza artificiale o su quanto presto – o se mai – diventerà realtà. C’è ancora tempo per le aziende tecnologiche per riconsiderare la direzione intrapresa. Potrebbero anche interrogarsi sull’effettiva necessità della superintelligenza artificiale. Come ha sottolineato il professor Yampolskiy in una sessione di domande e risposte all’Università di Louisville: “Possiamo ottenere la maggior parte dei benefici desiderati dall’IA ristretta, sistemi progettati per compiti specifici: sviluppare un farmaco, guidare un’auto. Non è necessario che siano più intelligenti dei più intelligenti tra noi messi insieme”.
Sentiamo spesso parlare di sistemi esterni che controllano i dispositivi e di come gli utenti…
Giocare i propri titoli Xbox ovunque? Le voci su una console portatile si fanno sempre…
Una novità che lascia sicuramente senza parole tutti gli utenti: si tratta di un limite…
Il nuovo Sony Xperia 10 VII si mostra in un leak: design familiare, tripla fotocamera…
Ancora una volta Esselunga decide di premiare tutti gli utenti con un regalo senza precedenti,…
Una nuova truffa bancaria preoccupa gli utenti, che si trovano a dover fronteggiare ancora un…