Da qualche settimana tiene banco il tema della coscienza dell’intelligenza artificiale, dopo il caso di Blake Lemoine, ingegnere di Google, sospeso dopo aver dichiarato al mondo che uno dei BOT della stessa Google si è dimostrato “senziente”, capace cioè di produrre pensieri senza bisogno di programmazione.
Come sempre accade con temi così divisivi, il mondo si è spaccato a metà, tra coloro che si sono schierati dalla parte di Blake Lemoine e coloro che invece hanno catalogato come spazzatura questo tipo di insinuazione, quello cioè dell’autonomia delle macchine rispetto all’uomo.
In un contesto simile, diventa davvero difficile riuscire a capire quale sia la valutazione corretta sull’argomento, perché si rischia di essere travolti da chi urla di più.
Risposte interessanti sull’autonomia dell’intelligenza artificiale sono arrivate dal recentissimo LOOP Q Prize Award, un evento in cui sono stati premiati i migliori talenti nel campo dell’intelligenza artificiale, dopo un contest che è stato lanciato su scala globale, coinvolgendo le università europee e quelle africane.
Può essere interessante sapere che il vincitore dell’edizione 2022 è Diego Biagini, dell’Università di Bologna, il cui lavoro sul machine learning è stato valutato il migliore dai membri del panel giudicante. Ciò che risulta però ancora più rilevante è quanto è stato detto nel corso dell’evento, in relazione al tema dell’intelligenza artificiale senziente.
Possiamo escludere che l’intelligenza artificiale oggi sia senziente?
Il primo intervento arriva da Patrick Ehlen, Chief AI Advisor di Loop AI Group e Vice Presidente AI di Uniphore: tutti questi titoli potrebbero significare poco per chi non opera nel campo dell’intelligenza artificiale e non ne conosce i protagonisti: possiamo tradurre noi nel raccontare che Patrick Ehlen è uno dei migliori professionisti al mondo in materia.
La domanda a cui si è cercato di dare risposta era “Siamo già arrivati lì?”, l’intelligenza artificiale è senziente? Per chi volesse dare un’occhio all’intervento completo di Patrick Ehlen su su questo tema, abbiamo allegato il video: possiamo però sintetizzare il suo approccio alla materia in modo molto semplice.
La domanda da farsi non è tanto se l’intelligenza artificiale sia già senziente in questo momento, ma se si possa categoricamente escludere che lo sia.
Gli scienziati, quando analizzano un fenomeno, possono trovarsi davanti a due tipi di errore: il primo errore è quello di vedere un fenomeno che in realtà non esiste, il secondo invece implica il comportamento contrario, non vedere cioè qualcosa che in realtà esiste.
Patrick ha tradotto questa situazione come quella di un uomo che nel corso della notte si trova nella giungla e vede nel buio due elementi luccicanti che potrebbero essere delle foglie che riflettono la luce della luna, oppure gli occhi di una tigre pronta ad attaccare.
Il primo atteggiamento potrebbe essere quello di interpretare ciò che si vede come gli occhi della tigre e allontanarsi velocemente per evitare di essere aggrediti, il secondo comportamento potrebbe invece essere quello di ignorare il pericolo e rimanere sul posto.
La differenza tra questi due approcci sta nel fatto che se ci si allontana quando si intravede il pericolo, nel caso si scoprisse che tale pericolo in realtà non c’era, si è avuto solo un eccesso di prudenza. Nel caso, invece, di una sottovalutazione del pericolo, in caso di errore il rischio è quello di finire sbranati.
Ecco perché oggi l’atteggiamento corretto è quello di porsi il problema, considerare il pericolo e studiare le possibili contromosse, perché il fenomeno resti sotto controllo.
D’altro canto, questo è un tema che torna ad essere rilevante, ma che decenni è ricorrente, se si pensa che Isaak Asimov ne scrisse nel 1950: uno dei racconti del suo libro “Io Robot” sembra la cronaca dei giorni nostri.
Cosa è la “singularity” nel mondo della tecnologia? Ci siamo già arrivati?
Quando si parla di Intelligenza Artificiale senziente si entra ancora una volta nel tema della “Singularity”, della capacità delle macchine di agire in modo indipendente senza l’intervento o il controllo dell’uomo.
“Nella futurologia, una singolarità tecnologica è un punto, congetturato nello sviluppo di una civiltà, in cui il progresso tecnologico accelera oltre la capacità di comprendere e prevedere degli esseri umani. La singolarità può, più specificamente, riferirsi all’avvento di un’intelligenza superiore a quella umana (anche artificiale), e ai progressi tecnologici che, a cascata, si presume seguirebbero da un tale evento, salvo che non intervenga un importante aumento artificiale delle facoltà intellettive di ciascun individuo. Se una singolarità possa mai avvenire, è materia di discussione.”
Wikipedia
Abbiamo già raggiunto la singularity? Il computer ha già superato la capacità di comprendere degli esseri umani? Queste domande corrono di pari passo con quelle relative all’esistenza di un’intelligenza artificiale senziente.
Su questo argomento, durante il Loop Q Prize Award è entrato anche Davide Casaleggio, CEO di Casaleggio Associati, che di questi temi è un profondo conoscitore, per chi vuole approfondire, riportiamo il suo intervento.
Secondo Davide Casaleggio, in realtà la cosiddetta “Computer Singularity” esiste già in alcuni contesti: quando usiamo l’intelligenza artificiale per pianificare un percorso automobilistico, lasciamo la scelta agli algoritmi, senza discutere il percorso fatto per arrivare a queste scelte.
La cosiddetta “computer singularity” avviene già nella nostra vita quotidiana e non ce ne preoccupiamo: in alcuni casi l’abbiamo vista al lavoro nelle sfide tra l’intelligenza artificiale e quella umana, ad esempio negli scacchi, grazie a cui abbiamo capito che l’intelligenza artificiale nei giochi è destinata a vincere sempre.
L’esperienza di questi anni ci ha fatto comprendere che in realtà la soluzione migliore è quella della combinazione tra le due forme di ragionamento: il punto è però che non abbiamo oggi gli strumenti per capire quando i computer supereranno effettivamente le nostre capacità. Non è ancora successo, probabilmente: ma il nostro impegno oggi è capire come gestire quel punto di non ritorno con la certezza che, al momento, non abbiamo ancora una risposta certa.
Il tema è caldo, coinvolge la scienza e la tecnologia, ma anche la filosofia e per alcuni versi la religione: il nostro errore più grande potrebbe essere quello di pensare che sia un argomento per Nerd, perché stiamo parlando in realtà del futuro di tutti; il catastrofismo non serve, ma girare la testa dall’altra parte sarebbe uno sbaglio imperdonabile.