Amazon durante l’evento annuale chiamato re:MARS, mostra le tecnologie per il futuro, ha presentato un inquietante funzione di Alexa, in grado di imitare la voce di parenti defunti.
Il nostro approccio high-tech alle vicende della vita si scontra in modo veemente con il nostro animo più sensibile, perché questo genere di applicazione della tecnologia sfiora tematiche che vanno ben aldilà delle capacità tecnologiche delle aziende.
Rohit Prasad, Capo scientifico per lo sviluppo dell’intelligenza artificiale di Alexa ha parlato di aggiunta di attributi umani ai sistemi di intelligenza artificiale, ma dal nostro punto di vista questo tipo di soluzioni alla Santa più il cringe o addirittura il creepy, l’inquietante.
La funzione di Alexa che imita la voce dei defunti
Cliccando sul video che riportiamo dell’evento Amazon re:MARS, sarà possibile visualizzare il momento esatto in cui questa novità è stata presentata.
Nel video si vede come un bambino chiede ad Alexa di terminare la lettura di un libro che viene fatta utilizzando la voce della nonna, scomparsa prematuramente.
Sempre Rohit Prasad, capo dell’intelligenza artificiale Alexa, nell’introdurre questa funzione parla di un’opzione che può essere importante in un contesto come quello della pandemia, durante il quale molti di noi hanno perso parenti o comunque persone amate. Lo scienziato ha detto che “mentre l’intelligenza artificiale non può eliminare il dolore della perdita, può assolutamente fare in modo che la memoria resti.”
Come funziona la clonazione della voce fatta da Alexa?
Bisogna prima di tutto premettere che non sappiamo se questa funzione verrà mai resa disponibile al pubblico, ma la dimostrazione data da Amazon nei giorni scorsi ci dice comunque che la tecnologia può raggiungere questo risultato con estrema facilità.
Ciò che rende più inquietante questa dimostrazione di potenza dell’intelligenza artificiale risiede nel modo in cui Alexa è in grado di coronare la voce dei parenti defunti. Per ricreare contenuti, usando la voce di un’altra persona, basta infatti un solo minuto di registrazione audio.
Questo riporta a galla l’annosa questione su ciò che Alexa ascolta dentro le nostre abitazioni, così come gli altri assistenti virtuali oggi disponibili: se è vero che solo un minuto di conversazione è sufficiente per clonare la nostra voce, questo significa che chiunque usi uno smart speaker rischia di trovare un clone di se stesso, magari pronto ad usare la stessa voce per telefonare a qualche parente?
Come clonare la voce con le applicazioni audio
La clonazione della voce, in realtà, non è un tema nuovo, né rappresenta una novità assoluta: esistono alcuni software professionali, in grado di ricostruire alcune brevi frasi, riproducendo la voce dello speaker, semplicemente digitando il testo da pronunciare.
Sembra quasi di vivere in prima persona la trama di una delle puntate di Black Mirror, la serie di Netflix dedicata ad un futuro un po’ distopico, che ci piace solo relativamente.
Il caso presentato da Alexa e l’applicazione della potenza dell’intelligenza artificiale per una soluzione di questo genere ci fa pensare ad una interpretazione della tecnologia più fine a se stessa che non alla soluzione di problemi reali nella vita di tutti giorni.
C’è davvero qualcuno che pensa di risolvere il tema di un lutto ascoltando una voce sintetica prodotta da uno smart speaker?