Perché ChatGPT sta diventando meno affidabile con il tempo

Con il passare delle settimane ChatGPT risulta essere meno preciso e le risposte non propriamente corrette o piene di errori

L’ascesa di ChatGPT e l’intelligenza artificiale in generale ha sollevato molte domande riguardo alla loro idoneità nella società.

Abbiamo visto la serie tv “Secret Invasion” della Marvel utilizzare una sigla generata dall’IA, qualcosa che ha creato un sacco di critiche verso l’azienda. C’è anche la preoccupazione che ChatGPT e altri strumenti di intelligenza artificiale potrebbero venire utilizzati per sostituire lavori di scrittura. Tuttavia, sembra che quelle paure potrebbero essere state esagerate poiché ChatGPT sta effettivamente diventando più stupido.

Ciò non significa che non possa potenzialmente diventare una vera minaccia lungo la strada, ma significa che non dobbiamo ancora premere il pulsante di panico.

ChatGPT sta soffrendo di quella che viene chiamata deriva dell’IA, e in realtà sta causando prestazioni peggiori del programma nel tempo. Uno studio ha rivelato che GPT-4 – progettato per essere più affidabile di GPT-3.5 prima di esso – ha ottenuto risultati migliori nel marzo 2023 rispetto a luglio 2023.

Sulla carta, il modello dovrebbe fare meglio col passare del tempo grazie al fatto che impara costantemente cose nuove. Tuttavia, sembra che stia avvenendo il contrario. Ciò che è più allarmante è il fatto che questo degrado è avvenuto nel corso di pochi mesi.

Cosa significa questo per il futuro dell’IA?

Vedere strumenti di intelligenza artificiale come questo diventare meno affidabili nel tempo farà sicuramente sì che molte persone smetteranno di utilizzarli. Abbiamo già visto questi problemi svolgersi nel mondo reale.

L’articolo “Star Wars” generato dall’IA di Gizmodo era pieno di errori nonostante fosse quello che sembrerebbe un compito facile per l’IA. Quando inizia a verificarsi una deriva in questo modo, significa che è necessario un tocco umano per riportare le cose sulla strada giusta.

Per quanto riguarda il motivo per cui questo sta accadendo, è una combinazione di molte cose. Man mano che l’IA impara di più, il suo comportamento può iniziare a cambiare insieme ad essa. Questo può indurre alla fine a fare previsioni che si discostano dal suo scopo originale e, a sua volta, causare errori.

Come risultato può dare da risposte obsolete a ipotesi errate, rendendolo uno strumento inaffidabile per la persona media. Ciò che accade a ChatGPT è una cosa comunque “marginale”, ma se accade con altre attività automatizzate dall’IA, come le auto a guida autonoma, potrebbe portare a risultati disastrosi.

Ci sono modi per tenere a freno i problemi e inizia con un occhio più attento a come si sta sviluppando l’IA. Ciò significa monitorare sempre i cambiamenti costanti, assicurarsi che i dati che sta consumando siano accurati e cercare sempre un feedback dalle persone che utilizzano lo strumento AI, che si tratti di ChatGPT o di qualcos’altro.

La deriva è preoccupante, ma è qualcosa che può essere risolto se viene corretto e monitorato.


Riccardo Ferrari: Studente di farmacia di giorno e scrittore di notte. Caporedattore, coordinatore e gestore delle componenti social e di pubbliche relazione di una piccola realtà: Natural Born Gamers. Nato con un joypad della prima PlayStation in mano e cresciuto con Final Fantasy, Metal Gear Solid e Resident Evil. Da lì non ha mai abbandonato il mondo videoludico, ho abbracciato anzi nuove passioni come il cinema, le serie tv ed il mondo della tecnologia.
Post collegati