Con il passare delle settimane ChatGPT risulta essere meno preciso e le risposte non propriamente corrette o piene di errori
L’ascesa di ChatGPT e l’intelligenza artificiale in generale ha sollevato molte domande riguardo alla loro idoneità nella società.
Abbiamo visto la serie tv “Secret Invasion” della Marvel utilizzare una sigla generata dall’IA, qualcosa che ha creato un sacco di critiche verso l’azienda. C’è anche la preoccupazione che ChatGPT e altri strumenti di intelligenza artificiale potrebbero venire utilizzati per sostituire lavori di scrittura. Tuttavia, sembra che quelle paure potrebbero essere state esagerate poiché ChatGPT sta effettivamente diventando più stupido.
Ciò non significa che non possa potenzialmente diventare una vera minaccia lungo la strada, ma significa che non dobbiamo ancora premere il pulsante di panico.
ChatGPT sta soffrendo di quella che viene chiamata deriva dell’IA, e in realtà sta causando prestazioni peggiori del programma nel tempo. Uno studio ha rivelato che GPT-4 – progettato per essere più affidabile di GPT-3.5 prima di esso – ha ottenuto risultati migliori nel marzo 2023 rispetto a luglio 2023.
Sulla carta, il modello dovrebbe fare meglio col passare del tempo grazie al fatto che impara costantemente cose nuove. Tuttavia, sembra che stia avvenendo il contrario. Ciò che è più allarmante è il fatto che questo degrado è avvenuto nel corso di pochi mesi.
Vedere strumenti di intelligenza artificiale come questo diventare meno affidabili nel tempo farà sicuramente sì che molte persone smetteranno di utilizzarli. Abbiamo già visto questi problemi svolgersi nel mondo reale.
L’articolo “Star Wars” generato dall’IA di Gizmodo era pieno di errori nonostante fosse quello che sembrerebbe un compito facile per l’IA. Quando inizia a verificarsi una deriva in questo modo, significa che è necessario un tocco umano per riportare le cose sulla strada giusta.
Per quanto riguarda il motivo per cui questo sta accadendo, è una combinazione di molte cose. Man mano che l’IA impara di più, il suo comportamento può iniziare a cambiare insieme ad essa. Questo può indurre alla fine a fare previsioni che si discostano dal suo scopo originale e, a sua volta, causare errori.
Come risultato può dare da risposte obsolete a ipotesi errate, rendendolo uno strumento inaffidabile per la persona media. Ciò che accade a ChatGPT è una cosa comunque “marginale”, ma se accade con altre attività automatizzate dall’IA, come le auto a guida autonoma, potrebbe portare a risultati disastrosi.
Ci sono modi per tenere a freno i problemi e inizia con un occhio più attento a come si sta sviluppando l’IA. Ciò significa monitorare sempre i cambiamenti costanti, assicurarsi che i dati che sta consumando siano accurati e cercare sempre un feedback dalle persone che utilizzano lo strumento AI, che si tratti di ChatGPT o di qualcos’altro.
La deriva è preoccupante, ma è qualcosa che può essere risolto se viene corretto e monitorato.
Ancora non si è verificato un attacco in Italia, ma questa volta la situazione ha…
Negli ultimi anni si è diffusa la consapevolezza, anche grazie a studi approfonditi, riguardo ai…
Oltre ai tradizionali servizi di consegna a domicilio, Amazon sta investendo nello sviluppo di Amazon…
Un nuovo attacco informatico sta preoccupando l'Italia, poiché questa volta non riguarda una sezione specifica,…
Grandi notizie per gli utenti grazie alle novità che riguardano il digitale terrestre nel 2025,…
Negli ultimi mesi, Lidl non sembra voler ridurre i suoi prodotti tecnologici sul mercato e,…