Gli strumenti di intelligenza artificiale rivoluzioneranno l’istruzione come hanno fatto le calcolatrici, ma non soppianteranno l’apprendimento, ha detto il fondatore di ChatGPT Sam Altman agli studenti di Tokyo stamattina, difendendo la nuova tecnologia.
“Probabilmente i compiti a casa non saranno più gli stessi”, ha detto il capo di OpenAI
in un intervento alla Keio University.
“Abbiamo un nuovo strumento per l’istruzione. Il modo in cui insegniamo alle persone dovrà cambiare e il modo in cui valutiamo gli studenti dovrà cambiare”
.
ChatGPT ha catturato l’immaginazione del mondo con la sua capacità di generare conversazioni, scrittura e traduzioni simili a quelle umane in pochi secondi.
Ma ha sollevato preoccupazioni in molti settori, compreso quello dell’istruzione, dove alcuni temono che gli studenti abusino dello strumento o si rivolgano ad esso piuttosto che produrre un lavoro originale.
Altman si è recato nella capitale giapponese nell’ambito di un tour mondiale in cui sta incontrando leader economici e politici per discutere delle possibilità e dei regolamenti per l’IA.
Ha regolarmente esortato i politici a redigere regolamenti per l’IA, avvertendo che “se questa tecnologia va male, può andare molto male”
.
“Gli strumenti di cui disponiamo sono ancora estremamente primitivi rispetto a quelli che avremo tra un paio d’anni”
, ha dichiarato oggi, sollecitando nuovamente misure di sicurezza e regolamentazioni.
Ha detto di sentirsi “positivo” riguardo a nuovi quadri normativi per l’IA dopo aver incontrato i leader mondiali, senza offrire dettagli, ma ha ribadito i suoi timori.
“Ci sentiremo super responsabili, a prescindere da come andrà a finire”,
ha detto.
Ha anche ripetuto i precedenti tentativi di calmare i timori che l’IA possa rendere obsoleti molti lavori esistenti, pur ammettendo che “alcuni lavori andranno via”
.
“Non credo che avrà l’impatto occupazionale che la gente si aspetta“, ha aggiunto, insistendo sul fatto che emergeranno “nuove classi di lavori”. Secondo il capo di Open AI quasi tutte le previsioni
sono sbagliate.