La valutazione degli studenti a livellouniversitario deve andare oltre il rigurgito di fatti e verificare anche le loro abilità pratiche, ha dichiarato mercoledì il professore di intelligenza artificialeAlexei Dingli
.
Il professore è intervenuto durante la conferenza e la colazione d’affari organizzata dalla Malta Digital Innovation Authority e sostenuta da Times of Malta
.
Durante il primo panel, a cui hanno partecipato anche la responsabile legale dell’MDIA Annalise Seguna, la docente senior di AI e realtà virtuale aumentata Vanessa Camilleri e il professore di informatica Joshua Ellul, è stato chiesto a Dingli di reagire alla possibilità che gli studenti utilizzino la ChatGPT
nei compiti e negli esami.
Dingli ha detto che, come educatore, non è preoccupato che i suoi studenti facciano uso di questa tecnologia e ha affermato che forse è giunto il momento per gli educatori di prendere in considerazione la possibilità di cambiare il modo in cui viene effettuata la valutazione
.
“È tempo di cambiare e non possiamo continuare a guardare al passato. Come ogni tecnologia dirompente, credo che questo sia stato un campanello d’allarme
“, ha detto.
“Nel mio caso, quando si tratta di valutazione, i miei studenti non possono limitarsi a rigurgitare ciò che ho detto loro in classe. Abbiamo bisogno che vadano più a fondo e che dimostrino non solo di aver capito quello che gli è stato insegnato, ma che vadano oltre“.
Dingli ha detto che in un campo come quello dell’intelligenza artificiale gli studenti devono affrontare la realtà che, quando si laureeranno, alcune delle nozioni apprese potrebbero essere già obsolete
.
“Non è più possibile laurearsi e pensare di essere a posto per tutta la vita, quindi spero che in questo contesto i miei colleghi dell’università prendano in considerazione la possibilità di cambiare il modo in cui hanno fatto le cose negli ultimi 10 o 20 anni
“.
Per quanto riguarda l’impatto che l’AI Act dell’UE avrà su tecnologie come ChatGPT, Ellull ha affermato che Malta ha ricevuto un vantaggio con il suo quadro normativo “sandbox
” e si trova in una posizione in cui ha già sistemi critici per proteggere gli utenti simili a quelli dell’AI Act.
Le sandbox normative
consentono alle tecnologie all’avanguardia, che potrebbero non essere conformi al quadro giuridico esistente, di operare all’interno di un settore ristretto per comprenderne meglio i rischi e le opportunità prima di sviluppare una regolamentazione in merito.
Camilleri ha affermato che una parte dei problemi etici e normativi posti dagli strumenti di IA è rappresentata dal fatto che sono sviluppati da grandi aziende tecnologiche che non sono altrettanto trasparenti su come e da dove provengono i dati che addestrano i modelli di IA e se sono stati ottenuti in modo consensuale.
“Queste aziende hanno i soldi e le risorse per fare passi da gigante, ma come consumatori usiamo questi prodotti senza sapere da dove provengono i dati e forse inconsciamente stiamo interagendo con l’IA in un modo che sta plasmando i nostri pensieri
“, ha affermato l’autrice.
“Dobbiamo essere più consapevoli delle informazioni che stiamo consumando”.
La legislazione è in grado di tenere il passo con il ritmo incalzante della big tech? Ellul ha detto che probabilmente si tratterà di una “corsa agli armamenti
“.
“Il modo in cui strumenti come ChatGPT possono proliferare il codice così rapidamente è preoccupante ed è impossibile regolamentare ogni sua variante, ma abbiamo bisogno di strumenti normativi più rigidi per aiutare in questo senso, altrimenti sarà una corsa agli armamenti
“.
Dingli ha anche sottolineato che quando la legislazione comune dell’UE sarà finalizzata, potrebbe essere già superata, sottolineando che ChatGPT è stata lanciata dopo la chiusura del periodo di consultazione per l’AI Act
.
“Ci sono molte tecnologie ancora in fase di ricerca che saranno disponibili nei prossimi anni, quindi quando questa legislazione entrerà in vigore, ci sarà già qualcosa di diverso
“.
In un secondo panel, il ricercatore di IA Patrick Camilleri, l’amministratore delegato di EBO.ai Gege Gatt, il responsabile della strategia del MDIA Gavril Flores, la docente di IA Claudia Borg e la laureata in IA Anne Camilleri hanno discusso dell’attuazione delle politiche e della fiducia
degli utenti negli strumenti di IA.
Gatt ha affermato che la questione non riguarda tanto la fiducia nella tecnologia, quanto piuttosto la sorveglianza
che gli enti normativi esercitano su di essa man mano che i modelli di IA migliorano.
“Penso che la questione sia come ci stiamo allineando con questa tecnologia e con i suoi valori e obiettivi a quelli che abbiamo come società, dobbiamo capire questo allineamento come esseri umani, ma anche come governi, ONG e aziende“, ha detto.
“Siamo a un punto di svolta su come regolare la tecnologia e distribuire la sua ricchezza in modo equo, oltre a definire il significato di lavoro per noi. Dobbiamo comprendere le basi della politica pubblica su cui stiamo costruendo il mondo dell’IA e dobbiamo assicurarci che gli utenti comprendano le cause e gli effetti di questa tecnologia
“.
Flores ha affermato che, in qualità di regolatore, il MDIA considera principalmente i vincoli operativi e gli effetti sull’uomo come principali considerazioni di supervisione.
“Esaminiamo tutti i fattori di rischio dei sistemi di IA, compresi aspetti come la salvaguardia dei diritti umani e i pregiudizi, prima che vengano immessi sul mercato
“, ha affermato.
Gatt ha anche parlato di come gli strumenti di IA possano dare un nuovo significato ai lavori e possano rappresentare un “salto verso la riumanizzazione del lavoro
“. Questo avviene esaminando criticamente il ruolo che il lavoro svolge nella vita di una persona, ha detto.
La maggior parte dei lavori, ha aggiunto, sono “basati su regole” e non sono cambiati funzionalmente nelle procedure per molti anni. Tuttavia, gli strumenti di intelligenza artificiale offrono oggi l’opportunità di automatizzare
le attività ripetitive.
“Quando questi compiti ripetitivi e disumanizzanti vengono eliminati dal nostro portafoglio di attività e affidati all’IA, si ha l’opportunità di trovare un vero significato in ciò che facciamo
“, ha affermato.
Un settore che potrebbe trarne vantaggio è quello del servizio pubblico, ha aggiunto Gatt, secondo cui gli strumenti di IA potrebbero essere utilizzati per mettere meglio in contatto i cittadini con servizi di cui potrebbero non essere a conoscenza in precedenza.