L’Associazione per il diritto dell’informatica chiede una politica sull’IA

L’Associazione maltese per il diritto dell’informatica (MITLA) ha pubblicato un documento che evidenzia la necessità di un migliore orientamento delle politiche sulle tecnologie emergenti.

Il documento chiede un’azione urgente per affrontare questioni come la disinformazione, l’educazione e le responsabilità legali.

ChatGPT di OpenAI ha introdotto l’IA alle masse e può essere molto utile come strumento per assistere le persone nei compiti scritti.

Se da un lato ci sono pericoli associati all’IA, anche in termini di perdita di posti di lavoro, dall’altro c’è la realtà che gli sviluppi dell’IA creeranno nuovi posti di lavoro che oggi non si possono nemmeno immaginare. La ChatGPT potrebbe anche sopperire ad alcune carenze di competenze e far sì che le persone e le organizzazioni producano un lavoro di qualità superiore più velocemente e a costi inferioriMITLA

ha dichiarato l’associazione nel suo documento.

Il MITLA avverte tuttavia che OpenAI, pur essendo nata come organizzazione no-profit, è ora un’entità a scopo di lucro, “creando il timore che l’azienda possa ignorare implicazioni etiche più ampie in una corsa ai profitti”.

Le raccomandazioni del MITLA includono:

– La necessità di regolamentare le tecnologie emergenti per ridurre al minimo i pregiudizi insiti negli insiemi di dati che le alimentano, nonché di prevenire l’abuso dell’apprendimento automatico al punto che strumenti come ChatGPT possono essere sabotati o manipolati per fornire informazioni false, imprecise o pericolose.

– La necessità di analizzare il sistema educativo per garantire che gli studenti siano dotati degli strumenti necessari per adattarsi alle tecnologie emergenti. Se l’istruzione non si concentra sulla formazione di persone in grado di adattarsi alle nuove competenze e tecnologie, queste rimarranno escluse dal mercato del lavoro del futuro.

– La necessità di assistere gli educatori nell’adattamento a tecnologie come ChatGPT, che potrebbero cambiare radicalmente il modo in cui devono essere svolti i compiti e gli esami.

– La necessità di modifiche legali per delineare le responsabilità delle aziende di IA, per garantire che siano ritenute responsabili delle ripercussioni di informazioni fuorvianti o che forniscano un avviso adeguato agli utenti.