Connect with us

Tecnologia

OpenAI svela uno strumento di clonazione vocale che ha bisogno di un campione di 15 secondi per funzionare

Published

on

OpenAI ha dichiarato che sta lavorando con i governi per introdurre misure di salvaguardia per lo strumento. Foto: AFP

Venerdì OpenAI ha rivelato uno strumento di clonazione vocale che intende tenere sotto stretto controllo fino a quando non verranno introdotte delle misure di salvaguardia per contrastare i falsi audio destinati a ingannare gli ascoltatori.

Un modello chiamato “Voice Engine” può essenzialmente duplicare il discorso di qualcuno sulla base di un campione audio di 15 secondi, secondo un post sul blog di OpenAI che condivide i risultati di un test su piccola scala dello strumento.

“Riconosciamo che la generazione di un discorso che assomiglia alla voce delle persone comporta seri rischi, che sono particolarmente importanti in un anno di elezioni”, ha dichiarato l’azienda di San Francisco.

“Stiamo collaborando con partner statunitensi e internazionali che operano nei settori del governo, dei media, dell’intrattenimento, dell’istruzione, della società civile e non solo, per assicurarci di incorporare il loro feedback durante la costruzione”

I ricercatori che si occupano di disinformazione temono un uso improprio delle applicazioni basate sull’intelligenza artificiale in un anno cruciale per le elezioni, grazie alla proliferazione di strumenti di clonazione vocale che sono economici, facili da usare e difficili da rintracciare.

Advertisement

Riconoscendo questi problemi, OpenAI ha dichiarato che “sta adottando un approccio cauto e informato a un rilascio più ampio a causa del potenziale uso improprio della voce sintetica”

La cauta presentazione arriva pochi mesi dopo che un consulente politico che lavorava per la campagna presidenziale di un rivale democratico di Joe Biden ha ammesso di essere dietro a una telefonata automatica che impersonava il leader statunitense.

La telefonata, generata dall’intelligenza artificiale e ideata da un agente del deputato del Minnesota Dean Phillips, aveva la voce di Biden che esortava le persone a non votare alle primarie del New Hampshire di gennaio.

L’incidente ha messo in allarme gli esperti che temono un diluvio di disinformazione deepfake alimentata dall’intelligenza artificiale nella corsa alla Casa Bianca del 2024 e in altre elezioni chiave in tutto il mondo quest’anno.

OpenAI ha dichiarato che i partner che stanno testando Voice Engine hanno accettato delle regole, tra cui quella di richiedere il consenso esplicito e informato di ogni persona la cui voce viene duplicata utilizzando lo strumento.

L’azienda ha aggiunto che deve essere chiaro al pubblico quando le voci che sta ascoltando sono generate dall’intelligenza artificiale.

“Abbiamo implementato una serie di misure di sicurezza, tra cui il watermarking per tracciare l’origine di qualsiasi audio generato da Voice Engine, oltre al monitoraggio proattivo di come viene utilizzato”, ha dichiarato OpenAI.

Advertisement

Continue Reading