Deepfake vocali e IA: minacce e difese per la sicurezza online

Deepfake vocali e IA

Deepfake vocali e IA: minacce e difese per la sicurezza online

I deepfake nel contesto di immagini e video stanno diventando una realtà, portando risvolti preoccupanti anche nel campo della cybersicurezza. Ma esistono altre applicazioni simili che creano pericoli significativi.

Una delle nuove frontiere sono i deepfake vocali, che permettono di riprodurre un testo con la voce umana attraverso API audio.

Sebbene questo possa sembrare utile per rivivere cantanti del passato, le potenziali applicazioni nel cybercrimine preoccupano esperti di sicurezza. Anche se OpenAI al momento non permette la riproduzione vocale diretta, in futuro potrebbe diventare uno strumento pericoloso.

Non esistono ancora dispositivi che producano una voce deepfake indistinguibile dall’originale. Tuttavia, strumenti dimostrano l’evoluzione in questa direzione, con le prime segnalazioni online.

Un esempio eclatante è Tim Draper, che ha avvertito su X la possibilità di truffe utilizzando la sua voce manipolata da IA.

Come difendersi? Oltre ad analizzare la qualità della voce in chiamata, un’idea è accordarsi su una parola segreta da dire in situazioni sospette. Se la persona all’altro capo della linea non riesce a pronunciarla, potrebbe essere un campanello d’allarme.

Porre domande inaspettate può confondere l’IA. Se ci sono ritardi o risposte strane, potrebbero essere segni di allarme.

È cruciale sviluppare tecnologie difensive. Anche se non esistono sistemi al 100% contro le voci deepfake, software in grado di riconoscerle potrebbero essere disponibili.

Deepfake vocali e IA: minacce e difese per la sicurezza onlineultima modifica: 2023-11-23T18:41:43+01:00da puma1973a
Reposta per primo quest’articolo