La tecnologia Intel promette di rilevare i deepfake con una precisione del 96% – -
Come migliori offerte,
nessuna coda bloccataSbagliato sbagliato è un nome popolare per le tecnologie che utilizzano l'intelligenza artificiale per ricreare le espressioni facciali delle persone nei video. Sfortunatamente, strumenti come questo sono stati utilizzati per diffondere disinformazione o causare imbarazzo. La buona notizia è che il Intel messo a punto un “antidoto”: il FakeCatcher.
Tecnologia DeepCatcher (lecture d'images/Intel)
Se l'intelligenza artificiale viene utilizzata per creare deepfake, l'intelligenza artificiale può essere utilizzata per identificare questo tipo di video. Questo è esattamente ciò che fa FakeCatcher. Il livello di precisione è molto alto: 96%, secondo Intel.
Un tale sistema non è un semplice capriccio. Ci sono una serie di dettagli che possiamo analizzare per sapere se un video è deepfake o meno. In effetti, la maggior parte delle persone può raggiungere questo risultato in modo relativamente semplice.
Il problema è che nel tempo i deepfake diventano più sofisticati. Ciò accade non solo a causa di algoritmi migliorati, ma anche perché l'intelligenza artificiale viene addestrata quando vengono ricevuti nuovi dati.
In altre parole, più uno strumento deepfake viene utilizzato, più accurato tende ad essere nella creazione di video.
Come funziona FakeCatcher?
Intel spiega che FakeCatcher è una combinazione di tecnologie. Si inizia con OpenVino, uno strumento che esegue modelli di intelligenza artificiale sul sistema per rilevare volti e punti di riferimento. Il prossimo è OpenCV, che viene utilizzato per l'elaborazione delle immagini in tempo reale.
Nel progetto sono presenti anche tecnologie Intel proprietarie, come Deep Learning Boost, che ottimizza i blocchi di inferenza dei motori AI.
Tutti questi elementi lavorano insieme per valutare una delle tante caratteristiche umane: il flusso sanguigno al viso.
Le nostre vene cambiano colore a causa del sangue che le attraversa, afferma Intel. Non possiamo vederlo ad occhio nudo, ma i segnali del flusso sanguigno possono essere rilevati a livello di pixel. Questo è esattamente ciò su cui sta lavorando FakeCatcher.
Un deepfake, anche se fatto bene, genererà cambiamenti nel volto della persona che vi appare indipendentemente da tali segni di flusso sanguigno. Se c'è un'interruzione negli schemi che indicano questa attività, è probabile che il video sia falso.
Secondo Intel, FakeCatcher esegue la scansione in millisecondi e ha un tasso di precisione del 96%. Questa è una percentuale molto più alta rispetto a qualsiasi altro sistema con un obiettivo simile. In genere, questi eseguono analisi utilizzando il deep learning su dati grezzi per identificare modelli che suggeriscono inautenticità.
Rilascio di FakeCatcher
Intel spiega che FakeCatcher può essere implementato in strumenti di authoring, social network (per impedire agli utenti di pubblicare deepfake) e piattaforme di distribuzione di contenuti, ad esempio.
Tuttavia, non è chiaro quando e come le organizzazioni potranno accedere alla tecnologia.
Ad ogni modo, Intel ha chiarito che FakeCatcher dipende da una buona struttura hardware per funzionare. Il sistema è basato su processori Intel Xeon di terza generazione e allo stato attuale può eseguire fino a 72 flussi di rilevamento deepfake simultanei.
L'idea è buona e necessaria. Il deepfake che mostrava il presidente ucraino Volodymyr Zelensky chiedere ai suoi connazionali di arrendersi ai russi è un esempio di quanto sia pericoloso questo tipo di contenuti.
Ma probabilmente è una specie di dare e avere. Non sorprende che, a un certo punto, i meccanismi di deepfake siano anche in grado di incorporare schemi che imitano i segnali del flusso sanguigno.
deepfakedeepfakesIntel