Deepfake: Quando la realtà non basta più.
- Avv. Manuel Pettinato
- 17 ott 2025
- Tempo di lettura: 1 min

Video, audio, immagini che sembrano autentici… ma non lo sono. I deepfake, generati tramite hashtag#IntelligenzaArtificiale, rappresentano oggi una delle minacce più serie per la verità digitale. Le implicazioni giuridiche sono enormi e possono, esemplificatamente, riguardare i seguenti campi:
A. Penale: diffamazione, truffa, revenge porn (art. 612-ter c.p.) anche su contenuti falsi ma verosimili.
B. Civile: violazione del diritto all’immagine (art. 10 c.c. e L. 633/1941) e trattamento illecito di dati biometrici sotto il GDPR.
C. Processuale: crisi della prova digitale — come distinguere un video autentico da uno manipolato senza strumenti di digital forensics? Con riferimento alla produzione documentale avversaria, occorre evidenziare che i contenuti multimediali oggi non possono più essere considerati, in modo acritico, come prove pienamente attendibili.
📑 Tale fenomeno comporta che, in assenza di garanzie tecniche circa l’autenticità del file Value, certificazioni di catena di custodia, utilizzo di strumenti forensi riconosciuti a livello ISO/IEC 27037), la prova digitale risulti intrinsecamente vulnerabile a manipolazioni.
🌐 In Europa, il Digital Services Act e il nuovo AI ACT impongono già obblighi di trasparenza e discutono di watermark digitali obbligatori.
📎 La sfida per i giuristi è chiara: non si tratta di demonizzare la tecnologia, ma di saperla governare, distinguendo tra innovazione lecita e manipolazione lesiva.
I deepfake ci ricordano che nel diritto del futuro non basterà conoscere le norme: servirà anche la capacità di leggere i dati come prove, verificandone l’autenticità.

