top of page

Deepfake: Quando la realtà non basta più.

  • Immagine del redattore: Avv. Manuel Pettinato
    Avv. Manuel Pettinato
  • 17 ott 2025
  • Tempo di lettura: 1 min

Video, audio, immagini che sembrano autentici… ma non lo sono. I deepfake, generati tramite hashtag#IntelligenzaArtificiale, rappresentano oggi una delle minacce più serie per la verità digitale. Le implicazioni giuridiche sono enormi e possono, esemplificatamente, riguardare i seguenti campi:

A. Penale: diffamazione, truffa, revenge porn (art. 612-ter c.p.) anche su contenuti falsi ma verosimili.

B. Civile: violazione del diritto all’immagine (art. 10 c.c. e L. 633/1941) e trattamento illecito di dati biometrici sotto il GDPR.

C. Processuale: crisi della prova digitale — come distinguere un video autentico da uno manipolato senza strumenti di digital forensics? Con riferimento alla produzione documentale avversaria, occorre evidenziare che i contenuti multimediali oggi non possono più essere considerati, in modo acritico, come prove pienamente attendibili. 

📑 Tale fenomeno comporta che, in assenza di garanzie tecniche circa l’autenticità del file Value, certificazioni di catena di custodia, utilizzo di strumenti forensi riconosciuti a livello ISO/IEC 27037), la prova digitale risulti intrinsecamente vulnerabile a manipolazioni.

🌐 In Europa, il Digital Services Act e il nuovo AI ACT impongono già obblighi di trasparenza e discutono di watermark digitali obbligatori.

📎 La sfida per i giuristi è chiara: non si tratta di demonizzare la tecnologia, ma di saperla governare, distinguendo tra innovazione lecita e manipolazione lesiva.

I deepfake ci ricordano che nel diritto del futuro non basterà conoscere le norme: servirà anche la capacità di leggere i dati come prove, verificandone l’autenticità.

 
 
 

Post recenti

Mostra tutti
NFT e Diritti Autore

L’acquisto di un NFT non porta con sé automaticamente la titolarità degli eventuali diritti d’autore sul bene collegato. Ai sensi...

 
 
 

©2010 Pettinato & Partners. 

bottom of page