Skip to main content

Clothoff: rischi dell’app che nel 2025 spoglia le persone

15 Ottobre 2025
Le app di nudificazione rappresentano una nuova minaccia digitale. Scopri cosa rischi, come proteggerti e cosa prevede il Garante Privacy contro Clothoff.

Stop a Clothoff, l’app che spoglia virtualmente le persone: troppi rischi

Il Garante per la Protezione dei Dati Personali ha disposto, in via d’urgenza e con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti della società, con sede nelle Isole Vergini Britanniche, che gestisce l’app Clothoff.

Clothoff è una app di nudificazione, ovvero un software basato su intelligenza artificiale (AI) capace di generare immagini deep nude: foto alterate digitalmente che spogliano virtualmente le persone ritratte.
Attraverso l’uso di algoritmi di deep learning e reti neurali, l’app riesce a creare risultati estremamente realistici, anche in assenza di immagini originali di nudo.

In pratica, Clothoff è un’app che spoglia artificialmente chiunque, minori inclusi, e lo fa con un semplice clic, rendendo la tecnologia accessibile a chiunque e potenzialmente pericolosa se utilizzata in modo improprio.

Deep nude e privacy: perché sono una violazione grave

Le app di nudificazione come Clothoff non richiedono il consenso delle persone ritratte.
Questo comporta una violazione del diritto alla privacy e, nei casi più estremi, rappresenta una vera e propria forma di violenza digitale.

L’app consente a chiunque – anche minorenni di creare foto o video manipolati senza verifica dell’età, senza consenso e senza segnalazioni che indichino il carattere artificiale del contenuto.

Ciò significa che anche un’immagine innocente può essere trasformata in un contenuto sessualmente esplicito, con danni devastanti per la reputazione e la dignità delle persone coinvolte.
In molti casi, queste immagini possono essere diffuse o vendute online, con effetti permanenti sulla vita privata e professionale delle vittime.

L’intervento del Garante Privacy e i precedenti

Non è la prima volta che il Garante per la Privacy interviene su tecnologie di questo tipo.
Già nel 2020, l’Autorità aveva aperto un’istruttoria nei confronti di Telegram, dove circolava un software capace di “spogliare” virtualmente le donne attraverso l’intelligenza artificiale.

Nonostante le numerose denunce internazionali sui rischi legati ai deepfake e ai deep nude, il fenomeno continua a crescere, alimentando un mercato sommerso con gravi conseguenze per le vittime e un forte impatto sulla sicurezza digitale collettiva.

Il falso messaggio creativo di Clothoff

All’apertura dell’app, Clothoff invita l’utente a “trovare la soluzione ideale per liberare la tua creatività”.
Ma, proseguendo nella navigazione, compare il pulsante “AI Clothes Remover”, che fa esattamente ciò che promette.

Il Garante della Privacy è chiaro:

“Nessuna immagine può essere manipolata o diffusa senza un consenso libero, specifico e informato da parte dei soggetti ritratti.”

Dalla fantasia degli anni ’70 all’incubo digitale

Negli anni ’70 si scherzava sugli “occhiali a raggi X” che promettevano di vedere le persone senza vestiti.
Oggi, grazie all’intelligenza artificiale, quella che un tempo era una curiosità pubblicitaria è diventata una minaccia reale alla privacy e alla sicurezza personale.
La differenza è che ora le conseguenze non sono più una battuta, ma un rischio concreto di violenza e umiliazione online.

Privacy, reputazione e sicurezza: i veri rischi delle app di nudificazione

Le app di nudificazione e i deepfake non rappresentano solo una violazione del dato personale, ma compromettono la sfera più intima dell’individuo.
I danni riguardano la reputazione online, la dignità e persino la sicurezza psicologica delle vittime.

Il rischio che minori o persone vulnerabili possano essere esposti a questo tipo di manipolazioni genera forte preoccupazione tra istituzioni, associazioni e famiglie.
In molti casi, la diffusione di immagini modificate porta a episodi di cyberbullismo, estorsione o revenge porn, che possono avere conseguenze legali e sociali molto serie.

Le app di nudificazione mostrano come la tecnologia, se usata in modo irresponsabile, possa diventare uno strumento di violazione e abuso.
È fondamentale promuovere una cultura digitale consapevole, che unisca educazione, regole chiare e tecnologie di protezione dei dati.
Solo così sarà possibile sfruttare l’intelligenza artificiale per ciò che dovrebbe essere: uno strumento al servizio delle persone, non contro di esse.

La sfida dei prossimi anni sarà proprio questa: trovare l’equilibrio tra innovazione e tutela dei diritti, affinché la trasformazione digitale resti un’opportunità e non una minaccia.