Aggiornato al 25 Gennaio 2026

Verifica se un'Immagine è stata creata o manipolata con l'IA

Sistema avanzato di analisi forense per identificare immagini false, manipolate o generate con intelligenza artificiale. Combina Vision Transformer multi-modale con 10 analisi forensi indipendenti, CLIP Semantic Analysis, Generator Fingerprinting (Midjourney, DALL-E, Stable Diffusion, Flux), Watermark Detection (C2PA, SynthID) e Decisione Ensemble con rejection option. Include visualizzazioni dettagliate e verifica metadati EXIF.

Come funziona il riconoscimento di immagini generate o manipolate con l'IA

Questo sistema utilizza tecniche di intelligenza artificiale forense di ultima generazione per identificare se un'immagine è stata manipolata o generata completamente da IA. L'analisi combina algoritmi di machine learning con tecniche di elaborazione del segnale per rilevare pattern invisibili all'occhio umano. Novità 2026: Analisi semantica CLIP, identificazione del generatore AI (Midjourney, DALL-E, Stable Diffusion, Flux), rilevamento watermark AI (C2PA, SynthID), e decisione ensemble multi-metodo. Prova subito il sistema →

Vision Transformer CLIP Semantic Generator Fingerprint Watermark Detection Ensemble Decision 10 Test Forensi

Tecniche di analisi utilizzate per riconoscere immagini false

Vision Transformer Multi-Modale (ViT-B/16 + EXIF)

Il sistema principale utilizza un Vision Transformer (ViT-B/16) combinato con un encoder EXIF multi-layer perceptron. Il modello analizza simultaneamente le features visive estratte dal ViT e 17 features EXIF (metadati fotocamera, varianza laplaciana, densità bordi, entropia colore, artefatti di compressione). Questa architettura multi-modale raggiunge accuratezza >95% nella classificazione Real vs AI-Generated.

Analisi del Rumore Residuo (NLM Denoising)

Utilizziamo l'algoritmo Non-Local Means Denoising per estrarre il pattern di rumore residuo. Le immagini generate da IA presentano una varianza del rumore anomala (tipicamente < 3.0) rispetto alle fotografie autentiche. L'analisi viene effettuata su blocchi di 64x64 pixel per identificare inconsistenze locali. Il sistema genera visualizzazioni comparative del rumore originale, denoised e residuo.

Error Level Analysis (ELA)

L'ELA compara i livelli di compressione JPEG per rilevare manipolazioni. Ricomprimiamo l'immagine al 95% di qualità e calcoliamo la differenza pixel per pixel. Le aree manipolate mostrano livelli di errore inconsistenti, evidenziando aggiunte o modifiche posteriori all'acquisizione originale. Il sistema identifica automaticamente regioni sospette con area > 100px² e le visualizza con bounding boxes.

Trasformata di Fourier FFT

Applichiamo la Fast Fourier Transform (FFT) per analizzare lo spettro di frequenza. Le immagini generate da GAN mostrano pattern periodici caratteristici con un periodic_score > 0.03 e un frequency_ratio tra 0.74-0.79, indicativi di artefatti sintetici nelle alte frequenze. Il sistema calcola il rapporto tra energia ad alta frequenza (outer 40%) e bassa frequenza (center 10%) e visualizza lo spettro in scala logaritmica.

Varianza Laplaciana (Sharpness Analysis)

Il filtro laplaciano è un operatore differenziale che calcola la seconda derivata dell'immagine, evidenziando bordi e rapidi cambiamenti di intensità. La varianza del laplaciano misura nitidezza: immagini IA mostrano varianza < 100 (troppo pulite) o 100-500 (range AI), mentre foto naturali hanno varianza > 1000. Il sistema genera visualizzazioni del filtro laplaciano e istogramma della distribuzione.

Coerenza Direzionale dei Gradienti

Calcoliamo i gradienti direzionali Sobel per analizzare la coerenza dei bordi. Le immagini IA mostrano direzioni dei bordi troppo regolari (directional_coherence > 0.7) e varianza delle direzioni ridotta (< 0.5). Il sistema visualizza i gradienti X/Y, la magnitudine e la mappa di coerenza direzionale per identificare pattern sintetici.

Analisi Texture GLCM

Calcoliamo la Gray-Level Co-occurrence Matrix (GLCM) per analizzare le proprietà statistiche delle texture a distanze 1, 3 e 5 pixel. Le immagini IA presentano energy > 0.11, homogeneity > 0.6 e contrast_std < 8, indicativi di texture innaturalmente uniformi. Il sistema estrae 4 features di Haralick (contrast, dissimilarity, homogeneity, energy) e genera heatmaps.

Pattern Colore LAB

Convertiamo l'immagine in spazio colore LAB (percettivamente uniforme) per analizzare la distribuzione dei colori. Calcoliamo l'entropia dei canali a* e b* (crominanza), la deviazione standard e la curtosi. Le immagini IA mostrano distribuzioni colore anomale con pattern troppo uniformi o innaturali. Il sistema genera istogrammi 2D della distribuzione a*b* e visualizza i canali L, a*, b* separatamente.

Bordi Canny e Hough Transform

Applichiamo il rilevatore di bordi Canny seguito da Hough Transform per identificare linee rette. Le immagini IA presentano densità di bordi anomale e un numero eccessivo di linee perfettamente rette (num_lines > 50). Il sistema visualizza i bordi rilevati, le linee Hough e calcola metriche come edge_density, mean_edge_strength e line_regularity.

Decomposizione Wavelet (PyWavelets db4)

Applichiamo la trasformata wavelet discreta (DWT) con base Daubechies-4 su 4 livelli. Le immagini IA mostrano un caratteristico energy_decay_rate tra 0.02-0.25 e una curtosi dei coefficienti di dettaglio > 15, molto superiore alle immagini naturali. Il sistema decompone l'immagine in coefficienti di approssimazione (cA) e dettaglio (cH, cV, cD) e visualizza tutti i 4 livelli wavelet.

Rilevamento Artefatti Diffusion NUOVO

Analisi specifica per modelli di diffusione come Stable Diffusion, DALL-E, Midjourney e Flux. Il sistema rileva: texture "waxy" (superficie troppo liscia), color banding nei gradienti, frequency rolloff anomalo, pattern ripetitivi, uniformità innaturale della saturazione e inconsistenza dei dettagli tra quadranti dell'immagine. Combina 6 indicatori pesati per uno score di likelihood AI 0-100%.

CLIP Semantic Analysis NUOVO

Utilizziamo OpenAI CLIP (ViT-Base/32) per analizzare la similarità semantica dell'immagine con 18 prompt AI vs Real. Il modello confronta l'embedding visivo con descrizioni come "an AI generated image", "a synthetic image", "an image created by Midjourney" vs "a real photograph", "an authentic photo". Il sistema calcola uno score AI likelihood basato sulla similarità semantica, identificando se l'immagine "sembra" generata da AI dal punto di vista concettuale.

Generator Fingerprinting NUOVO

Identifica il generatore AI specifico basandosi su profili caratteristici di Midjourney (alta saturazione, stile artistico), Stable Diffusion (noise pattern, color bleeding), DALL-E (alta coerenza, bordi puliti) e Flux (texture realistiche, alto dettaglio). Analizza saturazione, contrasto, smoothness, edge quality e color coherence, confrontando con profili noti per identificare il match migliore e la confidenza della predizione.

Watermark & Provenance Detection NUOVO

Ricerca marcatori di provenienza AI: C2PA/Content Credentials (standard Adobe/Microsoft per tracciabilità), SynthID (watermark invisibile di Google), analisi steganografica LSB per pattern nascosti nei bit meno significativi, e scansione dei metadati EXIF/XMP per rilevare tool AI (Midjourney, Stability, DALL-E, Firefly, etc.). La presenza di watermark conferma con alta confidenza l'origine AI.

Ensemble Decision con Rejection NUOVO

Combina tutti i metodi di analisi con pesi ottimizzati: ViT Model (30%), Test Forensi (25%), CLIP (20%), Diffusion Detection (10%), Fingerprint (10%), Watermark (5%). Include rejection option: se la confidenza è < 40% o l'accordo tra metodi < 50%, il sistema indica "INCERTO" e raccomanda revisione esperta. Output su 5 livelli: REALE, PROBABILMENTE REALE, INCERTO, PROBABILMENTE AI, GENERATA DA AI.

Indicatori chiave per riconoscere immagini generate da IA

  • Metadati EXIF mancanti o incongruenti: Assenza di informazioni sulla fotocamera (Make, Model, Lens), mancanza di parametri di esposizione (ISO, aperture, shutter speed), software di generazione AI nei metadati
  • Varianza laplaciana anomala: Immagini con varianza < 100 (troppo pulite) o 100-500 (range AI) vs foto naturali con varianza > 1000, indicatore di sharpness artificiale
  • Uniformità anomala del rumore: Varianza del rumore < 3.0 calcolata su blocchi 64x64px, rumore sintetico statisticamente diverso da quello dei sensori fotografici reali
  • Pattern periodici nelle frequenze FFT: Periodic score > 0.03, frequency_ratio tra 0.74-0.79, artefatti regolari GAN nello spettro delle alte frequenze
  • Regioni ELA inconsistenti: Più di 3 regioni sospette con livelli di errore JPEG anomali (area > 100px²), evidenza di manipolazione post-acquisizione
  • Coerenza direzionale dei gradienti: Directional coherence > 0.7, varianza delle direzioni < 0.5, bordi troppo regolari e pattern sintetici
  • Texture GLCM innaturalmente uniformi: Energy > 0.11, homogeneity > 0.6, contrast_std < 8, superfici con co-occorrenza statistica anomala
  • Distribuzione colore LAB anomala: Entropia dei canali a*b* ridotta, curtosi elevata, pattern cromatici non naturali nello spazio percettivo
  • Linee Hough eccessive: Più di 50 linee rette perfette rilevate da Hough Transform, indicatore di geometria sintetica
  • Decomposizione wavelet anomala: Energy decay rate 0.02-0.25, curtosi coefficienti dettaglio > 15, pattern di decadimento energetico tipico della sintesi AI su 4 livelli wavelet db4
  • Artefatti Diffusion Models: Texture "waxy" (smoothness > 0.7), color banding nei gradienti, frequency rolloff anomalo, pattern ripetitivi, saturazione uniforme innaturale, inconsistenza dettagli tra quadranti
  • CLIP Semantic Similarity: Score AI > 60% indica alta similarità con concetti come "AI generated image", "synthetic image", "created by Midjourney/DALL-E". Top match con prompt AI-related conferma origine sintetica
  • Generator Fingerprint Match: Pattern caratteristici di Midjourney (alta saturazione, stile artistico), Stable Diffusion (noise pattern, color bleeding), DALL-E (alta coerenza, bordi puliti), Flux (texture realistiche)
  • Watermark AI rilevato: Presenza di C2PA Content Credentials, SynthID di Google (score > 60%), tool AI nei metadati EXIF/XMP (Midjourney, Stability, DALL-E, Firefly, etc.)
  • Disaccordo tra metodi di analisi: Se l'accordo tra i vari metodi è < 50%, il risultato è considerato INCERTO e richiede revisione esperta. Forte disaccordo indica possibile caso limite o manipolazione sofisticata

Il sistema integra un Vision Transformer multi-modale che analizza simultaneamente features visive (estratte dal ViT-B/16) e 17 features EXIF/image analysis. Novità 2026: I risultati vengono combinati con analisi CLIP, fingerprinting del generatore e rilevamento watermark in un ensemble multi-metodo con rejection option per massimizzare l'affidabilità.

Accuratezza del sistema 2026

Il sistema raggiunge un'accuratezza del:

  • 95%+ per immagini generate da AI
  • 90% per manipolazioni significative
  • 85% per editing standard

Metodi combinati:
  • • Vision Transformer (50k immagini)
  • • 10 Test Forensi Indipendenti
  • • CLIP Semantic Analysis
  • • Generator Fingerprinting
  • • Watermark Detection (C2PA/SynthID)
  • • Ensemble con Rejection Option
Grafico Training Modello

Grafico training (clicca per ingrandire)

Analizza la tua immagine per verificare se è creata con AI

Carica un'immagine per scoprire se è stata manipolata o generata con intelligenza artificiale. Il sistema analizzerà oltre 30 parametri tecnici inclusi CLIP, Fingerprinting del generatore, Watermark Detection e fornirà una decisione ensemble combinando tutti i metodi.

Trascina qui l'immagine o clicca per selezionarla