Questo sistema utilizza tecniche di intelligenza artificiale forense per identificare se un'immagine è stata manipolata o generata completamente da un IA. L'analisi combina algoritmi di machine learning con tecniche di elaborazione del segnale per rilevare pattern invisibili all'occhio umano. Prova subito il sistema →
Il sistema principale utilizza un Vision Transformer (ViT-B/16) combinato con un encoder EXIF multi-layer perceptron. Il modello analizza simultaneamente le features visive estratte dal ViT e 17 features EXIF (metadati fotocamera, varianza laplaciana, densità bordi, entropia colore, artefatti di compressione). Questa architettura multi-modale raggiunge accuratezza >95% nella classificazione Real vs AI-Generated.
Utilizziamo l'algoritmo Non-Local Means Denoising per estrarre il pattern di rumore residuo. Le immagini generate da IA presentano una varianza del rumore anomala (tipicamente < 3.0) rispetto alle fotografie autentiche. L'analisi viene effettuata su blocchi di 64x64 pixel per identificare inconsistenze locali. Il sistema genera visualizzazioni comparative del rumore originale, denoised e residuo.
L'ELA compara i livelli di compressione JPEG per rilevare manipolazioni. Ricomprimiamo l'immagine al 95% di qualità e calcoliamo la differenza pixel per pixel. Le aree manipolate mostrano livelli di errore inconsistenti, evidenziando aggiunte o modifiche posteriori all'acquisizione originale. Il sistema identifica automaticamente regioni sospette con area > 100px² e le visualizza con bounding boxes.
Applichiamo la Fast Fourier Transform (FFT) per analizzare lo spettro di frequenza. Le immagini generate da GAN mostrano pattern periodici caratteristici con un periodic_score > 0.03 e un frequency_ratio tra 0.74-0.79, indicativi di artefatti sintetici nelle alte frequenze. Il sistema calcola il rapporto tra energia ad alta frequenza (outer 40%) e bassa frequenza (center 10%) e visualizza lo spettro in scala logaritmica.
Il filtro laplaciano è un operatore differenziale che calcola la seconda derivata dell'immagine, evidenziando bordi e rapidi cambiamenti di intensità. La varianza del laplaciano misura nitidezza: immagini IA mostrano varianza < 100 (troppo pulite) o 100-500 (range AI), mentre foto naturali hanno varianza > 1000. Il sistema genera visualizzazioni del filtro laplaciano e istogramma della distribuzione.
Calcoliamo i gradienti direzionali Sobel per analizzare la coerenza dei bordi. Le immagini IA mostrano direzioni dei bordi troppo regolari (directional_coherence > 0.7) e varianza delle direzioni ridotta (< 0.5). Il sistema visualizza i gradienti X/Y, la magnitudine e la mappa di coerenza direzionale per identificare pattern sintetici.
Calcoliamo la Gray-Level Co-occurrence Matrix (GLCM) per analizzare le proprietà statistiche delle texture a distanze 1, 3 e 5 pixel. Le immagini IA presentano energy > 0.11, homogeneity > 0.6 e contrast_std < 8, indicativi di texture innaturalmente uniformi. Il sistema estrae 4 features di Haralick (contrast, dissimilarity, homogeneity, energy) e genera heatmaps.
Convertiamo l'immagine in spazio colore LAB (percettivamente uniforme) per analizzare la distribuzione dei colori. Calcoliamo l'entropia dei canali a* e b* (crominanza), la deviazione standard e la curtosi. Le immagini IA mostrano distribuzioni colore anomale con pattern troppo uniformi o innaturali. Il sistema genera istogrammi 2D della distribuzione a*b* e visualizza i canali L, a*, b* separatamente.
Applichiamo il rilevatore di bordi Canny seguito da Hough Transform per identificare linee rette. Le immagini IA presentano densità di bordi anomale e un numero eccessivo di linee perfettamente rette (num_lines > 50). Il sistema visualizza i bordi rilevati, le linee Hough e calcola metriche come edge_density, mean_edge_strength e line_regularity.
Applichiamo la trasformata wavelet discreta (DWT) con base Daubechies-4 su 4 livelli. Le immagini IA mostrano un caratteristico energy_decay_rate tra 0.02-0.25 e una curtosi dei coefficienti di dettaglio > 15, molto superiore alle immagini naturali. Il sistema decompone l'immagine in coefficienti di approssimazione (cA) e dettaglio (cH, cV, cD) e visualizza tutti i 4 livelli wavelet.
Il sistema integra un Vision Transformer multi-modale che analizza simultaneamente features visive (estratte dal ViT-B/16) e 17 features EXIF/image analysis. Questo approccio combina tutti gli indicatori attraverso reti neurali fully-connected che apprendono pattern complessi e non lineari, assegnando pesi ottimali basati su training su 50.000 immagini (25.000 reali + 25.000 AI-generated). La presenza di metadati fotocamera autentici e software di editing professionale influenza il peso delle features forensi nell'architettura multi-modale.
Il sistema raggiunge un'accuratezza del:
Il Vision Transformer multi-modale è stato addestrato su 50.000 immagini (25.000 reali + 25.000 AI-generated) e validato su 10.000+ immagini di test.
ESCLUSIONE DI RESPONSABILITÀ: Il sistema di analisi fornito è uno strumento di supporto tecnico che non garantisce risultati infallibili. I risultati dell'analisi sono forniti "così come sono" (as-is) senza garanzie di alcun tipo, espresse o implicite. L'utente riconosce che possono verificarsi falsi positivi o falsi negativi e che nessuna tecnologia attuale può determinare con certezza assoluta l'origine o l'autenticità di un'immagine digitale. acquisizioniforensi.it, il suo proprietario, dipendenti e collaboratori declinano ogni responsabilità per qualsiasi danno diretto, indiretto, incidentale, consequenziale o punitivo derivante dall'uso o dall'impossibilità di utilizzo del servizio, inclusi ma non limitati a: (i) errori nella classificazione delle immagini; (ii) decisioni prese sulla base dei risultati dell'analisi; (iii) danni reputazionali o economici derivanti da valutazioni errate; (iv) perdita di dati o interruzioni del servizio. L'utilizzo del sistema implica l'accettazione integrale di questi termini e la rinuncia a qualsiasi pretesa risarcitoria. Per decisioni critiche si raccomanda sempre la consultazione di un esperto forense qualificato.
Carica un'immagine per scoprire se è stata manipolata o generata con intelligenza artificiale. Il sistema analizzerà oltre 30 parametri tecnici per fornire un verdetto dettagliato.
Trascina qui l'immagine o clicca per selezionarla