Tramite l'utilizzo combinato di librerie come PIL, cv2, matplotlib, numpy e scikit-learn vengono eseguite oltre 30 analisi forensi.
Rileva manipolazioni tramite analisi degli artefatti JPEG
Identifica immagini manipolate o generate artificialmente
Tecniche scientifiche avanzate per rilevare composizioni fotografiche e contenuto esterno
Oltre 35 analisi forensi eseguite su ogni immagine
Operazione in corso...
00:00:00
Il nostro strumento di analisi forense delle immagini offre funzionalità avanzate per l'individuazione di manipolazioni digitali.
Evidenzia differenze nei livelli di compressione JPEG per identificare aree potenzialmente manipolate.
Rivela pattern periodici e anomalie che possono indicare manipolazioni digitali.
Analizza la distribuzione dei valori di luminosità e la presenza dei diversi colori nell'immagine.
Esamina la coerenza della direzione della luce per identificare composizioni di immagini diverse.
Identifica regioni duplicate all'interno della stessa immagine e le evidenzia visivamente.
Rileva se parti di altre immagini sono state inserite nell'immagine analizzata.
Rivelano come l'immagine è stata compressa, utili per identificare salvataggi multipli.
Identifica contorni e strutture lineari presenti nell'immagine.
Identifica la presenza di informazioni nascoste e dati steganografici.
Identifica regioni salvate con livelli di qualità JPEG diversi, rivelando aree che sono state incollate da immagini con diversa storia di compressione.
Analizza i coefficienti DCT (Discrete Cosine Transform) per identificare se l'immagine è stata compressa più volte.
Rileva immagini generate da intelligenza artificiale (StyleGAN, MidJourney, DALL-E, Stable Diffusion) attraverso l'analisi di 4 indicatori specifici.
Soglia: Score ≥ 60/100 per rilevamento positivo
Identifica regioni dove la griglia di blocchi 8x8 JPEG è disallineata rispetto al resto dell'immagine, indicando contenuto incollato.
Rileva l'applicazione di filtri mediani, spesso usati per nascondere tracce di manipolazione.
Verifica se i coefficienti DCT seguono la distribuzione naturale prevista dalla Legge di Benford.
Le analisi forniscono:
È importante ricordare che questi strumenti sono ausili analitici e i risultati dovrebbero essere sempre interpretati da esperti nel contesto dell'indagine forense complessiva.
Seleziona una categoria per approfondire come interpretare i risultati di ciascuna analisi forense.
L'analisi della distribuzione tonale e cromatica rappresenta uno dei primi passi fondamentali nell'esame forense di un'immagine digitale. Questi grafici permettono di comprendere la composizione luminosa e colorimetrica dell'immagine, rivelando informazioni preziose sulla sua natura e su eventuali manipolazioni.
L'istogramma dei toni visualizza la frequenza di ciascun livello di grigio presente nell'immagine, offrendo una rappresentazione immediata della sua gamma dinamica. Sull'asse orizzontale troviamo i valori dei pixel, che spaziano da 0 (nero assoluto) a 255 (bianco puro), mentre l'asse verticale indica quanti pixel nell'immagine possiedono quel particolare valore.
Quando osserviamo un istogramma con distribuzione equilibrata, ci troviamo di fronte a un'immagine che sfrutta appieno la gamma tonale disponibile. Al contrario, picchi concentrati verso sinistra suggeriscono un'immagine sottoesposta o prevalentemente scura, mentre concentrazioni verso destra indicano sovraesposizione o scene molto luminose.
Un aspetto particolarmente interessante dal punto di vista forense sono le cosiddette "lacune" nell'istogramma: intervalli vuoti possono suggerire manipolazioni come l'aumento del contrasto o la modifica dei livelli, operazioni che tendono a "stirare" l'istogramma creando discontinuita innaturali.
Il grafico a torta della distribuzione cromatica offre una visualizzazione intuitiva del bilanciamento tra i canali rosso, verde e blu che compongono l'immagine. Questa analisi permette di identificare rapidamente dominanti cromatiche e squilibri colorimetrici.
In una fotografia naturale ben bilanciata, ci aspettiamo una distribuzione relativamente equilibrata tra i tre canali, con variazioni che riflettono il contenuto effettivo della scena. Dominanti cromatiche eccessive possono indicare condizioni di illuminazione particolari, ma anche manipolazioni post-produzione come correzioni colore aggressive.
La varianza cromatica misura quanto i valori dei pixel si discostano dalla media, fornendo un indicatore della ricchezza e della complessita colorimetrica dell'immagine. Una varianza elevata caratterizza immagini ricche di dettagli e sfumature, tipiche di scene complesse o fotografie ad alta gamma dinamica. Una varianza bassa, invece, e comune in immagini con palette cromatiche limitate o in aree uniformi che potrebbero essere state aggiunte artificialmente.
L'Error Level Analysis rappresenta una delle tecniche piu potenti e diffuse nell'analisi forense delle immagini digitali. Questo metodo sfrutta le caratteristiche intrinseche della compressione JPEG per rivelare potenziali manipolazioni, basandosi sul principio che diverse aree di un'immagine autentica dovrebbero mostrare livelli di errore di compressione simili.
Il processo di analisi ELA prevede il salvataggio dell'immagine a un livello di qualita JPEG noto, seguito dal calcolo della differenza pixel per pixel tra l'immagine originale e quella ricompressa. In un'immagine non manipolata, questa differenza dovrebbe essere relativamente uniforme su tutta la superficie, poiche ogni area ha subito la stessa storia di compressione.
Quando invece porzioni dell'immagine provengono da fonti diverse o sono state modificate dopo la compressione originale, queste aree tenderanno a mostrare livelli di errore differenti. Le regioni manipolate di recente appariranno generalmente piu luminose nell'immagine ELA, poiche contengono ancora informazioni che non sono state "appiattite" dalla compressione originale.
Nell'immagine ELA risultante, e fondamentale cercare incongruenze nei livelli di luminosita. Aree uniformemente scure indicano regioni che hanno raggiunto un equilibrio di compressione, mentre zone significativamente piu chiare potrebbero segnalare contenuto aggiunto o modificato di recente.
E importante considerare che alcuni elementi mostrano naturalmente livelli ELA diversi: i bordi netti, le aree ad alto contrasto e le texture complesse tendono a presentare valori piu elevati anche in immagini autentiche. Per questo motivo, l'analisi ELA richiede sempre un'interpretazione contestuale e non deve mai essere considerata come prova definitiva di manipolazione.
Le tabelle di quantizzazione rappresentano il cuore del processo di compressione JPEG e costituiscono una vera e propria "impronta digitale" che rivela informazioni preziose sulla storia dell'immagine. Ogni software di editing e ogni fotocamera utilizza tabelle di quantizzazione specifiche, rendendo questa analisi particolarmente utile per tracciare la provenienza di un'immagine.
Durante la compressione JPEG, l'immagine viene suddivisa in blocchi 8x8 pixel, ciascuno dei quali viene trasformato nel dominio delle frequenze tramite la Discrete Cosine Transform (DCT). I coefficienti risultanti vengono poi divisi per i valori contenuti nella tabella di quantizzazione: e questo passaggio che determina la perdita di informazione e, conseguentemente, la qualita finale dell'immagine.
Le heatmap delle tabelle di quantizzazione visualizzano questi valori in modo intuitivo. Nella matrice 8x8, l'angolo in alto a sinistra rappresenta le componenti a bassa frequenza (i dettagli grossolani dell'immagine), mentre spostandosi verso l'angolo in basso a destra troviamo le alte frequenze (i dettagli fini e le texture).
Valori di quantizzazione bassi (colori freddi nella heatmap) indicano che quella particolare frequenza viene preservata con maggiore fedelta, mentre valori alti (colori caldi) segnalano una compressione piu aggressiva. Le tabelle di quantizzazione standard tendono ad avere valori crescenti dalla bassa all'alta frequenza, poiche l'occhio umano e meno sensibile ai dettagli fini.
Dal punto di vista forense, tabelle di quantizzazione insolite o incongruenti possono rivelare manipolazioni. Ad esempio, se un'immagine presenta una tabella di quantizzazione che non corrisponde a nessun software noto, potrebbe essere stata processata con strumenti specializzati o modificata manualmente. Inoltre, la presenza di tabelle multiple all'interno della stessa immagine puo indicare che porzioni diverse hanno origini differenti.
L'analisi dello spettro di magnitudine trasforma l'immagine dal dominio spaziale a quello delle frequenze, rivelando pattern e strutture che sarebbero altrimenti invisibili. Questa tecnica, basata sulla Trasformata di Fourier, e particolarmente efficace nel rilevare periodicita nascoste, pattern di interpolazione e artefatti tipici delle manipolazioni digitali.
Mentre nel dominio spaziale osserviamo l'immagine come una griglia di pixel con diversi valori di luminosita, nel dominio delle frequenze vediamo la stessa informazione rappresentata come somma di onde sinusoidali a diverse frequenze. Il centro dello spettro rappresenta la componente continua (la luminosita media dell'immagine), mentre allontanandoci dal centro troviamo frequenze sempre piu alte, corrispondenti a dettagli sempre piu fini.
In un'immagine fotografica naturale, lo spettro di magnitudine mostra tipicamente una distribuzione che decresce gradualmente dal centro verso i bordi, senza picchi anomali o pattern geometrici evidenti. La presenza di strutture regolari nello spettro puo invece indicare manipolazioni o artefatti di varia natura.
Picchi isolati nello spettro possono rivelare pattern periodici nell'immagine, come quelli introdotti da operazioni di ridimensionamento (resampling) o da texture artificiali. Linee orizzontali o verticali prominenti possono indicare bordi netti innaturali o artefatti di editing. Pattern a croce centrati spesso derivano da operazioni di interpolazione, mentre strutture a griglia regolare possono essere il segno di elaborazioni algoritmiche come quelle prodotte da alcune reti neurali generative.
L'analisi spettrale e anche utile per identificare la compressione JPEG, che lascia una caratteristica firma a griglia corrispondente ai blocchi 8x8 utilizzati nell'algoritmo di compressione.
L'analisi delle proprieta fondamentali dell'immagine fornisce metriche quantitative che caratterizzano la sua natura visiva. Questi parametri, sebbene possano sembrare semplici, offrono indizi importanti sulla qualita dell'acquisizione originale e su eventuali elaborazioni successive.
Il contrasto misura la differenza tra le zone piu chiare e quelle piu scure dell'immagine, definendo quanto i toni siano "separati" tra loro. Un contrasto elevato produce immagini vivide con neri profondi e bianchi brillanti, mentre un contrasto basso risulta in immagini dall'aspetto piatto e slavato.
Dal punto di vista forense, variazioni significative del contrasto tra diverse aree dell'immagine possono suggerire che queste provengano da fonti diverse o siano state elaborate separatamente. Inoltre, manipolazioni del contrasto lasciano tracce caratteristiche nell'istogramma, sotto forma di "pettinature" o lacune nei valori tonali.
La texture quantifica le variazioni locali di intensita che creano la percezione di superfici e materiali. Immagini con texture elevata presentano dettagli fini e variazioni rapide, tipiche di superfici ruvide o scene complesse. Una texture bassa indica invece superfici lisce o aree uniformi.
Incongruenze nella texture possono rivelare regioni clonate o incollate: un'area copiata da una fonte diversa potrebbe presentare caratteristiche di texture incompatibili con il contesto circostante.
Il rumore rappresenta le variazioni casuali dei valori dei pixel che non fanno parte del contenuto reale dell'immagine. Ogni sensore fotografico introduce un pattern di rumore caratteristico, influenzato da fattori come la sensibilita ISO, la temperatura e le dimensioni del sensore stesso.
L'analisi del rumore e fondamentale nella forensica delle immagini: regioni con pattern di rumore diversi potrebbero provenire da acquisizioni differenti. Inoltre, molte tecniche di manipolazione alterano il rumore in modi rilevabili, ad esempio attraverso operazioni di sfocatura o di riduzione del rumore applicate selettivamente.
Il valore gamma descrive la relazione non lineare tra i valori numerici dei pixel e la luminosita percepita. Questo parametro influenza profondamente l'aspetto dell'immagine, determinando come i toni medi vengono riprodotti rispetto alle ombre e alle alte luci.
Valori gamma elevati producono immagini piu luminose nei toni medi, mentre valori bassi le rendono piu scure. Manipolazioni del gamma lasciano tracce caratteristiche nella distribuzione tonale e possono essere rilevate attraverso l'analisi dell'istogramma.
Le immagini derivate sono elaborazioni dell'originale che evidenziano aspetti specifici della struttura visiva. Applicando filtri e trasformazioni matematiche, possiamo isolare caratteristiche come i contorni, le strutture lineari e le componenti a bassa frequenza, ciascuna delle quali offre prospettive uniche per l'analisi forense.
L'immagine filtrata passa-basso rimuove i dettagli fini mantenendo solo le strutture grossolane e le variazioni graduali di luminosita. Questo processo, simile a una sfocatura controllata, permette di osservare la composizione generale della scena senza la distrazione dei dettagli minuti.
Dal punto di vista forense, questa visualizzazione aiuta a identificare incongruenze nelle grandi strutture dell'immagine, come variazioni di illuminazione incompatibili o gradienti tonali innaturali che potrebbero indicare operazioni di fusione tra immagini diverse.
L'algoritmo di rilevamento bordi identifica le transizioni brusche di intensita, evidenziando i contorni degli oggetti presenti nella scena. I bordi appaiono come linee chiare su sfondo scuro, creando una sorta di "scheletro" dell'immagine.
Questa analisi e preziosa per individuare artefatti di editing: i bordi creati artificialmente spesso presentano caratteristiche diverse da quelli naturali, come eccessiva nitidezza, aloni o discontinuita. Inoltre, oggetti incollati potrebbero mostrare bordi con proprieta incongruenti rispetto al resto della scena.
Il rilevamento delle linee, basato sulla trasformata di Hough, identifica le strutture lineari presenti nell'immagine. Le linee rilevate vengono sovrapposte all'originale, permettendo di analizzare la geometria della scena.
Questa tecnica e utile per verificare la coerenza prospettica dell'immagine: in una fotografia autentica, le linee di fuga dovrebbero convergere coerentemente verso punti di fuga comuni. Oggetti aggiunti artificialmente potrebbero violare questa coerenza geometrica, tradendo la manipolazione.
Le tecniche avanzate di analisi forense vanno oltre l'esame delle proprieta base dell'immagine, cercando prove dirette delle forme piu comuni di manipolazione fotografica. Queste analisi sono specificamente progettate per rilevare clonazioni, splice e inconsistenze di illuminazione.
Quando diverse immagini vengono combinate in un fotomontaggio, spesso provengono da scene illuminate in modo diverso. L'analisi dell'illuminazione esamina la direzione della luce su oggetti e superfici, cercando incongruenze che tradirebbero una composizione artificiale.
Il sistema analizza i gradienti di luminosita sulle superfici curve e i riflessi speculari per stimare la direzione della sorgente luminosa principale. Quando diverse aree dell'immagine suggeriscono direzioni di illuminazione incompatibili, viene generato un alert con la percentuale di inconsistenza rilevata.
E importante notare che scene con illuminazione complessa (luci multiple, riflessi ambientali) possono naturalmente presentare variazioni nella direzione apparente della luce.
La clonazione, o "copia-incolla" all'interno della stessa immagine, e una delle tecniche di manipolazione piu comuni, spesso utilizzata per rimuovere elementi indesiderati o duplicare oggetti. L'algoritmo di rilevamento cerca regioni altamente simili che non dovrebbero esistere in una fotografia naturale.
Il sistema suddivide l'immagine in blocchi e confronta ciascuno con tutti gli altri, identificando corrispondenze statisticamente improbabili. Le coppie di regioni clone vengono evidenziate con rettangoli colorati e collegate da linee tratteggiate, permettendo di visualizzare immediatamente la duplicazione.
Il livello di confidenza indica la probabilita che le regioni identificate siano effettivamente clonate piuttosto che semplicemente simili per coincidenza.
Lo splice detection identifica regioni provenienti da immagini diverse, analizzando le inconsistenze nel pattern di rumore e nelle caratteristiche statistiche locali. A differenza della clonazione, lo splice comporta l'inserimento di contenuto da fonti esterne.
L'algoritmo estrae il residuo di rumore dell'immagine e analizza le sue proprieta statistiche in diverse regioni. Aree con caratteristiche di rumore significativamente diverse dal contesto circostante vengono evidenziate come potenziali splice.
La mappa di calore risultante mostra in rosso le regioni sospette, mentre l'immagine del residuo di rumore permette una valutazione visiva diretta delle inconsistenze rilevate.
Il formato JPEG, con la sua compressione lossy basata su blocchi, lascia tracce caratteristiche che possono essere sfruttate per l'analisi forense. Queste tecniche specializzate esaminano gli artefatti specifici della compressione JPEG per rivelare manipolazioni e ricostruire la storia dell'immagine.
Quando un'immagine JPEG viene modificata e risalvata, le diverse regioni potrebbero avere "storie di compressione" differenti. La tecnica JPEG Ghost sfrutta questo principio ricomprimendo l'immagine a vari livelli di qualita e osservando come diverse aree reagiscono.
Il concetto chiave e che una regione salvata a una certa qualita "scompare" (mostra differenza minima) quando ricompressa esattamente a quella stessa qualita. Se diverse aree dell'immagine scompaiono a qualita diverse, significa che provengono da compressioni originali differenti, suggerendo manipolazione.
La qualita stimata indica il livello di compressione dominante dell'immagine, mentre i ghost rilevati evidenziano regioni con storia di compressione anomala.
La maggior parte delle manipolazioni su immagini JPEG comporta almeno una doppia compressione: l'immagine originale e stata compressa dalla fotocamera, poi decompresse per l'editing, e infine ricompressa per il salvataggio. Questo processo lascia tracce caratteristiche nei coefficienti DCT.
L'indicatore principale e il cosiddetto "effetto a pettine" nell'istogramma dei coefficienti DCT: la doppia quantizzazione crea pattern periodici con picchi a intervalli regolari. Il rapporto tra questi picchi e i valori medi fornisce una metrica quantitativa della probabilita di doppia compressione.
Un rilevamento positivo non indica necessariamente manipolazione malevola, ma certamente che l'immagine ha subito elaborazioni dopo l'acquisizione originale.
La compressione JPEG opera su blocchi di 8x8 pixel allineati a una griglia fissa che parte dall'angolo superiore sinistro dell'immagine. Quando contenuto viene incollato da un'altra immagine JPEG, la sua griglia di blocchi potrebbe non essere allineata con quella dell'immagine di destinazione.
L'analisi BAG (Block Artifact Grid) esamina l'allineamento della griglia JPEG in diverse regioni dell'immagine. La "griglia dominante" indica l'offset prevalente, mentre regioni con offset diversi vengono segnalate come potenziali aree di splice.
Questa tecnica e particolarmente elegante nella sua semplicita ed efficacia: anche manipolazioni sofisticate che sfuggono ad altre analisi possono essere rivelate da un semplice disallineamento della griglia JPEG.
Il livello di qualita con cui un'immagine JPEG e stata salvata influenza direttamente la quantita di informazione preservata. Qualita elevate (80-100) mantengono la maggior parte dei dettagli con artefatti minimi, mentre qualita basse (sotto 50) introducono degradazione visibile, specialmente ai bordi e nelle aree con dettagli fini.
La stima della qualita originale puo rivelare discrepanze: un'immagine che dichiara alta qualita nei metadati ma mostra artefatti tipici di bassa qualita potrebbe essere stata manipolata o i suoi metadati alterati.
Un file JPEG e strutturato in segmenti marcati da codici specifici, ciascuno contenente diversi tipi di informazione. L'analisi di questi segmenti rivela la struttura interna del file e puo identificare anomalie.
I segmenti APP contengono metadati come EXIF e informazioni sul software; DQT contiene le tabelle di quantizzazione; DHT le tabelle di Huffman per la codifica entropica; SOF definisce le dimensioni e la struttura dell'immagine. Segmenti mancanti, duplicati o in ordine anomalo possono indicare manipolazioni a livello di file.
L'avvento delle reti neurali generative (GAN, Diffusion Models) ha reso possibile la creazione di immagini sintetiche estremamente realistiche. Il nostro sistema analizza quattro indicatori specifici che caratterizzano le immagini generate artificialmente, basandosi sulle tracce che questi algoritmi lasciano inevitabilmente nei loro output.
I generatori neurali costruiscono le immagini attraverso successive operazioni di upsampling, tipicamente raddoppiando le dimensioni ad ogni passo. Questo processo crea picchi caratteristici nello spettro di frequenza a N/2, N/4, N/8 (dove N e la dimensione dell'immagine). La presenza di due o piu di questi picchi e un forte indicatore di generazione artificiale.
Lo spettro di Fourier delle immagini generate da GAN tende a mostrare una simmetria quasi perfetta tra i quattro quadranti, dovuta alla regolarita intrinseca del processo generativo. Le fotografie reali, con la loro complessita naturale, presentano tipicamente correlazioni inferiori. Valori di correlazione superiori a 0.85 sono considerati sospetti.
Analizzando come l'energia spettrale varia in funzione della distanza dal centro, le immagini generate mostrano profili insolitamente "lisci" e regolari. Le fotografie naturali, con la loro varieta di texture e dettagli, presentano profili piu irregolari. Una deviazione standard del profilo inferiore a 0.05 e indicativa di generazione artificiale.
Le operazioni di convoluzione trasposta (deconvoluzione) utilizzate nei GAN tendono a creare sottili pattern a scacchiera, visibili come correlazioni periodiche nel dominio spaziale. Questi artefatti, spesso impercettibili all'occhio umano, possono essere quantificati e utilizzati come indicatore di sintesi artificiale.
Il sistema combina i quattro indicatori in uno score complessivo da 0 a 100. La soglia di decisione e fissata a 60: immagini con score inferiore sono classificate come probabilmente fotografiche, mentre valori superiori suggeriscono possibile generazione artificiale.
E importante ricordare che questo sistema e ottimizzato per GAN "tradizionali" (StyleGAN, ProGAN). I modelli di diffusione piu recenti (Stable Diffusion, DALL-E 3, Midjourney v5+) potrebbero lasciare tracce diverse o piu sottili. Inoltre, immagini fortemente post-elaborate (HDR estremo, upscaling AI) potrebbero mostrare falsi positivi. L'analisi dovrebbe sempre essere contestualizzata con altri indicatori.
I manipolatori piu sofisticati non si limitano a modificare le immagini, ma applicano anche tecniche specifiche per nascondere le tracce delle loro manipolazioni. Il nostro sistema include analisi progettate per rilevare questi tentativi di occultamento, trasformando le stesse tecniche anti-forensi in indicatori di manipolazione.
Il filtro mediano e una tecnica comunemente utilizzata per "pulire" le tracce di manipolazione. Applicando questo filtro, un attaccante puo attenuare gli artefatti rilevabili dall'ELA e da altre analisi. Tuttavia, il filtro mediano lascia una propria firma caratteristica che possiamo rilevare.
Il MFR misura la differenza tra l'immagine originale e una versione filtrata con mediana 3x3. In un'immagine naturale non filtrata, questa differenza e significativa (MFR > 5) perche il filtro modifica sostanzialmente i dettagli fini. Se l'immagine e gia stata filtrata con mediana, applicare nuovamente il filtro produce pochi cambiamenti (MFR < 5), rivelando la manipolazione precedente.
Il filtro mediano produce caratteristiche "striature" nelle aree con gradienti, dovute al modo in cui seleziona il valore centrale tra i pixel vicini. Lo streaking ratio quantifica la presenza di questi pattern. Valori superiori a 0.3 sono indicativi di filtraggio mediano applicato.
La rilevazione di filtraggio mediano non prova direttamente una manipolazione malevola (il filtro ha usi legittimi nella riduzione del rumore), ma indica certamente che l'immagine e stata processata in modo che potrebbe aver alterato altre tracce forensi. In un contesto investigativo, questo dovrebbe alzare il livello di attenzione.
La Legge di Benford e un fenomeno statistico sorprendente: nei dataset naturali, la prima cifra significativa dei numeri non e distribuita uniformemente, ma segue una distribuzione logaritmica dove il numero 1 appare circa il 30% delle volte, il 2 circa il 18%, e cosi via decrescendo.
I coefficienti DCT delle immagini fotografiche naturali tendono a seguire questa distribuzione. Quando un'immagine subisce manipolazioni digitali come ridimensionamento, rotazione, o editing locale, la distribuzione delle prime cifre si allontana dalla curva teorica di Benford.
La KL Divergence (Kullback-Leibler) misura la "distanza" tra la distribuzione osservata e quella teorica. Valori superiori a 0.1 indicano deviazioni significative che meritano approfondimento. Il test Chi-quadro fornisce invece una valutazione statistica formale della conformita, con p-value bassi che indicano scarsa aderenza alla legge.
La violazione della Legge di Benford non identifica il tipo specifico di manipolazione, ma funziona come un "campanello d'allarme" generale. Un'immagine che devia significativamente dalla distribuzione attesa ha subito quasi certamente qualche forma di elaborazione che ha alterato le proprieta statistiche naturali del segnale fotografico.
Oltre alle tecniche principali, il sistema fornisce una serie di metriche supplementari che completano il quadro analitico dell'immagine, offrendo prospettive aggiuntive utili in contesti investigativi specifici.
La misura di simmetria quantifica quanto l'immagine sia bilanciata rispetto a un asse verticale centrale. Questo parametro puo essere utile nell'analisi di ritratti, architetture e altri soggetti naturalmente simmetrici.
Valori prossimi a 1 indicano alta simmetria, comuni in volti fotografati frontalmente o edifici ripresi perpendicolarmente. Valori bassi sono tipici di scene naturali, composizioni dinamiche o immagini con soggetti asimmetrici. Manipolazioni che aggiungono o rimuovono elementi su un solo lato dell'immagine possono alterare il valore di simmetria atteso per quel tipo di soggetto.
L'entropia e una misura della complessita informativa dell'immagine, quantificando quanto sia "imprevedibile" il contenuto pixel per pixel. Un'entropia elevata indica grande varieta di valori e dettagli, mentre un'entropia bassa caratterizza immagini piu semplici o uniformi.
Regioni con entropia anomalmente bassa rispetto al contesto circostante potrebbero indicare aree sintetiche o pesantemente elaborate. Al contrario, patch con entropia inspiegabilmente alta in aree che dovrebbero essere uniformi meritano attenzione.
La steganografia e l'arte di nascondere informazioni all'interno di altri dati apparentemente innocui. Nel contesto delle immagini, messaggi segreti possono essere codificati nei bit meno significativi dei pixel senza alterazioni visibili.
Il sistema analizza i pattern statistici dei bit meno significativi alla ricerca di anomalie che potrebbero indicare la presenza di dati nascosti. Quando viene rilevato un potenziale contenuto steganografico, il sistema tenta di estrarlo e decodificarlo.
Complementare all'analisi steganografica, il rilevamento dei pixel nascosti esamina i bit meno significativi dell'immagine alla ricerca di pattern sospetti. Un numero elevato di pixel con caratteristiche anomale nei bit LSB puo indicare la presenza di informazioni nascoste o manipolazioni a livello di bit.
Mentre un certo livello di "rumore" nei bit meno significativi e normale (dovuto al rumore del sensore), pattern strutturati o percentuali anomale possono suggerire embedding steganografico o altre forme di manipolazione a basso livello.
Quando diverse fotografie vengono combinate in un fotomontaggio, spesso provengono da scene illuminate in modo diverso. Questa analisi esamina la direzione della luce attraverso l'intera immagine, cercando inconsistenze che tradirebbero una composizione artificiale.
Il sistema suddivide l'immagine in blocchi e, per ciascuno, stima la direzione della sorgente luminosa principale analizzando i gradienti di luminosita. In una fotografia autentica, la direzione della luce dovrebbe essere coerente in tutta l'immagine (a meno di riflessi o sorgenti luminose multiple note).
L'algoritmo utilizza i gradienti Sobel per calcolare la direzione e la magnitudine delle variazioni di luminosita. I blocchi con gradiente significativo vengono analizzati per stimare la direzione della luce incidente. Se diversi blocchi mostrano direzioni di illuminazione incompatibili (deviazione superiore a 45 gradi dalla media), vengono segnalati come potenzialmente manipolati.
Ogni sensore fotografico introduce un pattern di rumore caratteristico, influenzato dalla tecnologia del sensore, dalla sensibilita ISO e dalle condizioni di acquisizione. Quando porzioni di un'immagine provengono da fonti diverse, i loro pattern di rumore differiscono, rivelando la manipolazione.
L'algoritmo estrae il "residuo di rumore" dall'immagine sottraendo una versione sfocata (filtro Gaussiano). Questo residuo contiene principalmente il rumore del sensore e i dettagli ad alta frequenza. L'immagine viene poi suddivisa in blocchi, e per ciascuno vengono calcolate diverse caratteristiche statistiche del rumore (deviazione standard, energia, variazione direzionale).
Applicando l'Analisi delle Componenti Principali (PCA), il sistema riduce queste caratteristiche a uno spazio a bassa dimensionalita dove i blocchi con rumore simile si raggruppano insieme. I blocchi che si discostano significativamente dal cluster principale (outlier) sono segnalati come potenzialmente provenienti da una fonte diversa.
La mappa termica mostra in rosso le regioni con rumore anomalo, mentre lo scatter plot PCA visualizza il clustering dei blocchi (blu = normali, rosso = outlier).
L'aberrazione cromatica e un difetto ottico delle lenti che causa una leggera separazione tra i canali colore, specialmente ai bordi dell'immagine e verso gli angoli. Ogni lente produce un pattern di aberrazione caratteristico e prevedibile: l'aberrazione aumenta con la distanza dal centro ottico seguendo un pattern radiale.
L'algoritmo separa l'immagine nei tre canali colore (Rosso, Verde, Blu) e misura lo "shift" (spostamento) tra i canali ai bordi degli oggetti. Utilizzando la correlazione di fase nel dominio delle frequenze, calcola con precisione sub-pixel la dislocazione tra il canale Rosso e Verde (R-G) e tra Blu e Verde (B-G).
In una lente reale, questi shift dovrebbero aumentare proporzionalmente con la distanza dal centro dell'immagine, seguendo un pattern radiale prevedibile. L'algoritmo calcola la correlazione tra lo shift cromatico e la distanza radiale: correlazioni basse (inferiori a 0.2) o regioni con aberrazione che non segue il pattern atteso vengono segnalate come sospette.
Il grafico "Aberrazione vs Distanza dal Centro" e particolarmente informativo: in un'immagine autentica, i punti dovrebbero seguire una tendenza crescente; regioni inserite da altre immagini mostrano punti che deviano dalla linea di trend.