Pixelsezierer: Algorithmus jagt Fälscher

Fast jeder Täter hinterlässt Spuren am Tatort: Kriminalisten suchen nach Haaren, Hautpartikeln und Fingerabdrücken, der Bildforensiker nach verdächtigem Rauschen, Pixelverdoppelungen sowie inkonsistenten Lichtverhältnissen.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 18 Min.
Inhaltsverzeichnis

Prinzessin Diana und Dodi al Fayed auf einer Yacht, kurz vor dem Kuss: "Das Bild, das alle wollten", jubelte "The Mirror". "Das Bild, das keiner will", hätte besser gepasst, denn: Im Originalfoto blickt Fayed wenig paparazzofreundlich in die Ferne, wirkt fast desinteressiert. Drum wurde ihm der Kopf kurzerhand digital zurechtgerückt.

Wie man solche Vergehen am digitalen Abbild von Personen, Szenen und Landschaften aufdeckt, erforscht das noch junge Feld der digitalen Bildforensik. Weltweit haben sich Hany Farid, Leiter der Image Science Group am Dartmouth College, und sein Team mit der algorithmischen Spurensuche einen Namen gemacht, die deutsche Repräsentanz der recht überschaubaren Forschergemeinde stellen Matthias Kirchner und Thomas Gloe vom Institut für Systemarchitektur, Datenschutz und Datensicherheit der Universität Dresden.

"The Mirror" erledigte, was Diana zumindest in diesem Moment nicht gelang. Er verdrehte Dodi al Fayed den Kopf, sodass eine Beinahe-Kuss-Szene entstand: "Das Foto, das alle wollten", zu sehen in der Wanderausstellung "Bilder, die Lügen"

Bildforensiker entwickeln mathematische Verfahren, die Fälschungen automatisch erkennen sollen. Eine marktreife Forensik-Engine könnte – etwa in einer Agentur – sämtliche eingehenden Bilder analysieren und manipulierte Dateien gleich aussortieren oder zumindest als verdächtig melden.

Ähnlich wie das menschliche Auge inkonsistente Beleuchtung oder Schatten intuitiv nicht wahrhaben will, suchen auch einige der Algorithmen nach einschlägigen Bearbeitungs- und Montageindizien: etwa nach duplizierten Bereichen, die auf das Verdecken unerwünschter Objekte hinweisen, Interpolationsmustern, die beim Skalieren von Bildteilen entstehen, oder Beleuchtungsunterschieden innerhalb einer Szene. Zudem haben sich die Forscher einiges ausgedacht, um bearbeitete und Original-Digitalkamerafotos unterscheiden zu können. Unter anderem sollen unrealistische Störungsmuster, doppelte JPEG-Kompression sowie (lokal) zerstörte Farbsäume Hinweise liefern, ob das Foto nach der Aufnahme verändert wurde.

Einen ersten Verdachtsmoment kann die globale Analyse des Bildes liefern: Jedes Digitalkamerabild trägt ein typisches Störungsmuster – eine Art digitalen Fingerabdruck – in sich. Dieses setzt sich aus dem Rauschen des Bildsensors sowie den bei der sogenannten Bayer-Interpolation entstandenen Korrelationen zwischen den Pixeln zusammen. Sämtliche in Digitalkameras verbaute Sensoren (außer dem Foveon-Sensor der Sigma-Kameras) speichern nicht für jedes Pixel die komplette Farbinformation, sondern pro Pixel einen Helligkeitswert für eine der drei Grundfarben Rot, Grün oder Blau. Auf welche Farbe die lichtempfindliche Zelle reagiert, legt ein über dem Sensor liegendes Filtermuster fest, das sogenannte CFA (Color Filter Array) Pattern. Für jedes Pixel wird anschließend sein wahrscheinlicher Farbwert aus den umliegenden Helligkeits- und Farbinformationen berechnet – ein Verfahren, das als Bayer-Interpolation bekannt ist.

Aus Fotografensicht eine Krücke, für den Forensiker ein Segen: Da der Filter ein periodisches Muster aufweist, korrelieren auch periodische Teilmengen der Pixel mit ihren Nachbarn gemäß dem verwendeten Interpolationsverfahren – durch Bildbearbeitung werden diese Abhängigkeiten ganz oder teilweise zerstört. Je nach Qualität des Demosaicing kann die Beziehung zwischen den Pixeln sehr komplex sein; insgesamt unterscheiden Popescu und Farid in ihrer Arbeit [1] fünf grundlegende Verfahren. Am einfachsten lässt sich die in modernen Kameras nicht mehr gebräuchliche lineare Methode beschreiben; besonders ausgefeilte Varianten berücksichtigen Kanten bei der Interpolation und sorgen so für knackige, kontrastreiche Bilder.

Beispiel einer simplen Bayer-Interpolation: Die fehlenden Informationen im Rotkanal entstehen durch lineare Interpolation ihrer direkten Nachbarn.

Mit Hilfe statistischer Verfahren (Expectation/Maximization-Algorithmus) versuchen die Forscher nun zu ergründen, ob die Pixel in einem Bild durch Farbinterpolation berechnet wurden (Modell 1) oder unkorreliert sind (Modell 2). Die Komplexität reduzieren sie drastisch, indem sie für das CFA-Modell den einfachen linearen Zusammenhang annehmen und die Farbkanäle getrennt betrachten. Im ersten Schritt wird für jeden Farbkanal die Wahrscheinlichkeit berechnet, zu den jeweiligen Modellen zu gehören, der zweite Schritt ermittelt die Art der Korrelationen. Die beiden Schritte werden so lange wiederholt, bis sich die Wahrscheinlichkeiten auf einen stabilen Wert eingependelt haben. Das Verfahren identifiziert nicht den Kameratyp, gibt aber zumindest einen Hinweis auf die verwendete Interpolationsmethode. Eine Forschergruppe um J. Lukas [2] hat darüber hinaus gezeigt, wie man anhand des Bildrauschens den Kameratyp eindeutig bestimmen kann; Hinweise auf die Herkunft eines JPEGs liefert zudem die in der Datei gespeicherte Quantisierungstabelle.

Laut Farid funktioniert die CFA-Analyse auch bei nachträglich über das Bild gelegtem Rauschen, moderater Kontrastveränderung oder moderater JPEG-Kompression. Angreifbar ist sie wie jedes Verfahren, doch für Gelegenheitsfälscher liegt die Messlatte definitiv zu hoch: Der Angreifer muss genügend Know-how besitzen, um mit Hilfe von eigenen oder Standardbildbearbeitungsfiltern die CFA-Pixelbeziehungen sowie das Rauschmuster perfekt zu simulieren und auf ein manipuliertes Bild anzuwenden.

Kirchner und Gloe beschreiben in [3] einen Angriff auf den Rauschmusterdetektor von Lukas: Mit Hilfe eines künstlich erzeugten Musters sei es ihnen gelungen, dem Algorithmus ein Canon-S70-Bild als Canon-S45-Output zu verkaufen. Und Hany Farid bestätigte gegenüber c’t, dass er beliebige CFA-Pattern generieren könne – dass Standard-Photoshop-Filter ein überzeugendes CFA-Muster zustande bringen könnten, bezweifelt er allerdings. So bleibt die CFA-Analyse ein guter Hinweis auf ein unbearbeitetes Kamerabild. Da aber Redaktionen und Agenturen ein gewisses Maß an Bearbeitung akzeptieren, wäre sie zur automatischen Prüfung sämtlicher eingehender Bilder denkbar ungeeignet. Denn selbst die erlaubten Farbund Kontrastkorrekturen könnten das CFA-Muster beeinflussen oder gar zerstören.

Die CFA-Analyse lässt so manches Bild verdächtig erscheinen. Doch ob der Fälscher nur harmlose Stromleitungen oder ganze Köpfe digital gekappt hat, müssen andere Verfahren klären. Ein Standardwerkzeug für Bildbearbeiter, die etwas zu verbergen haben, ist der Kopierpinsel beziehungsweise der mit Photoshop 7 eingeführte Reparaturpinsel: Beide überpflastern unerwünschte Objekte mit Pixeln, die von einer geeigneten Stelle des Bildes aufgesaugt werden.

Da man nicht sämtliche in einem Bild möglichen Bereiche miteinander vergleichen kann, reduzieren die Forscher den Rechenaufwand folgendermaßen: Sie unterteilen das Bild in kleine Blöcke fester Größe (typischerweise 6×6 Pixel), dampfen jeden Block mit Hilfe der Principal Component Analysis (PCA) zu einem charakteristischen Vektor ein und sortieren die Vektoren lexikographisch, sodass sich identische Blöcke als Nachbarn wiederfinden. Der per PCA gewonnene Vektor beschreibt das Muster, welches die Pixel eines Blocks bilden.

Wenn der Duplikatdetektor mit dem Bild fertig ist, besteht es nur mehr aus fein säuberlich sortierten Blöcken (oben): Identische liegen nahe beieinander und dienen als Ausgangspunkt, um größere Bereiche mit auffälliger Übereinstimmung zu finden (rechts).

Damit der Detektor nicht gleich bei jeder zufälligen Übereinstimmung zweier Pixelhaufen anschlägt, bestimmt er anschließend Abstand und Richtung der identischen Blöcke: Da Bildbearbeiter die Pixel häufig aus nur wenigen geeigneten Bildbereichen ernten, sollten sich zahlreiche Blockpaare mit auffallend ähnlichem Abstand und ähnlicher Kopierrichtung finden.

Nach Angaben der Forscher arbeitet das Verfahren auch bei anschließend über das Bild gelegtem Rauschen noch zuverlässig, da es den hohen Frequenzbereich, also feine Details, bei der Charakterisierung der Blöcke ignoriert. Allerdings beschreiben sie einen recht groben Testaufbau: Ihre Fälschungen entstanden einfach per Copy & Paste zusammenhängender Bildbereiche – gute Bildbearbeiter hingegen legen die kopierten Pixel in zahlreichen feinen, transparenten Schichten übereinander. Auch Farid räumte gegenüber c’t ein, dass die Algorithmen solch gekonntem Klonen derzeit noch machtlos gegenüberstehen.

Die Königsdisziplin des Fälschens ist die kompromittierendste: Zum Tagesgeschäft der Boulevardblätter gehören Babys in den Armen oder Geliebte an den Seiten irgendwelcher Promis, für die weniger schillernde Spezies der Politiker ließen sich brisante Geheimtreffen digital arrangieren. Der Duplikatdetektor stochert bei echten Fotomontagen im Dunkeln, da die Einzelteile aus unterschiedlichen Bildern stammen. Doch Jahresund Tageszeiten, Wolken und Sonne, innen und außen, Blitzlicht und Studiostrahler sowie Nähe und Ferne können eine solch einzigartige Beleuchtung im Bild schaffen, dass es schwierig wird, passende Versatzstücke für eine glaubhafte Montage zu finden. In manchen Fällen dürfte der einzige Weg zur perfekten Täuschung eine extra angefertigte Aufnahme unter möglichst identischen Lichtverhältnissen sein.

Die Beleuchtung verrät dem menschlichen Auge oft auf den ersten Blick, dass etwas faul ist. Der Computer hingegen kann nur anhand von Objekten, die ein Mensch im Bild markiert hat, nach Unstimmigkeiten suchen, indem er deren Beleuchtungsart und -richtung analysiert [4].

Nur an den Randpunkten eines Objekts im 2D-Bild lässt sich die jeweilige Oberflächennormale leicht bestimmen. Diese muss man kennen, um aus der Heligkeitsverteilung des Objektrandes auf die Position der Lichtquelle schließen zu können.

Da ein Foto die dreidimensionale Wirklichkeit auf 2D reduziert, kann der Algorithmus nicht einfach von beliebigen Punkten eines Objekts ausgehend auf die Position der Lichtquelle schließen: Dazu müsste er die Geometrie der Objekte kennen oder mehrere, aus unterschiedlichen Blickwinkeln aufgenommene Bilder derselben Szene vergleichen.

Lediglich an den Rändern von Gegenständen und Personen ist das Problem lösbar: Die sogenannte Oberflächennormale, aus der man die Reflexion auftreffenden Lichts und damit die Ausrichtung des Gegenstandes zur Lichtquelle ableiten kann, besitzt an den Objektgrenzen keine Tiefeninformation, kann ergo für beliebige Punkte zur Berechnung der Lichtrichtung verwendet werden. Die Oberflächennormale steht senkrecht auf den Tangenten eines Punktes in der Oberfläche. Einfache Beispiele aus dem Alltag: Die Drahtborsten einer Haarbürste bilden in der Regel die Oberflächennormalen zum Untergrund und auch bei Igelbällen stehen die Stacheln senkrecht zur kugeligen Haut.

Zunächst muss der Forensiker also die Objektgrenzen markieren – außer einem fortgeschrittenen Extraktionswerkzeug (etwa aus Photoshop, PhotoImpact oder Paint Shop Pro) benötigt er dazu schon ein wenig Zeit und Geschick. Aus dem Helligkeitsprofil entlang der Objektoberfläche errechnet der Algorithmus nun die Position der Lichtquelle, wobei diverse Annahmen das Modell vereinfachen. Beispielsweise geht es von einer Objektoberfläche mit matten Reflexionseigenschaften (Lambert’sche Oberfläche) aus.

Als spezielle Spielart der Beleuchtungsanalyse haben die Forscher eine Art Pupillenscan entwickelt. Das Umgebungslicht zaubert diesen berühmten lebendigen Lichtreflex in die Augen, der gerne mal einem schlechten Rote-Augen-Filter zum Opfer fällt. Ansonsten lässt er Rückschlüsse auf Kameraposition und Beleuchtungsrichtung zu.

Die Position des Glanzlichts in der Iris und deren Form verraten den Kamerastandpunkt. Als Hauptpunkt bezeichnet man den ins Foto hineinprojezierten Kamerastandpunkt. Zwei unterschiedliche Hauptpunkte entlarven die Fälschung.

Da man es beim Augapfel mit einem Objekt geläufiger Geometrie und bekannter Reflexionseigenschaften zu tun hat, ist man nicht auf die Objektgrenzen angewiesen. Die Oberflächennormale eines Punktes kann man aus der Form der Iris ableiten: Schaut die Person direkt in die Kamera, so erscheint die Iris rund, bei horizontaler oder vertikaler Abweichung zunehmend elliptisch. Dies genügt, um zusammen mit Informationen über Form und Position der Linsenreflexe, die man ebenfalls aus dem Bild gewinnt, die Lichtrichtung und damit die wahrscheinliche Kameraposition zu berechnen. Ergeben sich für zwei Personen in einem Bild unterschiedliche Kamerapositionen, standen sie vermutlich nicht so einträchtig beieinander, wie das Foto suggerieren wollte.

Wie gut muss ein Fälscher fälschen, um die Algorithmen auszutricksen? Genügt die Lektüre von "Bildmanipulation für Dummies" oder benötigt man jahrelange Expertise? Bildbearbeitungsexperte Doc Baumann, Chefredakteur des Magazins DOCMA sowie Autor zahlreicher Fachbücher, nahm die Herausforderung an. Bewaffnet mit Photoshop montierte er zusammen, was zusammen gehört: Angela Merkel und Roland Koch anlässlich der vorgeblichen Verleihung des begehrten "Pinocchio-Ordens"; eine Fotomontage, die sowohl gut kaschierte als auch offensichtliche Manipulationen enthielt. Auch eine mit Versatzstücken aus Doc Baumanns Bildarchiv realisierte Montage sowie Material aus dem Fundus unseres Art Directors Thomas Saur stiegen mit in den Ring. Die Forensik-Experten Matthias Kirchner und Thomas Gloe von der Universität Dresden ließen ihre Köpfe und Algorithmen für uns heißlaufen – mit interessanten Ergebnissen. Die GEO-Prüfinstanz Stefan Bruhn entlarvte die Schwächen in der Koch-Merkel-Begegnung mit einer Mischung aus geschultem Auge und klassischer Recherche.

Quintessenz: Ein Fälscher, der seine Arbeit perfekt tarnen möchte, muss schon eine Menge Hirnschmalz und Zeit investieren, um das Prädikat "unverdächtig" zu erhalten. Auf der anderen Seite fanden die Forensiker zwar häufig Indizien, aber keine echten Beweise. Ein solches Indiz erbrachte beispielsweise die CFA-Analyse; in allen drei Fällen monierte der Algorithmus das Fehlen von CFA-Mustern, ein erster Hinweis auf Bearbeitung. Doch ob die CFA-Charakteristik durch eine handfeste Manipulation oder erlaubte Bearbeitung zerstört wurde beziehungsweise nie vorhanden war, mussten die Forensiker in akribischer Detailarbeit herausfinden.

Großzügig geführte Pinselstriche rund um das Kinn und den Nacken des Models entlarvte der Resampling-Detektor. Helle Pixel in der sogenannten P-Map (rechts) stehen für eine hohe, dunkle für eine niedrige Korrelation mit den Nachbarpixeln.

Bereits die Analyse von Thomas Saurs Foto-Sonderheft-Titelbild gab einen ersten Eindruck von den Fähigkeiten der Algorithmen, inhaltliche Manipulationen aufzuspüren: Die in der Reihenfolge veränderten Muscheln an der Halskette des Models blieben unverdächtig. Und tatsächlich hatte unser Art Director in die Manipulation der Muschelkette viel Mühe investiert, um sie möglichst realistisch wirken zu lassen. Um visuell weiche Übergänge zwischen den montierten Objekten und ihrem Hintergrund zu schaffen, arbeiten Retuscheure in der Regel mit Störungsfiltern. Diese können jedoch auch die bei der Weichzeichnung oder Interpolation entstehenden Korrelationen zwischen benachbarten Pixeln buchstäblich zerhäckseln, sodass sich darauf getrimmte Algorithmen im Rauschen verirren. Etwas großzügiger schwang Saur den Pinsel bei der Bearbeitung des Hintergrunds. Hier fanden sich zum Teil deutliche Pixelkorrelationen, die auf den Einsatz von Weichzeichnungs- oder anderer linearer Filter hinweisen. Ein weiteres Indiz lieferte das Rauschsignal – manche Hintergrundpartien waren im Gelbkanal unnatürlich rauschfrei.

Gemischte Ergebnisse brachte auch die Analyse des Biker-Bildes von Doc Baumann, einem unkomprimierten Tiff. Ein gutes Gespür zeigten die Algorithmen und ihre Schöpfer für einige der einmontierten Objekte: Der Resampling-Detektor warf ein für Kirchners Geschmack zu stark verrrauschtes Ergebnis aus. "Es lassen sich kaum Kanten ausmachen. Der Bart des Bikers oder seine Tattoos kommen praktisch nicht vor. Wurde hier nachträglich verrauscht?" In der Tat: Die "Wilder Biker"-Accessoires musste sich der Doc bei anderen Bikern borgen.

Einen Hinweis auf digital genadelte Tattoos und künstlich gewachsene Bärte liefert der Resampling-Detektor: Da diese Elemente in der P-Map deutlich hervortreten müssten, vermuten die Forscher, dass hier nachträglich verrauscht wurde.

(Bild: Bilder und Montage: Doc Baumann)

Ein Algorithmus zur Analyse der Lichtverhältnisse steht den Dresdnern derzeit nicht zur Verfügung. Sie sind aber überzeugt, dass er die Frau im Hintergrund als Montageobjekt entlarven könnte. Stimmt: Das Ursprungsbild zierte ein voluminöses Hinterteil. Mit anderen visuellen Urteilen über die Beleuchtung griffen sie indes daneben – auch die Schatten und diverse Objekte im Hintergrund erschienen ihnen verdächtig. Hier zeigt sich ein Nachteil des halbautomatischen Beleuchtungsdetektors: Wer nicht sämtliche Gegenstände und Personen in einem Bild arbeitsaufwendig miteinander vergleichen möchte, braucht außer den Algorithmen auch ein äußerst geschultes Auge.

Noch deutlicher zeigt sich die Schwierigkeit sowohl des Fälscher- als auch des Analytiker-Handwerks am Koch-Merkel-Bild. Doc Baumann – diesmal im direkten Duell mit der Forensik – legte sich mächtig ins Zeug, um alle Spuren zu verwischen. Doch die Ausgangslage war alles andere als ideal: Da wir Politiker kompromittieren wollten, mussten geeignete Archivbilder her, wozu wir uns im djv-Archiv umsahen. Erstaunlich, wie wenige Fotos hinsichtlich Beleuchtung und Aufnahmesituation auch nur annähernd zueinander passen, perfekt harmonierende Objekte fanden wir nicht. Fälscher mit krimineller Energie dürften dasselbe Problem haben, aber zumindest den Vorteil, sich nicht um Verwertungsrechte kümmern zu müssen.

Angela Merkels Gesicht, im Original von einer eher kühlen, entfernten Lichtquelle beleuchtet, verpasste der Doc einen zu Koch passenden Hautton sowie einige Blitz-Glanzlichter auf Stirn, Kinn und Wange. Besonders viel Mühe investierte er, um das Gesicht möglichst nahtlos mit der neuen Umgebung zu verschmelzen. Dennoch fand GEO-Bildbearbeitungsexperte Stefan Bruhn die Beleuchtung nicht stimmig: Merkels Nase werfe einen Schatten auf ihre Wange, sie selbst müsste ergo Kochs Anzug abschatten – was nicht der Fall sei. Darüber hinaus fand er Störpartikel im Konterfei der Kanzlerin, die dem hessischen Ministerpräsidenten fehlten, sowie verdächtig vermatschte Partien in Merkels Haarpracht. Und ein weiteres Detail, das zeigt, warum man vielreisende Politiker besser nicht für Fotomontagen missbraucht: Frau M. befand sich zum angeblichen Aufnahmezeitpunkt auf dem Weg nach Peking, so Bruhn. Matthias Kirchner wiederum fand ein Bild von Koch zusammen mit dessen Gattin im Netz, das offenbar auf derselben Veranstaltung aufgenommen wurde.

Angela Merkel zusammen mit Roland Koch, stolzem Träger des Pinocchio-Ordens: Im Original war Koch mit seiner Ehefrau unterwegs. Die in der P-Map auffällig hellen Haarpartien in der Mitte von Merkels Kopf verrieten den Forschern die Montagelinie.

(Bild: Foto: Hermann Heibel, Fotomontage: Doc Baumann)

Interessant ist, dass sämtlichen Experten, einschließlich Doc Baumann selbst, die Unschärfe der linken Schulter von Frau Koch suspekt erschien, insbesondere da das Sakko ihres Gatten deutlich schärfer wirkt. Dass die Aufnahme echt ist, belegte der Fotograf mit der Originaldatei – anscheinend handelt es sich tatsächlich um einen ungewöhnlichen optischen Effekt des Teleobjektivs.

Und die Algorithmen? CFA- oder andere Digitalkameracharakteristiken haben wir nicht simuliert, aber die bestehenden Muster zumindest aus dem Bild getilgt. Obgleich das Koch-Konterfei auf Merkel-Maße gestutzt werden musste, fanden die Algorithmen keine Spuren der Skalierung. Kirchner und Gloe führten das auf den Einfluss der JPEG-Artefakte zurück, deren periodische Muster die CFAund Interpolationsmuster überlagern. Die Fotomontage wurde in Photoshop mit JPEG-Qualität 8 gespeichert, also bei weitem nicht in der miesen Qualität der klassischen Internet-Fakes. Für eine gänzlich unverdächtige Fälschung müsste man allerdings eine deutlich geringere Kompression anstreben. Ob der Pinocchio-Orden an Kochs Revers echt oder gefälscht ist, darf jeder für sich entscheiden.

Professionelle Bildbearbeiter sind professionelle Spurenverwischer: Wer einen kritischen Betrachter überzeugen kann, dem fallen genügend Tricks ein, um auch den Algorithmen eine heile Welt vorzugaukeln. Wenn ein Retuscheur den Kopier- und Reparaturpinsel virtuos schwingt, findet die Forensik-Maschine keine verdächtigen Duplikate. Kann er Störungs- und andere Filter fein dosieren, verschwinden Hinweise auf Interpolation oder Weichzeichnung.

Man darf aber nicht vergessen, dass die Bildforensik noch eine sehr junge Forschungsdisziplin ist, die Foto-Monteure haben Jahrzehnte Vorsprung. Dennoch liegt die Messlatte bereits hoch: Da die Forensiker sehr viele Merkmale untersuchen, muss der Fälscher einige Mühe in Bildauswahl, -komposition und Verschleierung investieren – und akribisch darauf achten, dass er kein Detail vergisst. Weshalb wir auch hier nicht alle Tricks verraten haben.

Lesen Sie hierzu auch: Wenn Pixel lügen: Bildoptimierung oder Fälschung?

Literatur

[1] Alin C. Popescu, Hany Farid, Exposing Digital Forgeries in Color Filter Array Interpolated Images

[2] J. Lukas, J. Fridrich and M. Goljan, Digital Camera Identification from Sensor Pattern Noise, IEEE Trans. Inf. Forensics and Security, vol. 1, no. 2, pp. 205-214 (2006)

[3] T. Gloe, M. Kirchner, A. Winkler, R. Böhme, Can we trust digital image forensics?

[4] M. K. Johnson, H. Farid, Detecting Photographic Composites of People (tho)