Diese Review ist für eine Auflösung von 1280x1024 pixel und größer gut geeignet, bei kleineren Bildschirmen kann eine Sequenzierung der gezeigten Aufnahmen eintreten!
Ein Rawfile - verschiedene Rawkonverter
Welchen Einfluß hat ein Rawkonverter?
Vorbemerkung: Die Screenshots dieser Webseite sind groß - man kann nur so die feinen Unterschiede zwischen den einzelnen Ergebnissen gut erkennen - daher ist es dringend angeraten, diese Seite bei mindestens 1280 Pixel Breite anzusehen!
Eine der Eigenschaften von digitalen Kameras - vor allem der oberen Leistungsklasse - ist es, sgn. "Rawformate" als Speicherformat der digitalen Files auswählen zu können. Meistens sind dies Fileformate systemspezifische Datei Formate mit eigenen Endungen wie etwa CR2, NEF oder andere - zur Zeit gibt es sicher mehr als zwei Dutzend solcher unterschiedlichen Rawfileformate.
Jedes Unternehmen hat sein eigenes Rawformat entwickelt, oft noch im Laufe der Jahre verändert und gibt diesem eine eigene Endung - obwohl es seit vielen Jahren den Versuch gibt, ein universell einsetzbares Fileformat für Rawfiles zu verwenden, das DNG Format. Nur wenige Kamerahersteller, wie etwa Leica, machen davon Gebrauch - es "kocht" eben jeder seine eigene Suppe, um es umgangssprachlich auszudrücken.
Wenn man aber so ein Rawfile verwendet, muss man dieses aber zuerst ein eines der gängigen Fileformate umwandeln, um dann zB ein Bild auszudrucken oder auf einer Webseite zu publizieren oder irgendwie anders gut verwenden zu können - man muß so ein File "entwickeln". Eigentlich ist das keine Entwicklung im klassischen Sinn, sondern eine Konvertierung und Implementierung von zusätzlichen Informationen. Man darf nicht vergessen, dass ein Rawfile, egal woher es kommt, kein Farbbild ist, sondern ein Helligkeitsbild mit zusätzlichen Informationen. Diese Informationen beinhalten nicht nur die Koordinaten jedes Pixels und damit auch die Information, welches Farbfilter sich vor diesem Pixel befunden hat, sie beinhalten auch in einem Zusatz meistens die Daten der verwendeten Optik sowie weitere Informationen über Zeit, Kamera, Firmware, Hersteller, Eigentümer etc.
Diejenigen Datenanteile, die sich auf die verwendete Optik beziehen, werden oft dann berücksichtigt, wenn das File - auch wenn es ein Rawfile bleibt - ausgegeben werden. Damit wird sichergestellt, dass ein entsprechender Rawkonverter bei der Umwandlung des Files in ein gängiges Format bereits einige Vorkorrektionen machen kann bzw. es werden diese Vorkorrektionen bereits in der Kameraelektronik vor der Ausgabe des Rawfiles gemacht und damit ein vorverarbeitetes Rawfile ausgegeben.
Das Rawfile enthält, wenn es vom Sensor kommt, die Helligkeitswerte der einzelnen Pixel und die dazugehörenden Ortskoordinaten. Wenn man nun eine Vorkorrektur machen will, so kann man zB diese Informationen so verändern, dass man mit einem dem verwendeten Objektiv ensrpechenden Algorithmus die Helligkeitswerte von Pixeln so verändert, dass man damit die Restfarbfehler der Optik korrigiert - durch Verschieben von Helligkeitswerten einzelner Pixel entsprechend einer pixelgenauen Vorgabe. Wenn man nämlich den Gang der chromatischen Queraberration eines Objektivs in Abhängigkeit vom Bildort kennt, weiss man, wie sich der blaue, der grüne und der rote Bildanteil über das Bildfeld hin verändert - denn dieser Farbquerfehler ist ja nichts anderes als ein unterschiedlich gross projeziertes Farbteilbild (meist noch ein einer etwas unterschiedlichen Entfernung vom paraxialen Fokus). Man verändert also die Bildgrössen der zwei Farbteilbilder blau und rot und normiert diese auf das mittlere, grüne Farbteilbild und schon hat man den Farbquerfehlerrest der Optik eliminiert. Diese veränderten Helligkeitswerte werden dann im auszugebenden File berücksichtigt - egal, welches Fileformat man ausgeben lässt. Das Demosaicing selbst, also die Rechenoperation um aus den drei Farbteilbildern plus dem gesamten Luminanzbild ein fertiges Farbbild zu erhalten, diese wird dann vom Rawkonverter gemacht. Hier gibt es auch wieder viele unterschiedliche Algorithmen, die man verwenden kann.
Wieso muss man die Farbbilder überhaupt errechnen - nun eine digitale Kamera beinhaltet fast immer einen Sensor, der so aufgebaut ist, dass die drei Grundfarben - Rot, Grün und Blau, in Form einer Filtermatrix auf dem Sensor liegen. Das bedeutet, dass entsprechend der technischen Ausführungsart der Farbmatrix (meist eine sgn Bayer-Matrix) je ein rotes, ein blaues und zwei grüne kleine Filter eine Matrix bilden, die sich über dem ganzen Sensor immer wieder wiederholt. Jedes Pixel wird also von entweder einem blauen, einem roten oder einem grünen Filter bedeckt, wobei die grünen Filter doppelt so oft vorhanden sind, wie die beiden anderen Farben.
Wenn man nun etwas aufnimmt, so erhält man ein unkomplettes Bild - pro "Matrixeinheit= 4 Pixel" gibt es ja nur 1 Pixel, das mit einem roten Filter bedeckt ist und nur 1 blaues und 2 grüne - mit anderen Worten, das Bild ist inkomplett.
Die obere Reihe zeigt links das aufgenommene Objekt, darunter das fertige Bild - rechts oben das gleiche aber als Pixelmatrix und darunter so wie es von der Kamera aufgenommen wurde - ohne Errechnung der fehlenden Bild/Farbanteile (http://www.digitalversus.com)
Um ein komplettes Bild zu erhalten, muss man durch den Vorgang des "demosaicing" die fehlenden Informationen errechnen. Meistens nimmt man hier ein logisches Mittelwertkonzept - man nimmt also die umgebenden Werte und rechnet aus diesen 4 umgebenden (Farb)Pixelwerten einen passenden Wert aus, den man für die fehlenden Pixel verwendet - das macht man identisch für alle drei Farben und endet dann mit einer Matrix aus drei Werten pro Pixel - je einen für grün, rot und blau. Aus diesen drei Werten kann man dann die darauf resultierende Summenfarbe erstellen und das Farbbild ist komplett.
Hier eine Darstellung des Vorgangs, entnommen aus http://www.digitalversus.com:
Links die Darstellung der Errechnung der fehlenden Farbwerte, Rechts die drei Farbwerte pro Pixel
Es erscheint logisch, dass dieser recht komplexe Prozess der Berechnung von Farbwerten aus benachbarten Pixeln je nach angewendeten Algorithmen zu leicht unterschiedlichen Ergebnisse führen kann - daher war es für mich sehr interessant, zu sehen, ob ein Bild, das sowohl feinste Details als auch recht große Helligkeitsunterschiede aufweist, wenn man es in verschiedenen Rawkonvertern entwickelt, zu sichtbar unterschiedlichen Ergebnissen führt.
Ich habe also eine Aufnahme, die ich mit einer Nikon D800e gemacht hatte, in verschiedenen Konvertern in 16bit TIF umgewandelt und dann einen sehr kleinen Ausschnitt verglichen und jeweils als Screenshot abgespeichert.
Hier zur Orientierung die gesamte Aufnahme, die ich dann bearbeitet habe:
Nikon D800e, Nikon AFS 14-24mm/1:8
In der Mitte, wo sich eine Lichtung zwischen den Blättern und dem Himmel befindet - dort habe ich die folgenden Details entnommen
Zuerst der Adobe Raw Konverter aus dem Photoshop CS6
Die Qualität ist sehr gut, es gibt keine erkennbaren Pixelstrukturen, die unangenehm auffallen
Sauber entwickelt, keine Rasterung, keine falschen Pixelfarben, keine schwarzen Füllpixel
Hier das Ergebnis aus dem Programm "PhotoNinja"
Man kann eine Verfärbung feinster Strukturen erkennen und bei einer weiteren Nachvergrösserung auch einzelne "falsch" gefärbte Pixel - das Ergebnis ist gut, aber nicht für sehr starke Nachvergrösserungen geeignet
Detail des Zentrums der vorigen Aufnahme - PhotoNinja
Hier ist das Ergebnis aus dem Programm "Iridient Developer"
Das Ergebnis ist nur bei geringer Nachvergrößerung zu verwenden - es gibt viele und meist schwarze Pixel, die sehr unangenehm auffallen - ein stärker Detailausschnitt hier unten
Detailausschnitt aus obiger Aufnahmen - Iridient Developer
Hier das DXO Optics Pro 9 Rawfile Ergebnis
DXO zeigt ein ziemlich farbneutrales und recht akzeptables Ergebnis, nur fällt hier bereits eine Rasterung auf - das Bild wird in kleinere Quadrate zerlegt
Ausschnitt aus der DXO Entwicklung- man kann bereits im unteren Bereich die Rasterung in Quadrate erkennen
Hier jetzt das Ergebnis aus dem "RawPhotoProcessor" RPP 64bit Version
RPP ergibt ein gutes Resultat - der Konverter ist etwas umständlich zu bedienen, erfordet gewisses Fachwissen, arbeitet aber sehr schnell und gut
Besonders gefällt mir, dass man keinerlei Rasterung erkennen kann - ein ziemlich sauberes Bild
Hier der Rawfileentwickler aus dem Programm "PhotoStudioPro"
Dieser Konverter arbeitet nicht schlecht, das Ergebnis ist gut und durchaus verwendbar, was ich bemängle ist, dass dunkle Strukturen leicht in schwarz übergehen
Detail aus der Entwicklung mit PhotoStudioPro
Und hier das Ergebnis mit dem Programm ViewNX2 von Nikon - das sollte eigentlich die besten Resultate ergeben...
ViewNX2 von Nikon - das Ergebnis ist sauber, die Details sind aber nicht so klar wie bei Adobe (meine ich)
ViewNX2 - das Ergebnis ist für mich etwas grob und verwaschen, aber durchaus verwendbar, da keine falschen Pixelfarben
Die Clusterung in relativ große Pixelbereiche, die ich bei DXO gesehen habe, hat mich veranlasst, eine etwas homogenere Struktur in diesem Bild bei höhere Nachvergrößerung anzusehen und die einzelnen Rawkonverter zu vergleichen - das Ergebnis war durchaus interessant. Hier also eine Reihe von Bildausschnitten (400%) aus einem Bereich, wo man eher glatte Baumrinden sehen kann
Adobe RawKonverter ACD PS6
eine leichte Rasterung in Cluster ist doch noch erkennbar
DXO OpticsPro9
gut erkennbare Rasterung in größere Cluster!
Iridient Developer
sehr starke Clusterung, überall sichtbar
PhotoNinja
auch hier gut erkennbare Clusterbildung
PhotoStudioPro
eine interessante Variante - kein Cluster aber eine geometrische Struktur, die offenbar die Clusterung verdeckt - stört aber weniger als sichtbare Cluster
NIkon ViewNX2
Ähnlich verdeckte Struktur wie PhotoStudioPro, etwas weniger sichtbar und weniger deutlich
RawPhotoProcessor 64bit
Ähnlich wie die beiden vorigen Konverter, wenig sichtbar und wenig markant
Natürlich sind diese Nachvergrößerungen in der Praxis von überschaubarer Bedeutung, aber wenn ich aus der Aufnahme mit einer 36MPx Kamera ein Bild von etwa 1mx1,5m drucken soll, so hat diese Clusterung doch ein Gewicht - man kann ja kaum verhindern, so ein Bild aus einer geringen Entfernung genau zu betrachten. Enttäuscht war ich von der Gesamtleistung von ViewNX2, ich dachte mir schon, dass die "originale" Software möglicherweise die besten Ergebnisse liefern sollte - aber es ist eben nicht so. Adobe ist mit dem ARC sehr gut, der RPP ist aber auch beeindruckend gut (wenn man ihn gelernt hat, richtig einzustellen, was nicht so schnell geht).
Es zahlt sich daher sicher aus, kritische Aufnahmen einmal vergleichsweise in unterschiedlichen Rawkonvertern zu entwickeln und dann die Ergebnisse zu vergleichen. Ich plane, solche Vergleiche weiter zu machen - wenn möglich mit Canon und anderen Marken...
Update: 9.Juni2014
Es gibt ein Update zum Iridient Developer - ich hatte mit diesem Softwarehersteller eine Email Korrespondenz geführt und ihn auf die Probleme beim Demosaicing hingewiesen und das betroffene File gesandt - das Update bietet eine geringfügige Verbesserung des Ergebnisses und ein paar Erkenntnisse dazu - es ist problematisch, ein Bilddetail, das sowohl aus feinsten Strukturen als auch aus hohem Kontrast besteht so zu entwickeln, dass beide Umstände gleich gut berücksichtigt werden - das Nachschärfen, auch wenn mit grosser Vorsicht, stärkt die Artefakte und erzeugt im Helligkeitsgrenzbereich dunkle Artefakte
Hier die vergleichbare Übersicht des gleichen/selben Details im Zentrum des Files mit dem neuesten Iridient Developers
Und hier die vergleichbare 300% Nachvergrösserung der Mitte
Iridient Developer (Stand 10.Juni 2014)