HOME » Blog » Tipps & Tricks » Astrofotografie mit GIMP: Meilenstein zur Rauschreduzierung des Vordergrunds mit Stacking

Astrofotografie mit GIMP: Meilenstein zur Rauschreduzierung des Vordergrunds mit Stacking

Zuletzt aktualisiert am 29.12.2022 von Hendrik


In diesem Beitrag geht es um nicht weniger als um einen Meilenstein in der Entwicklung meiner Astroaufnahmen. Durch eine neue Methode des Stackings habe ich es geschafft, das Bildrauschen im Vordergrund erheblich zu reduzieren und meine Fotos aufzuwerten.


In den vergangenen Monaten konnte ich die Bildqualität meiner Astrofotos dank meiner Sony Alpha 6400 (die ein deutlicher Fortschritt zur Sony RX100IV ist) und immer besserer Entwicklungs-Workflows stetig verbessern.

Dabei stellte ich zuletzt bei der Entwicklung der Aufnahmen für die Juni-Milchstraße fest, dass die Bildqualität des Vordergrunds der des Hintergrunds hinterherhinkt:

Aufnahme der Juni-Milchstraße: Der Hintergrund ist detailreich, der Vordergrund zu dunkel
Aufnahme der Juni-Milchstraße: Der Hintergrund ist detailreich, der Vordergrund zu dunkel

Wie auf dem obigen Bild zu erkennen ist, sind zwar im Himmel sämtliche Details klar zu erkennen, jedoch ist der Vordergrund zu dunkel und zu verpixelt. – Es mangelt schlichtweg an Details.

Warum das so ist und welche Methode hier Abhilfe schafft, beschreibe ich im nachfolgenden Beitrag.

Bisheriger Workflow

Mein bisheriger Workflow sah wie folgt aus:

Vorder- und Hintergrund entwickelte ich bisher immer auf Basis der im zweiten Schritt beim Stacking entstandenen TIFF-Datei.

Letzte Aktualisierung: 20.04.2024 | * Affiliate-LinkWas ist das? | Bilder von der Amazon Product Advertising API

Sprich: Aus ein und derselben, bereits vorverarbeiteten Bilddatei belichtete ich sowohl den Vorder- als auch den Hintergrund.

Das Problem: Während nach dem Stacking mit Sequator der Sternenhimmel eine hervorragende Qualität aufwies, waren im Vordergrund nur wenige Details erkennbar. Je weniger Umgebungslicht, desto ausgeprägter war dieser Effekt.

Tatsächlich fiel mir das auch erst in den letzten Monaten richtig negativ auf, als ich mich häufiger beim Fotografieren in einer absolut dunklen Umgebung mit wenig Restlicht befand.

Das nachfolgende Bild veranschaulicht die Problematik ganz gut:

Gestacktes Bild der Milchstraße: Der Vordergrund ist absolut dunkel
Gestacktes Bild der Milchstraße: Der Vordergrund ist absolut dunkel

Es liegt auf der Hand: Um auf dem obigen Bild Details im Vordergrund sichtbar zu machen, muss die Belichtung KRÄFTIG angehoben werden.

Allerdings sind hier enge Grenzen gesetzt: Mit steigender Helligkeit steigt auch das sichtbare Bildrauschen stark an und Details gehen verloren.

So gute Dienste Sequator bei der EntwicklungBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] des Sternenhimmels leistet, so bescheiden sind die Ergebnisse im Vordergrund. – Zugegebenermaßen wurde das Tool auch nicht für die Entwicklung des Vordergrunds entwickelt. 😉


Sony 150-600mm f/5.6-6.3G

Sony 150-600mm f/5.6-6.3G*

1.599,00 €Prime
Bei Amazon kaufen

Kein Angebot mehr verpassen: PreismonitorPREISMONITOR nutzen!
Letzte Aktualisierung: 20.04.2024 | * Affiliate-LinkWas ist das? | Bilder von der Amazon Product Advertising API

Warum mir das bisher nicht so sehr aufgefallen ist, weiß ich nicht. Möglicherweise waren meine eigenen Ansprüche an die Bildqualität meiner Astrofotos zusammen mit meinem Knowhow zur Entwicklung gewachsen.

Wie auch immer: Es musste also eine neue Lösung her. – Am besten auf Basis des bereits sowieso schon vorlegenden Bildmaterials. Das hätte gleichzeitig den Vorteil, dass sämtliche meiner bisherigen Fotos von dem neuen Prozess profitieren könnten.

Vordergrund-Stacking mit GIMP als Lösung

Irgendwann kam mir der Gedanke, den Vordergrund versuchsweise mit GIMPBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] anstatt mit Sequator zu stacken – irgendwie sollte das doch möglich sein.

Genau dieser Gedanke hat letztendlich auch zum Erfolg geführt!

Recap: Wie Stacking funktioniert

Um das weitere Vorgehen bzw. die Gedanken dahinter besser verstehen zu können, versuche ich nochmal in aller Kürze zu erklären, wie Stacking funktioniert:

Prinzipiell versucht man mit Stacking, d.h. mit dem Stapeln mehrerer identischer Aufnahmen, das Bildrauschen zu reduzieren.

Bildrauschen ist der Feind jedes Astrofotografen. Wegen der dunklen Lichtverhältnisse, der hohen ISO-Werte und Belichtungszeiten kämpft man im Rahmen der Fotografie und Entwicklung quasi ständig damit.

Das Rauschen ist ein Zufallsprozess bei der Signalverstärkung des Bildsensors der KameraBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link].

Das Gute dabei: Auf mehreren Aufnahmen tritt es mit ziemlich hoher Wahrscheinlichkeit niemals an den selben Stellen (Pixeln) auf.

Das nachfolgende, animierte GIF-File demonstriert diese Tatsache anhand eines Ausschnitts vier identischer Aufnahmen:

blank
Bildrauschen als Zufallsprozess

Gestackt sehen diese 4 Aufnahmen dann folgendermaßen aus:

blank
4 gestackte Aufnahmen: Rauschen reduziert

Das Rauschen ist schon deutlich geringer ausgeprägt, als bei den Einzelframes oben.

Ich persönlich mache meistens zwischen 15 und 30 Fotos je Motiv mit meiner Sony Alpha 6400Bei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] und ihrem APS-C-Sensor und erziele damit passable Ergebnisse. Die jeweilige Anzahl hängt dabei wiederum stark von Kamera und Sensortyp ab.


Sony 35mm f/1.8

Sony 35mm f/1.8*

370,55 €Prime
Bei Amazon kaufen

Kein Angebot mehr verpassen: PreismonitorPREISMONITOR nutzen!
Letzte Aktualisierung: 20.04.2024 | * Affiliate-LinkWas ist das? | Bilder von der Amazon Product Advertising API

Beim Stacking macht man sich das zufällige Bildrauschen zunutze: Durch Ermittlung des durchschnittlichen Helligkeits- und Farbwerts jedes einzelnen Pixels eines Bilds auf Basis mehrerer identischer Aufnahmen kann das Bildrauschen annähernd auf null reduziert werden. Je mehr Fotos als Grundlage dienen, desto besser wird der Effekt sein.

Genau so funktioniert prinzipiell auch Sequator.

Großer Vorteil von Sequator: Das Tool berechnet beim Stackingprozess die Sternenbewegungen mit ein und führt diese nach. Anderenfalls würden natürlich Sternenspuren entstehen.

Da ich den Vordergrund verbessern wollte und es dort logischerweise keine Sternenbewegungen gibt, musste auch nichts nachgeführt und Sequator nicht zwingend dazu verwendet werden.

So kam mir der Gedanke, ob ein ähnlicher Effekt nicht auch mit GIMPBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] und der Überlagerung mehrerer Ebenen erzielbar wäre.

Und tatsächlich: Nach einiger Recherche wurde ich fündig (das liegt auf der Hand, sonst gäbe es wohl diesen Beitrag nicht 😉 ).

Vordergrund-Stacking mit G’MIC-Qt

Die Lösung des Problems liegt im Plugin G’MIC-Qt begraben.

Bei G’MIC-Qt handelt es sich um eine kostenlose Sammlung an Plugins / Filtern für GIMPBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link], die die ohnehin schon zahlreichen Bordmittel nochmals erweitern. Auf der verlinkten Seite können diese heruntergeladen werden. Ebenso findet sich dort eine Installationsanleitung.

Zur Funktionsweise: Der Filter Blend [Median] ermittelt den Median (anstatt des Durchschnittswerts, s.o.) jedes Pixels auf Basis der in GIMP als Ebenen geöffneten Aufnahmen:

GIMP-Plugin G'MIC-Qt mit dem Blend [Median] Filter
GIMP-Plugin G’MIC-Qt mit dem Blend [Median] Filter

So wird am Ende eine einzelne Ebene erzeugt, auf der – bei hinreichend hoher Anzahl verfügbarer Aufnahmen – das Bildrauschen sehr effizient vermindert wurde.

Soviel zur Theorie. Kommen wir jetzt zum Vorgehen, denn die Verwendung des Plugins ist nur der halbe Trick!


Sony FE 24-105mm f/4 G OSS

Sony FE 24-105mm f/4 G OSS *

949,00 €Prime
Bei Amazon kaufen

Kein Angebot mehr verpassen: PreismonitorPREISMONITOR nutzen!
Letzte Aktualisierung: 20.04.2024 | * Affiliate-LinkWas ist das? | Bilder von der Amazon Product Advertising API

Workflow

Um den Vordergrund zu stacken, beginnen wir ganz vorne im Workflow: Mit den unbearbeiteten Rohdatendateien in darktable.

darktable

In darktableBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] werden für jedes Bild chromatische Aberrationen und tote Pixel entfernt und bei Bedarf auch noch die Objektivverzerrungen korrigiert. Die Schritte sind identisch zum Tutorial Schritt 1: Vorbereitung von Astrofotos der Milchstraße mit darktable

Und jetzt kommt der Knackpunkt: Ich habe neben den vorgenannten Anpassungen zusätzlich für jede Einzelaufnahme die Belichtung um satte drei Blendenstufen nach oben korrigiert.

Dabei spielt es keine Rolle, ob der Himmel ausbrennt – schließlich soll der Vordergrund optimiert werden und nur den will ich weiternutzen.

Das Ergebnis sind helle, aber sehr verpixelte Bilder:

Aufnahme mit In darktable um drei Blendenstufen erhöhter Belichtung
Aufnahme mit in darktable um drei Blendenstufen erhöhter Belichtung

Das macht aber nichts, denn genau das wollte ich mit diesem Schritt erreichen. Dank des Stacking-Prozesses kann dieses Bildrauschen im Nachgang sehr gut korrigiert werden.

Nochmal zur Klarstellung: Diese Anpassungen werden auf alle identischen RAW-Dateien in darktableBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] angewandt!

Letzte Aktualisierung: 20.04.2024 | * Affiliate-LinkWas ist das? | Bilder von der Amazon Product Advertising API

GIMP

Die angepassten Dateien werden nun aus darktable wie üblich als TIFF-Dateien ex- und nach GIMP als Ebenen importiert (Menü Datei => Als Ebenen öffnen).

Wenn alles funktioniert hat, sieht das in GIMP in etwa so aus:

Eingefügte Ebenen in GIMP
Eingefügte Ebenen in GIMP

Fast geschafft!

Jetzt muss nur noch der vorgenannte Filter Blend [Median] des Plugins G’MIC-Qt angewendet werden.

Hierzu öffnet man in GIMPBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] über das Menü Filter => Q’MIC-QT die Plugin-Sammlung und wählt den Filter Blend [Median] aus:

GIMP-Plugin G'MIC-Qt mit dem Blend [Median] Filter
GIMP-Plugin G’MIC-Qt mit dem Blend [Median] Filter

Danach folgt noch ein Klick auf OK und die Berechnung startet. In Abhängigkeit von der Performance des jeweiligen PCs und der Anzahl der zugrundeliegenden Aufnahmen dauert dieser Prozess möglicherweise mehrere Minuten.

Fertig! Als Ergebnis sollte nun ein rauschfreies Bild vorliegen.

Der Unterschied war bei mir wirklich gewaltig. Hier der Vergleich einer Einzel- und einer mit diesem Filter korrigierten Aufnahme:

Links: Unkorrigierte Einzelaufnahme / Rechts: Mit G'MIC-Qt gestackte Aufnahme
Links: Unkorrigierte Einzelaufnahme / Rechts: Mit G’MIC-Qt gestackte Aufnahme

Als Basis verwendete ich in diesem Beispiel 15 Aufnahmen mit ISO 3200.

Sobald diese Schritte abgeschlossen sind, kann man wieder dem Standardprozess zur EntwicklungBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] von Astrofotos folgen und den rauschbefreiten Vordergrund mit dem zuvor in Sequator gestackten und in darktable entwickelten Hintergrund zusammenführen.

Im Endergebnis sieht daraufhin das Astrofoto, das eingangs im Beitrag gezeigt wurde, folgendermaßen aus:

Milchstraße mit neu entwickeltem Vordergrund
Milchstraße mit neu entwickeltem Vordergrund

Der Vordergrund ist voller Details, Bildrauschen ist nur noch schwer zu erkennen (auch bei höherer Auflösung) und die Farben wirken deutlich natürlicher.

Noch klarer wird der Unterschied zwischen altem und neuem Workflow im direkten Vergleich:

Fazit

Ich bin wirklich begeistert von der neuen Methode.

Im Zuge der EntwicklungBei Amazon shoppen? Hier entlang...[Was ist das?Affiliate-Link] meiner Astrofotos ist das ein weiterer Meilenstein, der die Qualität insgesamt erheblich verbessert hat und den ich somit in sämtliche meiner künftigen Astrofotos integrieren werde.

Letzte Aktualisierung: 20.04.2024 | * Affiliate-LinkWas ist das? | Bilder von der Amazon Product Advertising API

Mein Blog ist kostenlos und macht jede Menge Spaß - aber auch viel Arbeit. Wenn es Dir hier gefällt, kannst Du mich ganz einfach und unkompliziert unterstützen: Klickst Du z.B. auf einen meiner gekennzeichneten [Was ist das?Affiliate-Links] und kaufst dann ein Produkt, erhalte ich eine kleine Provision. Du kannst mir aber natürlich auch gerne direkt eine kleine Spende via Paypal zukommen lassen.

Vielen Dank für Deine Unterstützung!


Mehr Beiträge zu folgenden Themen:
Weiterführende Themen:

4 Kommentare zu „Astrofotografie mit GIMP: Meilenstein zur Rauschreduzierung des Vordergrunds mit Stacking“

  1. Hm… , es ist ein schönes Ergebnis, aber hat das noch was mit Fotografie zu tun? Oder ist das nicht eher gestaltende Kunst?
    Persönlich bin ich klar für Realismus in der Fotografie. Eine gute Kamera ist für mich eine Kamera, die Bilder realistisch aufnimmt. Nachbearbeitung mag für viele normal sein, für mich jedoch ein Ausschlusskriterium.
    Ich weiß, „echte Fotografen“ sehen das ganz anders. Aber wie gesagt, Nachbearbeitung ist eine eigene Kunst, die ich nicht zur Fotografie gehörend sehe. Kann man ja mal drüber nachdenken…

    1. Hi Carl,

      danke für Dein Feedback!

      Ich kann Deinen Einwand durchaus nachvollziehen. Tatsächlich bearbeite ich ebenfalls den Großteil meiner Fotos nicht nach, jedoch die hier auf meinem Blog veröffentlichten schon.

      Gerade an der Astrofotografie reizen mich die technischen Möglichkeiten der Nachbearbeitung. Ohne Stacking und die softwarebasierte Entwicklung der Aufnahmen wären solche Fotos gar nicht möglich bzw. ziemlich dunkel und unspektakulär.

      Wie immer liegt das natürlich im Auge des Betrachters bzw. ist das Geschmackssache. 😉

      Es sei jedoch erwähnt, dass ich bei der Nachbearbeitung lediglich mit den in den Rohdaten vorhandenen Bildinformationen arbeite und diese letztendlich so interpretiere, dass ein – für mich – schönes Ergebnis dabei entsteht. Wenn ich bei der Gelegenheit noch den ein oder anderen nützlichen Tipp in Form von Tutorials für andere geben kann, dann freut mich das umso mehr.

      Viele Grüße

      Hendrik

    2. @Carl, man könnte dann vermutlich 95-98 % der gesamten Astrofotografie als „gestaltende Kunst“ bezeichnen, denn ohne intensive Nachbearbeitung kommt in diesem Bereich praktisch kaum eine Aufnahme aus (kann ich als Hobbyastronom aus eigener Erfahrung so sagen). Bei Aufnahmen mit speziellen Kameras und Filtern kommt u. U. sogar noch hinzu, dass hier Wellenlängen aufgenommen werden, die das Auge selbst gar nicht mehr wahrnehmen kann. Eine „künstlerische“ Nachbearbeitung und Verschiebung dieser Daten in den Bereich des sichtbaren Lichts in Form einer Falschfarbenaufnahme sind hier also sogar zwingend erforderlich, um überhaupt etwas sehen zu können.

      Astrofotografie ist also zum überwiegenden Teil tatsächlich eher eine künstlerische Arbeit und gar nicht mehr wirklich mit „normaler“ Fotografie zu vergleichen, was man im Übrigen auch schon an den meist verwendeten Belichtungszeiten sieht: Welcher normale Fotograf öffnet schon seine Blende für Minuten oder gar Stunden für ein einzelnes Motiv? Aber ist Astrofotografie deswegen keine Fotografie mehr, nur weil andere Techniken zum Einsatz kommen? Ist IR-Fotografie auch keine Fotografie mehr, weil es speziell modifizierte Kameras benötigt und die resultierenden Bilder nicht mal mehr ansatzweise aussehen wie das, was wir mit den Augen wahrnehmen? Schon Aufnahmen von Polarlichtern wären nach diesem doch recht eng gesteckten Maßstab keine Fotos mehr, denn „realistisch“ sind auch diese keinesfalls – real sind die Leuchterscheinungen meist recht dunkel, wirklich spektakulär werden sie erst durch Belichtungszeiten im Sekundenbereich – unmöglich für das unbewaffnete Auge.

    3. Besserwisserisch

      Wie alt bist Du?

      Vermutlich ziemlich jung, selbstverständlich hat das noch was mit Fotografie zu tun und wer glaubst Du, hat in früheren Zeiten die Ausarbeitung erledigt. Dass das heute manchmal, nicht immer, ein Spezialist erledigt, steht auf einem anderen Blatt.

      Vielleicht hat so mancher Auftraggeber auch einfach nur Angst, dass der Fotograf vom Modell so genervt wurde, dass er beim Verflüssigen „versehentlich“ in die falsche Richtung zieht, der Filter funktioniert nämlich in alle Richtungen. 😉

      Von Anbeginn der Fotografie sind ALLE Negativ-Bilder bearbeitet worden! – Das, mit es muss so sein wie es aus der Kamera kommt, ist eher so ein Ding, das mit den Digitalkameras Einzug gehalten hat und stimmt sowieso nicht mehr. Wenn jemand keine RAW Bilder macht, sind mittlerweile ALLE Bilder schon aus der Kamera nachbearbeitet. Ob das der Fotograf oder schon die Kamera macht, bleibt sich gleich. Der einzige Unterschied, der Fotograf weiß was für einen Effekt er erzeugen möchte, die Kamera weiß es nicht und rechnet mit Durchschnittsalgorithmen ⇒ schaltet man aus.

      Angefangen von der Wahl des Entwicklers, mit dem möglichst feines oder grobes Korn erzeugt oder die Empfindlichkeit gepusht wurde, bis zum Nachbelichten und Abwedeln beim Ausbelichten gehört das immer schon zur Fotografie, selbst Retuschen gibt es seit Anbeginn.

      Das einzige das sich geändert hat, dass die Pantscherei mit Entwickler, sonstiger Chemie, viel Wasser, etc. weggefallen ist und man bekommt keinen Krampf mehr, weil man ein Stück ausgeschnittene Pappe in der richtigen Höhe ständig hin- und herbewegen muss, damit es keine scharfen Kanten gibt.

      RAW-Konverter/Bildbearbeitung sind nichts anderes als das gute alte Labor. Der Vorteil, es kann nicht passieren, dass irgendein Vollidiot die Arbeit von Stunden oder gar alle Bilder vernichtet, weil jemand meint, unbedingt in die heimische Dunkelkammer rennen zu müssen, obwohl da ein dickes, fettes Schild was anderes sagt.

      Ob Du die Farbfilter am Durst Laborator oder im RAW-Konverter/Bildbearbeitung reindrehst, bleibt sich gleich. Letzteres ist nur im Längen kostengünstiger und umweltfreundlicher. Allein schon, wenn ich an die Pappe denke, die man nur für ein Bild gebrauchen konnte und oft mehr als eine dafür angefertigt hat, weil man sich verschnitten hatte, von den Abzügen die in der Tonne landeten weil sie nicht wie gewünscht ausfielen gar nicht zu reden.

      Egal wie, das Bild macht der Fotograf, ob analog oder digital bleibt sich gleich, alles vor dem Endprodukt ist nur Werkzeug, das man beherrschen muss. Dass man heute ein Bild verschieden „entwickeln“ kann, aus zwei/mehreren unterschiedlich belichteten Bildern vom Stativ zusammensetzen oder mittels Masken und Einstellebenen bestimmte Bereich unterschiedlich „belichten“ kann ist doch nichts anderes als das, was man früher mit der Pappe im Lichtstrom gemacht hat, man kann es nur besser steuern.

      Wobei man abseits der Astrofotografie schon mal eine Menge im Vorfeld tun kann, um sich die Arbeit hinterher zu erleichtern und näher an Dein Ideal heranzurücken.

      Darüber, dass es IMMER RAW-Bilder sind, braucht man eh nicht zu reden.

      Der Rest fängt mit so einfachen Dingen an, wie ich stelle mein Histogramm auf Farbe, nicht Luminanz, ein UND schaue es mir an! Jedesmal, an jedem Ort und immer wenn sich die Lichtverhältnisse ändern. Dann stellt man nämlich fest, dass in der Regel jede Farbe ihre Spitze an einer anderen Stelle hat, nach einem manuellen Farbabgleich sind sie alle fein säuberlich untereinander. – Nur so für den Fall, dass sich mal jemand gewundert hat, dass die roten Rosen im Vordergrund in seinem schönen und sonst richtig belichteten Landschaftsbild ausgefressen sind – das kommt von AWB wird es schon richten. Auch wenn das Durchschnittsgrau der Belichtungsmessung stimmt, kann Rot schon lange durch die Decke gegangen sein.

      Quizfrage: Warum hat der Fotograf eine laufende Nase, obwohl er zwei Pakete Papiertaschentücher in der Tasche hat?

      Antwort: Weil er die nicht verschwenden will, die braucht er nämlich, um sie vor dem Objektiv zu befestigen und dann in Richtung der Lichtquelle zu fotografieren – ohne die Lichtquelle darin abzubilden.

      Im Gegensatz zu dem von Narren gerne genommenen Blatt Kopierpapier ist da nämlich kein Aufheller drin, der einen Farbstich verursacht. Wenn man es richtig gemacht hat, dann hat man ein Bild mit einer homogenen Fläche, mit dem man den Weißabgleich durchführen kann. – Autofokus abschalten ist dabei unschädlich, sollte man nur hinterher wieder einschalten. Menschen mit normaler Kameraeinstellung können sich das sparen, bei denen ist Auslösen und Belichtungsmessung sowieso vom Fokussieren getrennt. Erledigt dann der Daumen auf der Kamerarückseite oder es wird eine Taste an der langen Brennweite gedrückt. Das Trennen bringt, wenn man es gewohnt ist, Vorteile. Beispielsweise kann man erst in aller Ruhe fokussieren, dann den bildwichtigen Punkt per Spotmessung ausmessen und anschließend in aller Ruhe wieder den gewünschten Ausschnitt wählen oder man sitzt/steht in einer Versammlung, verändert die Entfernung nicht und braucht immer wieder ein paar Bilder vom Podium, da wird einmal vorfokussiert und dann nur noch der Auslöser betätigt, wenn die Kamera da jedes Mal fokussiert dauert das zu lange, da kann das „Bild“ schon wieder weg sein.

      Wenn das Motiv der Begierde etwas näher als der nächste Berggipfel ist, kann man noch ein Übriges tun und erst mal eine Aufnahme eines Color Checkers machen. Ich persönlich benutze dazu meist den SpyderCHEKR mit aufgeschraubtem SpyderCUBE und/oder x-rite ColorChecker Passport. Letzterer passt auch in die Jackentasche, kann deshalb immer dabei sein und hat die Nettigkeit, dass man das Bild später mit einem Mausklick „wärmer“ oder „kälter“ machen kann.

      Dazu ein brauchbarer Blitz (580er aufwärts, samt externer Stromversorgung, von wegen der Blitzfolge) oder ausreichen Personal mit Reflektoren zum Aufhellen von Gegenlichtaufnahmen *) und bei Personenaufnahmen jemand der Make-ups beherrscht als Hilfsmittel, Objekt vorher glätten spart die Nachbearbeitung vieler einzelner Bilder. Die beste Retusche ist die, die man nicht machen muss.

      Mit ein bisschen Vorarbeit braucht man tatsächlich hinterher fast nichts mehr zu machen, vom Zuweisen eines Profils mal abgesehen. Um den Ausgleich großer Unterschiede zwischen Vorder- und Hintergrund, hell und dunkel kommt man trotzdem nicht rum. Pappe und Schere sind halt in ein Programm gewandert, das war’s schon.

      Rauschen mit Stacking entfernen zählt IMHO sowieso nicht zur Bildbearbeitung, das ist eher Filmentwickeln, nicht Bild bearbeiten.

      Bleibt noch das gerne gehörte/gelesene „Der Bildausschnitt wird von einem anständigen Fotografen schon in der Kamera festgelegt“.

      Wenn man was anderes wie Bildchen mit Rand macht, ist das schlicht Bullshit.

      Um das eigentliche Motiv herum bleibt beim Fotografieren IMMER ein satter Rand! Warum? Weil man das Produktionstechnisch braucht!

      Randlose Bilder werden beim Belichten derart belichtet, dass das Bild zwei/drei Prozent über das Format hinaus reicht, da es sonst beim Beschneiden zu „Blitzern“ kommen kann. Das Gleiche gilt bei randabfallenden Bildern in Flyern, Foldern, Broschüren, Büchern, Fotobüchern, etc. da hätten die Druckereien immer gerne sowas Komisches, das sie Anschnitt oder Beschnittzugabe nennen. Wenn da eine Druckerei nur 1 mm haben möchte und Vorder- und Rückseite bedruckt werden sollen würde ich mir eine andere Druckerei suchen, das dient nämlich weniger der Qualität, als vielmehr der wirtschaftlichen Optimierung der Druckbögen. Leichter Versatz beim Drucken der Rückseite, leichter Versatz beim Schneiden, das kann gut gehen, muss es aber nicht. Die Maschine, die immer perfekt arbeitet, habe ich noch nicht gesehen und Toleranzen haben die blöde Eigenschaft, dass sie sich im Zweifel addieren. Murphy lässt grüßen.

      Normal bei Flyer und Foldern sind eher 2 bis 3 mm und bei Broschüren sind es ganz schnell mal 8 mm. Löst man dadurch, dass man sowas mit 10 mm anlegt, damit hat man noch etwas Luft und dann mit den Beschnittzugaben, die die jeweilige Druckerei für das Produkt haben möchte, in das PDF, das sie bekommt exportiert. – Weniger geht immer, mehr nie!

      *) Apropos „Gegenlicht“, warum gibt es nur Streulichtblenden (die jeder vernünftige Fotograf, draußen wie drinnen, IMMER drauf hat) und keine Gegenlichtblenden, wie sie von manchen Vollpfosten bezeichnet werden. Weil das Licht, das von der Seite/Oben/Unten einfällt, egal ob von natürlichen oder künstlichen Lichtquellen ein Streulicht ist. Gegenlicht ist das, was vom Motiv zur Kamera hin reflektiert oder einer Lichtquelle gegenüber der Kamera erzeugt wird und das Licht will ich garantiert nicht fernhalten, allenfalls mit einem ND-Filter reduzieren.

      UPS, jetzt hab ich tatsächlich Schmarrn verzapft, selbstverständlich gibt es eine Gegenlichtblende, die heißt nur nicht so – nennt sich Objektivdeckel. Bei Sucherkameras ergeben sich damit interessante Bilder 😉 Naja, nicht nur, wenn man das Teil, solange drauf lässt, wie die letzte Langzeitbelichtung gedauert hat und dabei noch ein Bild macht kann man es sogar für was gebrauchen.

      Psst, ich gestehe ich manipuliere Bilder tatsächlich auch und das bestimmt nicht aus künstlerischen Gründen, eher der Not gehorchend. Jede Gruppenaufnahme wird mit Highspeed aufgenommen, bei größeren Gruppen schlimmstenfalls noch mal als 4K Videos, aus denen ich mir die passenden Frames hole. Das wo keiner den Mund verzieht oder seine Glupschaugen zu hat, wird genommen. – Problem daran, bei einer größeren Gruppe trifft das eher selten auf alle gleichzeitig zu. Also wird entschieden, ist mir der Troll, der unschön aussieht, mal blöd gekommen oder hat gegen mich intrigiert, dann bleibt das Bild so, Arbeit gespart, war halt kein besseres für die Presse dabei. Ist es eine Nette wird halt gesucht und der Kopf getauscht (nach 0,3/0,4 s sind die Augen wieder auf), nach dem Runterrechnen für das Lokalblättchen sieht das eh keiner mehr. Die Lokalblättchen, für die man die Bildchen vom Vereinsvorstand braucht, arbeiten nämlich nicht mit 60 Linien/cm sondern 40 Linien/cm. Das ist in etwa Fax-Qualität – die Miese. Nachdem da für so einen Artikel selten mehr als 2/3-spaltig rausspringt sind das 91,5/138 mm in der Breite für das Bild. Rechnet sich dann 4 * 138 * 2 = 1104, wenn wir nett sind bekommt der Zeitungsfuzzi 1200 Pixel in der Breite, wenn nicht sind es 1100, die 2 sind ja eh schon Qualitätsfaktor, 1800 Pixel langen für eine ganze Seite. Hängt natürlich immer vom Format ab. Und warum bekommt er nur so wenig Pixel, weil wir einen Teufel tun werden ihm soviel Pixel zu liefern, dass er ohne Qualitätsverlust im Druck den von uns vorgegebenen Beschnitt ändern kann, den Ausschnitt legt der Fotograf fest, sonst niemand. Kommt man da von einer 20/30/50 MP Kamera kann da eine Menge an Ungereimtheite einfach weggerechnet werden, wenn da beim Kopftauschen ein bisschen „Bewegung“ drin war ist die hinterher weg.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Startseite
Blog durchsuchen
Beitrag teilen
Nach oben springen