Technik

Aufnahme und Postprocessing von Kugelpanoramen

Für die Erstellung sphärischer Panoramen (360°x180°) fotografiere ich die Szene mit einer professionellen digitalen Spiegelreflexkamera und einem Vollformat-Fisheye-Objektiv segmentell – also aus vielen, sich überlappenden Einzelbildern bestehend. Die Kamera wird von einem sog. „No-Parallax-Point-Adapter“ (auch: „VR-Panoramakopf“) hochkant stabil gehalten. Dieser spezielle Stativkopf mit einer rastbaren Dreheinheit steht auf einem Stativ, ggf. mit Nivelliereinheit. Der für das spezielle Kamerasystem feinjustierte VR-Kopf ermöglicht das Drehen der Kamera im No-Parallax-Point (NPP), so dass sich Vorder- und Hintergrund bei benachbarten Bildern nicht gegeneinander verschieben. Erst so kann dann später ein fehlerfreies Zusammenfügen (Stitchen) der Einzelbilder erfolgen. 

Je nach vorherrschender Beleuchtung (available light), kann pro Aufnahmewinkel eine Zeitenreihe aus z.B. 5 verschiedenen Belichtungszeiten mit zwei Belichtungswerten Abstand erstellt werden, um später in der 360°-Ansicht starke Kontraste auszugleichen. Die Farbtiefe bei der Aufnahme ist mit 14 bit maximal eingestellt und das unkomprimierte Dateiformat RAW. Somit erziele ich die bestmögliche Qualität und erhalte dann höchste Flexibilität in der Nachbearbeitung. Ausgelöst wird mit einem Funk-Fernauslöser, um Verwacklungen zu vermeiden und um nicht selbst im Bild zu sein (Schatten, Reflexionen etc.).

Nachdem in der horizontalen 0°-Achse z.B. 8 Aufnahmen (ggf. bei HDR/LDR jeweils * x Belichtungen) erstellt wurden, muss noch die Decke, der Himmel, oder wie man im Fachjargon allgemein sagt: der Zenit, fotografiert werden. Dafür schwenkt man den VR-Kopf in die +90°-Position und fotografiert diesen für das Kugelpanorama noch fehlenden Bildbestandteil.

Der Bodenbereich des Kugelpanoramas (Nadir) erfordert mehrere Aufnahmen, denn hier muss später das Stativ samt Kopf herausretuschiert werden. Zunächst wird der Kopf mit Kamerasystem vertikal auf -90°-Position verstellt und dann belichtet. Daraufhin dreht man den Kopf horizontal um 180° und schiesst erneut ein Bodenfoto. Damit kann im Postprocessing der störende Vertikalarm des VR-Kopfes aus dem Bodenbild maskiert werden. Als letzten Schritt schiesse ich noch ein oder mehrere Bodenbilder von einer leicht versetzten Position ausserhalb des NPP aus. Im Stitchprogramm kann dann später eine sog. „Viewpoint Correction“ durchführt werden, um damit die vom Stativ und VR-Kopf verdeckten Bodenbildbereiche aufzufüllen.

Je nach Location und Motiv kann das Shooting recht zügig (aber sorgfältig) erfolgen, insbesondere wenn mit dem vorhandenen Licht gearbeitet wird und keine bewegten Objekte im Spiel sind. Dafür ist aber die Nachbearbeitung i.A. aufwändig, da die sehr große Panoramabilddatei bei der segmentellen Methode erst durch das Postprocessing (u.a. Stitchen) entsteht.

Das Postprocessing beginnt in meinem Workflow mit der Sortierung in dem Programm Adobe Lightroom. Es folgen eine Reihe von RAW-Entwicklungsschritten, um die benachbarten Panorama-Einzelfotos zu optimieren (entwickeln).

Mit einem Lightroom-Plugin oder der Lightroom-internen HDR-Merge-Funktion kann ich die Mehrfachbelichtungen (falls vorhanden) mittels Dynamic Range Increase (DRI) so miteinander verschmelzen, dass die Lichter nicht ausfressen und die Schatten noch genügend Details zeigen. DRI-bearbeitete Fotos sehen meistens natürlicher aus, als die sog. HDR-Panoramen. Zuletzt werden die Einzelbilder in 16-bit-TIF-Dateien exportiert. Die Auflösung meiner Standard-Kugelpanoramen beträgt aktuell etwa 220 Megapixel (22k oder 22.000 Pixel x 11.000 Pixel).

Diese bearbeiteten TIF-Dateien lade ich schliesslich in das hervorragende Stitchprogramm PTGui Pro. Hier gibt es wieder viele Einstellmöglichkeiten zu tätigen und Formatfragen zu beantworten. Ich maskiere bewegte (also doppelte) Objekte in den Überpappungsbereichen und erstelle auch ein maskiertes Nadirbild ohne Vertikalarm, also mit bereits ziemlich viel Bodenbildinformation. Beim Viewpoint-Correction-Foto werden alle nicht-ebenen Bildbereiche maskiert. Kontrollpunkte werden automatisch generiert und müssen in kritischen Bereichen und zur horizontalen Ausrichtung zusätzlich auch noch manuell gesetzt werden um das Panorama zu optimieren. Nach dem Stitchen erhält man eine sehr große PSB-Datei (z.B. 25 GB) mit Ebenen und Masken. Die Photoshop-Masken helfen bei der Retusche von hartnäckigen Stitchfehlern in den Überlappungsbereichen. Das aus dem Stitchprozess resultierende Kugelpanoramabild muss peinlich genau nach Stitchfehlern abgesucht werden, um dann mittels Maskierung und Retusche die Artefakte entfernen zu können. Nach erfolgter Retusche kann ich eine Master-Panoramadatei in 16 bit Farbtiefe erstellen, die dann als Vorlage für verschiedene Ausgabeformate und Projektionen dienen kann.

Für die interaktive Darstellung im Web nehme ich eine Kopie der Panorama-Masterdatei und optimiere lokal Farben und Kontrast wieder in Photoshop oder Lightroom. Diese web-optimierte TIF-Datei in höchster Auflösung lasse ich nun von einem Hilfsprogramm der krpano-Tools so bearbeiten, dass eine webfähige 360°x180°-Panoramaansicht mit Standard-User-Interface entsteht. Nachträglich kann ich noch viele Parameter (z.B. Auto-Rotation, Startwinkel, Winkelbeschränkungen etc.) in einer XML-Datei einstellen und ggf. Besonderheiten (eigenes Button- und Interface-Design) oder Erweiterungen (z.B. Hotspots) für das 360°-Foto erstellen und „XML-coden“.


Möchten Sie das Thema vertiefen? Dann empfehle ich Ihnen meinen Panorama-Workshop und mein Buch rund um die interaktive Panoramafotografie.

Hier finden Sie Infos zum Thema Projektionen in der Panoramafotografie.


Panoramafotograf bei der Arbeit
Panoramafotograf Chris Witzani bei der Arbeit in der Hattinger Henrichshütte – Foto: Frank Westphal-Boeing