360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach

 
WEITER LESEN
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Leitfaden

360°-Streaming & VR-Broadcasting
360°-Realaufnahmen erzeugen, transportieren & wiedergeben

 Stand: v16. 11.02.2021
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Inhaltsverzeichnis

   1 Einführung - Aufgabenstellung ................................................................................................... 4
   2 Fragen zur Auswahl des passenden Mediums ........................................................................... 5
   3 Aufnahme: Kamera-Vergleich .................................................................................................... 7
   4 Live: Streaming ......................................................................................................................... 12
       4.1 Überblick Streaming ......................................................................................................... 12
       4.2 Encoder-Hardware ............................................................................................................ 12
       4.3 Encoder-Software ............................................................................................................. 13
       4.4 Streaming-Plattformen ..................................................................................................... 13
       4.5 Audio im Streaming: Konfliktpunkte und einfache praktische Audio-Lösungen .............. 14
       4.6 Hands-On: 360°-3D-Streaming mit YouTubeVR am VDC .................................................. 18
               a) Video ............................................................................................................................ 18
               b) Audio ............................................................................................................................ 20
   5 Aufzeichnungen: Medienformate und -eigenschaften ............................................................ 21
       5.1 Stitching ............................................................................................................................ 21
       5.2 Meta Data Tagging ............................................................................................................ 22
       5.3 Bilddateien verarbeiten .................................................................................................... 23
               a) Datenformate von stereoskopischen und sphärischen Bilddateien ........................... 23
               b) Qualifizierung von stereoskopischen und sphärischen Bilddateien ............................ 24
               c) Meta Data Injection für Bilddateien ............................................................................ 25
       5.4 Filmdateien verarbeiten ................................................................................................... 28
               a) Datenformate von stereoskopischen und sphärischen Filmdateien ........................... 28
               b) Qualifizierung von stereoskopischen und sphärischen Filmdateien ........................... 28
               c) Meta Data Injection für Filmdateien ........................................................................... 28
   6 Wiedergabe: Endgeräte und Software ..................................................................................... 29
   7 Dienstleister im Segment VR-Broadcasting .............................................................................. 34
   8 Literatur .................................................................................................................................... 36
   9 Impressum ................................................................................................................................ 37
   10 Förderhinweis ........................................................................................................................... 37

   2
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Abbildungsverzeichnis
   Abbildung 1:    Fragen zur Verfahrenswahl .....................................................................................5
   Abbildung 2:    Anwendungsbeispiele für Stereo-3D, (sphärische) Panoramen und
                   Streaming ................................................................................................................6
   Abbildung 3:    360- und Stereokamera-Vergleich ....................................................................... 11
   Abbildung 4:    Streaming-Encoder-Hardware ............................................................................. 12
   Abbildung 5:    Streaming-Encoder-Software............................................................................... 13
   Abbildung 6:    Streaming-Plattformen ........................................................................................ 13
   Abbildung 7:    Legende zu Schemata der Audio-Schaltungen .................................................... 14
   Abbildung 8:    Störendes Übersprechen beim Nebeneinandersitzen in einer
                   Videokonferenz .................................................................................................... 14
   Abbildung 9:    Übersprechen bei Betrieb von Videokonferenz- und 360°-Kamera-
                   Software auf einem Rechner mit Lautsprecher ................................................... 15
   Abbildung 10:   Einfacher möglicher Aufbau mit beweglicher 360°-Kamera, zwei
                   Mikrofonen und beweglichem Videokonferenzmoderator ................................. 15
   Abbildung 11:   Möglicher Aufbau mit einem zentralem Mikrofon ............................................. 15
   Abbildung 12:   Mobiler "Reporter" unterstützt Moderator ........................................................ 16
   Abbildung 13:   Audio-Lösung 1 mit Mischpult und externer Soundkarte.................................... 16
   Abbildung 14:   Möglicher Konflikt bei Betrieb einer externen Soundkarte ................................. 16
   Abbildung 15:   Audio-Lösung 2 mit eigener Videokonferenz-Teilnahme der 360°-Kamera
                   und mobilem Reporter per Tablet PC und Audio-Headset. ................................. 16
   Abbildung 16:   Insta360Pro-Anwendung am VDC........................................................................ 18
   Abbildung 17:   360°-Kamera am VDC........................................................................................... 18
   Abbildung 18:   Start mit YouTube-Studio..................................................................................... 18
   Abbildung 19:   Stream-URL und Streamschlüssel werden aus YouTube Studio kopiert ............. 19
   Abbildung 20:   YouTube Studio zeigt den Stream der Kamera und ist zum Senden bereit ......... 19
   Abbildung 21:   360°-3D-Streaming-Gesamtprozess am VDC ....................................................... 19
   Abbildung 22:   Funkmikrofon K&F ConceptM-8 UHF................................................................... 20
   Abbildung 23:   USB-Audio-Mischpult Behringer Xenyx................................................................ 20
   Abbildung 24:   Screenshot der Anwendung Action Director von Cyberlink/Samsung ................ 21
   Abbildung 25:   Screenshot der Anwendung Insta 360 Pro Stitcher ............................................. 22
   Abbildung 26:   XMP-Tag-Gruppen GPano und GSpherical........................................................... 24
   Abbildung 27:   Konfigurationsdatei des ExifTools ........................................................................ 25
   Abbildung 28:   Verwenden des ExifTools ..................................................................................... 26
   Abbildung 29:   Verwenden des ExifTool Workspace-Managers .................................................. 26
   Abbildung 30:   Konfiguration des Workspace-Managers im Werkzeug ExifTool......................... 27
   Abbildung 31:   Werte zum Setzen der Meta Data Tags ............................................................... 27
   Abbildung 32:   Verwendung des Werkzeugs Spatial Media Metadata Injector .......................... 28
   Abbildung 33:   Auflistung einiger bedeutender 360°-Viewer-Apps und -Hardware.................... 31
   Abbildung 34:   Vergleich und Kompatibilität von 360°-Viewer-Apps .......................................... 32
   Abbildung 35:   Vergleich von Lösungen für 360°-Panoramatouren ............................................ 33

   3
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
1   Einführung - Aufgabenstellung

    Hintergrund

    Spätestens seit den Einschränkungen der Bewegungsfreiheit im Zuge der Maßnahmen zur Ein-
    dämmung der Covid19-Pandemie ist klar geworden, wie sinnvoll und wichtig Videokonferenzlö-
    sungen sein können. Dennoch ersetzen auch diese Werkzeuge nicht das Gefühl vollständiger
    Präsenz an einem entfernten Meeting-Ort und werden dieses wohl auch nie erreichen. Ob die-
    ses jemals durch digitale überhaupt Medien erreichbar ist, sei an dieser Stelle dahingestellt. Si-
    cher ist heute aber auch, dass es interessante Lösungen jenseits der allgemein bekannten Vide-
    okonferenz-Lösungen gibt, die es Teilnehmern ermöglichen, einen wesentlich besseren Eindruck
    vom Ort des Gegenübers zu erlangen: Virtual Reality (VR) ist eine Technologie und Methode, die
    für Anwendungen namens "Telepräsenz" seit Langem bekannt ist. Seit wenigen Jahren sind leis-
    tungsfähige und sehr kostengünstige (dafür weniger leistungsfähige) Lösungen auf dem Markt.
    Diese eignen sich dafür, Nutzern in eine entfernte Realität eintauchen zu lassen - sowohl als Auf-
    zeichnung als auch Live - und zwar in 360°-Rundumsicht und mit Stereoskopie. Auf diese Weise
    können ganz neue Möglichkeiten der Partizipation, der Kooperation und der Entscheidungsfin-
    dung erschlossen werden. Interessant kann dieses für zahllose professionelle oder private An-
    wendungen sein, denken wir etwa an eine Begehung einer Immobilie über Distanz oder einem
    verteilten Live-Training in 3D.

    Problemstellung

    In der heute verfügbaren enormen Bandbreite technischer Lösungen liegt denn auch die Heraus-
    forderungen für den prospektiven Nutzer: was wird denn für seine Aufgabe wirklich benötigt,
    welche technischen Aufbauten haben welche Vor- und Nachteile? An dieser Stelle tun sich Ein-
    steiger sicher erst einmal schwer. Dienstleister können natürlich unterstützen; einen Überblick
    zu haben oder erste eigene Versuche zu unternehmen wäre dennoch sehr hilfreich. Genau hier
    soll dieser Leitfaden ansetzen.

    Zielsetzung

    Das Ziel dieses Leitfadens ist es, Unternehmen zur Durchführung von 360°-Live-Streams oder
    360°-Aufzeichnungen zu befähigen, um mittels verbesserter verteilter Kooperation und Präsen-
    tation ihre Dynamik und Effizienz - damit ihre Wettbewerbsfähigkeit - zu steigern.

    4
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
2   Fragen zur Auswahl des passenden Mediums

    Stereo-3D, (sphärische) Panoramadarstellungen und Live-Streaming sind mächtige Werkzeuge,
    die – insofern sinnvoll eingesetzt - einen signifikanten Nutzen generieren können. Allerdings
    bedeuten der Einsatz dieser Aufnahme- und Wiedergabeverfahren fast immer einen höheren
    Einrichtungs- und/oder Systemaufwand (Hardware, Software). Daher muss für dem Einsatz die-
    ser Werkzeuge immer die Frage gestellt werden, welche Aufgabe mit deren Einsatz bearbeitet
    wird und was den Darstellungsgegenstand ausmacht. Die Relevanz der drei genannten Verfah-
    ren lässt sich separat voneinander diskutieren:
    ▪ Die Stereoskopie dient dem besse-
      ren Verständnis räumlich-geomet-
      risch komplexer Anordnungen. Liegt
      eine solche Anordnung nicht vor,
      wird Stereo-3D nicht benötigt. Der
      Mensch kann allerdings auch nur bis
      maximal 15m stereoskopisch sehen.
      Dieses bedeutet, dass sich die o.a.
      Anordnung im Nahbereich befindet
      muss, damit Stereo-3D sinnvoll wird.
    ▪ Panoramadarstellungen zeigen eine
      Rundumsicht. Die umgebende Geo-
      metrie (eine Landschaft; ein Fahr-
      zeug, in dem man sich befindet)
      kann der der Darstellungsgegen-
      stand sein, oder aber es wird ein
      spezieller Zweck mit der eigenen
      Hinwendung hin zu einem Objekt
      verfolgt: die bewusste Ausrichtung
      der Sinnesorgane umfasst durch die
      Drehung eben auch das Vestibulär-
      System (Orientierungssinn) und un-
      terstützt damit die Schaffung eines
      konsistenten, geistigen Abbilds der
      räumlichen Umgebung beim Benut-
      zer.
    ▪ Live-Streaming seinerseits wird erst
      dann sinnvoll, wenn ein wichtiges
      Ereignis sehr zeitnah, gar in Echtzeit,
      übertragen werden muss oder aber
      wenn der Präsentator sofort auf Zu-
      schaueräußerungen reagieren will.
      Ist beides nicht gegeben, könnte
      man auch Aufzeichnungen einset-
      zen.
    Abbildung 1 zeigt die Leitfragen zur
                                         Abbildung 1: Fragen zur Verfahrenswahl
    Identifikation der Relevanz von Ste-
    reo-3D, Panoramadarstellungen und
    Live-Streaming.

    5
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Abbildung 2 zeigt einige
typische Beispiele der
Anwendung von Stereo-
3D, Panoramadarstellun-
gen und Live-Streaming.
Darüber hinaus gibt es
natürlich viele mehr.
Entscheidend sind die
o.a. Leitfragen.

                           Abbildung 2: Anwendungsbeispiele für Stereo-3D, (sphärische) Panoramen und
                           Streaming

6
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
3   Aufnahme: Kamera-Vergleich

    Stereo-3D, Panoramadarstellungen und Live-Streaming werden in diesem Dokument nur in ihrer
    Anwendung auf Kamera-Aufnahmen sowie der Wiedergabetechnik betrachtet. Daneben sind
    Stereo-3D, 360°-Darstellungen und Live-Zusammenarbeit integraler Bestandteil verteilter, kolla-
    borativer Virtual-Reality(VR)- oder Augmented-Reality(AR)-Umgebungen. Der Inhalt solcher An-
    wendungen sind Computer-generierte 3D-Daten, etwa aus der 3D-Modellierung, der Konstruk-
    tion, der Simulation oder aus dem LASER-Scanning. Diese Anwendungen sind jedoch nicht Ge-
    genstand dieses Projektberichts; hier geht es um Realaufnahmen.
    Eine ganze Reihe von Herstellern haben mittlerweile Kameras auf den Markt gebracht, in einer
    Preisspanne von ca. € 200 bis hin zu € 40.000, mit und ohne Streaming-Fähigkeit. Die Kameras
    seien im Folgenden kurz portraitiert:

    Hersteller     Modell     Preis ca.       Auflösung, Features               Abbildung
                   VIRB 360     699 € 4K bei 60fps
                                        5,7K bei 30fps

    Garmin
    Link

                   Max         639 € 5,2K

    GoPro
    Link

                   Vuze        599 € 4K

    Humaneyes
    Technologies
    Ltd.
    Link

                   Vuze+       999 € 4K

                   Vuze XR     439 € bis zu 5,7K

    7
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Pro       3.999 € 360°-Fotos: max. 8K
                             360°-Videos: max. 8K bei 30fps
                             360°-3D-Fotos: max. 8K
Insta360                     360°-3D-Videos: max. 6K bei 30fps
Link

           Pro 2     5.999 € Foto: max. 12K
                             Video: max. 8K

           Titan      17.000 11K 360°-Fotos in 3D und mono
                     €       11K bei 30 FPS
                             10K 3D bei 30 FPS

           One         359 € Bildaufnahmen: 6912*3456
                             Videoaufnahmen:
                             3840*1920 bei 30fps,
                             2560*1280 bei 60fps,
                             2048*512 bei 120fps

           Z2XL180   2.000 € 4K

iZugar
Link

           K1Pro     2.995 €

           K2Pro     6.000 € 5120×2560 @60fps

           ONE J1-   >10.000€ bis zu 8K
           24G
           (abgekün-
Jaunt      digt)
Link

8
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Obsidian    2.000 € Video: 4K
         Go                  Bild: 8K

Kandao
Link

         QooCam       300 € 4K

         Mirage       299 € 4K
         (abgekün-
Lenovo   digt)
Link

         360 Cam      200 € Bild: 5560 x 2830 (16 MP)
                            Video: 2560 x 1280

LG
Link

         OZO             > Acht Sensoren mit 2K*2K
         (abgekün- 10.000
         digt)     €
Nokia
Link

         Panono      1.500 € 108 Megapixel
         Camera

Panono
Link

         Theta m15    299 € 1920×1080

Ricoh    Theta S      375 € 1920×1080
Link

         Theta SC     275 € 1920×1080

9
360 -Streaming & VR-Broadcasting - 360 -Realaufnahmen erzeugen, transportieren & wiedergeben - VDC Fellbach
Theta SC2   299 € 3840×1920

             Theta V     399 € Bilder: 5376×2688
                               Video: 4K Full HD

             Theta Z1    999 € Bilder: 23 MP(6720 x 3360
                               Video: 4K 3840 × 1920

             Gear 360    189 € 4K

Samsung
Link

             ZED         349 $ 2 x 2,2K

StereoLabs
Link

             ZED2        449 $ 2 x 2,2K

             ZED mini    399 $ 2 x 2,2K

             Horizon     369 € 5,7K bei 30fps
             (abgekün-
             digt)
Yi
Link

             360 VR      170 € 4K
             Camera
             (abgekün-
             digt)

10
S1           2.000 $ 6K bei 30fps
                                     4K bei 60fps

Z Cam
Link

                S1 Pro       8.880 $ 6K @30fps

                V1 Pro      33.880 $ Mono 8K @30fps / 4K @60fps,
                                     Stereo 7K @30fps / 4K @60fps

                K1 Pro       2.995 $ 6K @30fps / 4K @60fps

Abbildung 3: 360- und Stereokamera-Vergleich

11
4   Live: Streaming

4.1 Überblick Streaming
    Um Inhalte in Echtzeit mit anderen Personen - auch einer großen Anzahl von Empfängern zu tei-
    len - bieten sich Streaming-Ansätze an. Live-Streaming war in der Vergangenheit ein Exper-
    tenthema mit einer überschaubaren Anzahl kostenpflichtiger Werkzeuge. Insbesondere die So-
    zialen Medien sorgten dafür, dass kostenfreie Live-Streaming-Dienste in vergleichsweiser einfa-
    cher Form auch für Laien zur Verfügung stehen.
    Um streamen zu können, muss zunächst das Videosignal der angeschlossenen Kamera in ein
    Web-kompatibles Format konvertiert (enkodiert) werden. Dazu dienen so genannte Encoder.
    Ein Encoder dient also dazu, Videoinhalte zu konvertieren, damit sie über entsprechende Platt-
    formen gestreamt werden können.

4.2 Encoder-Hardware
    Encoder gibt es in Form spezieller Encoder-Hardware (also kein Rechner oder zusätzliche Soft-
    ware fürs Streaming erforderlich). Die folgende Abbildung zeigt einige Streaming-Hardware. Ei-
    nige erhältliche Systeme sind auch in der Lage, sphärische Daten (360°) zu verarbeiten.

     Hersteller         System             Abbildung      URL
     Matrox             Monarch                           https://www.matrox.com/video/de/products/monarch_
                                                          hd/compare_models/

     VidiU              VidiUGo                           https://teradek.com/collections/vidiu-go-family#web-
                                                          streaming

     cube               Cube 755 - H.265                  https://teradek.com/collections/cube-family#web-
                        (HEVC)                            streaming

     BOND               BOND-757                          https://teradek.com/collections/bond-family#web-
                                                          streaming

     BirdDog            4K HMDI                           https://bird-dog.tv/category/streaming/

     SPHERE             Teradek Sphere                    https://teradek.com/products/b-stock-sphere-
                        360° Camera                       hdmi?variant=29539421945901#sphere
                        Monitoring

     GoSolo             LiveU                             https://gosolo.tv/de/

    Abbildung 4: Streaming-Encoder-Hardware

    12
4.3 Encoder-Software
   Alternativ ist es möglich, Encoder-Software zu verwenden, die auf einem PC ausgeführt wird.
   Folgende Abbildung zeigt einige Beispiele:

     Hersteller                Lösung                                  URL
     OBS Community             OBS (Open Broadcaster Software)         https://obsproject.com/de

     FFPlit Community          FFSplit                                 https://www.ffsplit.com/

     telestream                Wirecast                                https://www.telestream.net/wirecast/overview.htm

   Abbildung 5: Streaming-Encoder-Software

4.4 Streaming-Plattformen
   Ist der Video-Stream enkodiert, so kann er auf einer Streaming-Plattform verbreitet werden. In-
   teressant ist es hier, eine Plattform zu wählen, die weit verbreitet ist, damit die Nutzer (Empfän-
   ger) sie kennen, Accounts besitzen und die Reichweite aufgrund der Größe der Plattform-
   Community signifikant wird. Gängige Streaming-Plattformen sind in der folgenden Abbildung
   aufgeführt (daneben gibt es noch Lösungen unter Abbildung 35 auf Seite 33).

     Anbieter                Streaming-Plattform         URL
     Facebook                Facebook Live               https://www.facebook.com/formedia/solutions/facebook-live

                             Facebook Watch              https://www.facebook.com/watch

     Instagram               Instagramm Live             https://www.instagram.com

     Twitch                  Twitch.tv                   https://www.twitch.tv

     Twitter                 Periscope                   https://www.pscp.tv

     Youtube                 YouTubeStudio               https://vr.youtube.com

                                                         https://www.youtube.com/channel/UC4R8DWoMoI7CAwX8_LjQHig
                             YouTube Live

   Abbildung 6: Streaming-Plattformen

   13
4.5 Audio im Streaming: Konfliktpunkte und einfache praktische Audio-Lösungen
    Grundsätzlich ist die Übertragung einer Audiospur beim Broadcasting ein sinnvoller Mechanis-
    mus um akustisch zu präsentieren oder zu kommunizieren. Etliche der (vor allem teureren) 360°-
    Kameras verfügen über Mikrofone und ermöglichen sogar 3D(gerichteten)-Sound. Das kann je
    nach Anwendung sinnvoll sein, da auch die Audiolokalisation beim Menschen ein Mechanismus
    ist, mit welchem er ein konsistentes gedankliches Bild seiner räumlichen Umgebung erwirbt.
    Räumliches Audio lässt sich in Filmdateien ablegen; dafür existieren Formate wie das recht ver-
    breitete ambiX ACN / SN3D-Format.
    Sehr sinnvolle Anzeigegeräte für 360°-Streams (ob stereoskopisch oder nicht) sind VR-Headsets.
    Nun ist es aber durchaus möglich, dass eine Live-Veranstaltung nicht in 360° gestartet wird, son-
    dern am Desktop. Es ist auch möglich, dass nicht jeder Teilnehmer über ein VR-Headset verfügt,
    sondern eine Veranstaltung am Desktop weiterverfolgen möchte, während andere Teilnehmer
    auf ein VR-Headset wechseln. In beiden Fällen ergibt sich die Herausforderung, unter Umstän-
    den zwei Plattformen (Video-Konferenzsystem und VR-Streaming-Plattform) mit einem Audio-
    signal zu versorgen.
    In der Folge werden einige praktikable Audio-Schaltungen gezeigt und auch Audio-System-
    entwürfe, die vermieden werden sollten.
    Eine komplexe Audio-Schaltung kann
    eine Vielzahl an Elementen umfassen.
    Dazu zählen Software zur Verwaltung
    der 360°-Kamera, Videokonferenz-
    Software, Kopfhörer, Mikrofone,
    Lautsprecher, Audio-Headsets mit
    Mikrofon, die 360°-Kamera, elektri-
    sche Verkabelung, Funkstrecken,
                                         Abbildung 7: Legende zu Schemata der Audio-Schaltungen
    Rechner, Mischpulte und externe
    Audiokarten. In Abbildung 7 sind die
    Symbole dieser Elemente erläutert.
    Auf dieser Basis werden im Anschluss
    einige Skizzen erstellt.
    Bei Videokonferenzsystemen hört man sein in die Konferenz gesprochenes
    Wort selbst nicht wieder über den Lautsprecher / Kopfhörer. Auch Lautspre-
    chersignale (etwa bei Benutzung eines Laptops ohne Audio-Headset) werden
    durch das lokale Mikrofon nicht wieder in die Konferenz zurückgeschleust,
    was eine unangenehme Rückkopplung zur Folge hätte. Dass dieses beides so
    funktioniert, ist keine Selbstverständlichkeit, sondern Ergebnis einer komple-
    xen Signalverarbeitung innerhalb der Videokonferenzsysteme, die heutzuta- Abbildung 8: Stören-
    ge sehr effektiv Rückkopplungen verhindern. Diese Rückkopplungsunterdrü- des Übersprechen
    ckung kann allerdings an ihre technischen Grenzen kommen:                      beim Nebeneinander-
                                                                                     sitzen in einer Video-
    ▪ Für den Fall, dass zwei Personen, nebeneinandersitzend, an einer Videokon-     konferenz

      ferenz teilnehmen, muss vermieden werden, dass man die eigene Stimme
      über das Mikrofon des Nachbarn über die Videokonferenz-Software dann
    14
wieder auf den eigenen Kopfhörer erhält. Man fällt sich damit quasi perma-
 nent selbst beim Sprechen ins Wort - mit einer spürbaren Zeitverzögerung,
 was enorm störend ist. Entweder müssen also die Abstände der Personen
 weit genug gewählt werden oder aber die Mikrofone müssen bei Nicht-
 Benutzung immer konsequent deaktiviert sein.
▪ Die Software zur Verwaltung der 360°-Kamera zeigt beim Betrieb der Kame-
  ra deren Bild und gibt auch deren Audioaufnahme wieder. Damit hört man
  also an seinem Rechner, was die Kamera gerade aufnimmt. Dieses zusätzli-
  che Audiosignal kann den Benutzer bereits bei der Teilnahme an einer Vi-
  deokonferenz stören. Noch schlimmer wird es, wenn gleichzeitig die Emp-
  fangsseite (z. B. YouTube) des 360°-Streams angezeigt wird, da das Audio-
  Signal dann zweimal - einmal auch zeitversetzt - ankommt. Ebenfalls
  schlimmer wird es, wenn kein Headset verwendet wird: in dem Fall ist es            Abbildung 9: Über-
  möglich, dass das Kamera-Audio-Signal über den Laptop-Lautsprecher und             sprechen bei Betrieb
                                                                                     von Videokonferenz-
  das Laptop in die gesamte Konferenz eingespeist wird. Im Worst-Case-
                                                                                     und 360°-Kamera-
  Szenario können sich verstärkende Rückkopplungen der beiden Audio-                 Software auf einem
  Schleifen Videokonferenz und 360°-Kamera ergeben. Um negative Effekte              Rechner mit Lautspre-
                                                                                     cher
  zu verhindern, sollte der Nutzer ein Audio-Headset verwenden und die
  Software zur Verwaltung der 360°-Kamera auf einem separaten Rechner
  laufen lassen.
Abbildung 10 zeigt einen möglichen, einfachen
Ansatz einer Audio-Schaltung. Die Software zur
Verwaltung der 360°-Kamera läuft auf einem
eigenen Rechner. Dort kann auch die Empfangs-
seite (z. B. YouTube) des 360°-Streams angezeigt
werden. Der Benutzer verwendet die Videokon-
ferenz-Software mit einem Headset und spricht
gleichzeitig in ein Funkmikrofon, welches seine
                                                   Abbildung 10: Einfacher möglicher Aufbau mit bewegli-
Sprache an die 360°-Kamera weiterleitet. Wird cher 360°-Kamera, zwei Mikrofonen und beweglichem
hier ein Laptop oder Tablet PC eingesetzt, kann Videokonferenzmoderator
der Benutzer sogar mobil unterwegs sein und
eine Führung durch Räume machen. Problema-
tisch ist hier, dass die 360°-Stream-Zuschauer die
Diskussion der Videokonferenz nicht mitver-
folgen können, sondern nur den Moderator hö-
ren.
Alternativ könnte man den Benutzer auch mit
einem langen Kopfhörerkabel ausstatten und
das Mikrofon-Funksignal sowohl an die 360°-
                                             Abbildung 11: Möglicher Aufbau mit einem zentralem
Kamera als auch an die Videokonferenz senden Mikrofon
(Abbildung 11). Auch hier hören die Stream-
Zuschauer die Videokonferenz nicht.

15
Es kann sinnvoll sein, wenn sich ein mobiler
"Reporter" von lokal von einem stationären Vi-
deokonferenz-Moderator unterstützen lässt
(Abbildung 12). Die o.a. Vorgaben (siehe Abbil-
dung 8) sind dabei zu erfüllen.
Lösung 1: Ein guter Ansatz besteht in der Ver-
wendung einer externen Soundkarte mit inte-
griertem Mischpult (Abbildung 13). Diese wird
an den Videokonferenz-Rechner angeschlossen.
In der Videokonferenz-Software müssen der Abbildung 12: Mobiler "Reporter" unterstützt Modera-
neue Audio-Ein- und Ausgang (Soundkarte) aus- tor
gewählt werden. Das Audio-Headset wird an das
Mischpult angeschlossen. Der Audio-Funksender
wird an den Ausgang des Mischpults angeschlos-
sen und sendet an die 360°-Kamera. Die 360°-
Stream-Zuschauer können nun auch den Ton der
Videokonferenz verfolgen.
Aufgrund von Signallatenzen kann die Verwen-
                                                  Abbildung 13: Audio-Lösung 1 mit Mischpult und exter-
dung von Funkstrecken aber problematisch wer- ner Soundkarte
den, wenn Rückkopplungsschleifen eingebaut
werden, etwa durch die Verwendung von Laut-
sprechern und Mikrofonen (siehe Abbildung 14).
Ziel sollte es hier sein, den über den Lautspre-
cher (statt Kopfhörer) Reporter mobil zu halten;
aber auf diese Weise nimmt das Mikrofon den
Schall des Lautsprechers auf und schickt ihn über
die Funkstrecke erneut an den Lautsprecher:
eine Rückkopplung entsteht.
                                                     Abbildung 14: Möglicher Konflikt bei Betrieb einer ex-
Lösung 2: Eine zweite Lösung, die hier ohne ternen Soundkarte
Mischpult auskommt, verwendet einen separa-
ten Videokonferenz-Rechner, dessen Audiosignal
einfach an die 360°-Kamera gefunkt wird: die
Zuschauer des 360°-Streams können so also
mithören. Der Reporter ist per Tablet PC und
Audio-Headset mobil und kann so sprechen und
filmen. Eine weitere Person überwacht den
360°-Stream und kann dort chatten und den Abbildung 15: Audio-Lösung 2 mit eigener Videokonfe-
Reporter über Fragen im Chat informieren.      renz-Teilnahme der 360°-Kamera und mobilem Reporter
                                                     per Tablet PC und Audio-Headset.

16
Einige Grundregeln gibt es also beim Aufbau des Audio-Systems zu beachten:

1. Rückkopplungen minimieren: Lautsprecher vermeiden und Headsets verwenden
2. Rückkopplungen minimieren: gleichzeitige, nebeneinandersitzende Teilnehmer einer Video-
     konferenz auf Distanz halten und auf Mikrofon-Disziplin achten
3.   Rückkopplungen und Störgeräusche minimieren: (1) Verwaltungs-/Encoder-Software der
     360°-Kamera und (2) Stream-Anzeige (etwa YouTube) und (3) Videokonferenz-Software auf
     separaten Rechnern laufen lassen. Mindestens die ersten beiden Software-Systeme gehören
     auf einen eigenen Rechner.
4.   Rückkopplungen minimieren: über die Funkstrecke (und die damit verbundene Signallaufzeit
     v.a. durch das Wandeln beim Senden und Empfangen) wird die Rückkopplungsunterdrückung
     einer Videokonferenz-Software ausgehebelt. Schleifen wie in Abbildung 14 sind zu vermei-
     den.
5.   Die 360°-Kamera wurde hier immer per Funk angebunden, damit sie mobil bleibt und auf
     verschiedene Standpunkt verschoben werden kann. Auf diese Weise erhalten die Zuschauer
     unterschiedliche Einblicke. Da die Zuschauer aber immersiv per VR-Headset auf die Position
     der 360°-Kamera "teleportiert" sind, sollte man von dieser Möglichkeit nur sparsam Ge-
     brauch machen und die Re-Positionierung ankündigen, damit die Zuschauer ihr VR-Headset
     kurz absetzen können oder sich physischen Halt suchen. Grundsätzlich verursacht die sicht-
     bare Re-Positionierung im VR-Headset ohne physische Entsprechung (also einer Bewegung
     des Nutzers) massive Cyber Sickness.
6.   Eine machbare Lösung liegt in der Verwendung einer externen Soundkarte mit integriertem
     Mischpult (Abbildung 13). Darüber lassen sich auch die Zuschauer des 360°-Streams mit dem
     Audiosignal der Videokonferenz versorgen.
7.   Eine weitere machbare Lösung liegt in dem Anschluss der 360°-Kamera an einen eigenen Vi-
     deokonferenz-Rechner und der Mobilisierung eines Reporters mit Audio-Headset an einem
     Tablet PC (Abbildung 15).

17
4.6 Hands-On: 360°-3D-Streaming mit YouTubeVR am VDC
     Im Folgenden sei kurz gezeigt, wie ein komplettes Streaming-Setup aussehen kann. Als Beispiel
     wird eine 360°-3D-Installation am Virtual Dimension Center (VDC) herangezogen.
a)   Video
     Um 360°-3D ist guter Auflösung aufzunehmen,
     wird das Kameramodell Pro der Fa. Insta360
     auf ein Stativ aufgespannt und aufgestellt. In
     den Kameraeinstellungen werden als Auflösung
     4K, als Refresh-Rate 24 Frames/Sekunde und
     die Option 3D gesetzt. Über die Verwaltungs-
     App eines Smartphones wird die Kamera in das
     lokale WLAN eingehängt. Die Kamera zeigt auf
     ihrem Display nun ihre IP-Adresse an.             Abbildung 17: 360°-Kamera am VDC

     Auf einem PC wird nun die Insta360Pro-Anwendung (App) gestartet. Diese Anwendung dient als
     Fernadministrationswerkzeug für die
     Kamera, als Echtzeit-Stitching-Werk-
     zeug (zum Stitching siehe Kapitel 5.1)
     und als Encoder-Software (zu Enco-
     der-Software siehe Kapitel 4.3). Mit
     der bekannten IP-Adresse der Ka-
     mera wird eine Verbindung der Soft-
     ware zu ihr hergestellt. Die Software
     zeigt daraufhin das Kamerabild. In
     der Anwendung (siehe Abbildung 16)
     wird      ein     benutzerdefinierter  Abbildung 16: Insta360Pro-Anwendung am VDC
     RTMP(Real-Time Messaging Proto-
     col)-Server etabliert, die Auflösung
     auf 3840x2150 Pixel gesetzt, die Bit-
     rate lokalen Gegebenheiten ange-
     passt, die Einzellinsenauflösung auf
     1920 x 1440 Pixel festgelegt. Für wei-
     tere Einstellungen hier benötigen wir
     Angaben aus dem YouTube Studio.
     YouTube Studio wird in einem Web-
     Browser geöffnet. Der Nutzer loggt
     sich in sein YouTube-Konto ein und
     wählt die Optionen "Erstellen" und
     dann "Livestream starten" (siehe Ab-
                                            Abbildung 18: Start mit YouTube-Studio
     bildung 18).

     18
Aus YouTube Studio werden nun die
Stream-URL und der Stream-
Schlüssel kopiert (siehe Abbildung
19) und in die Insta360Pro-
Anwendung (Abbildung 16) übertra-
gen.
Nun kann man auf den Live-Knopf
der        Insta360Pro-Anwendung
(Abbildung 16) drücken um die
Übertragung des Streams an You-
Tube-Studio zu beginnen. YouTube
Studio beginnt den Stream der Ka-
                                    Abbildung 19: Stream-URL und Streamschlüssel werden aus YouTube
mera anzuzeigen (Abbildung 20) und Studio kopiert
ist zum Senden bereit. Wird der
Stream auch hier von uns gestartet,
wird er auf dem eigenen YouTube-
Kanal angezeigt und ist für andere
dort abrufbar.
Die Anzeige des Streams erfolgte
mittels einer Oculus-Quest-II-VR-
Brille. Bemerkenswerterweise funk-
tionierte die YouTube-App der Ocu-
lus Quest II bei diesem Stream nicht
korrekt. Daher wurde hier der Brow-
ser Firefox Reality gestartet und
über diesen der YouTube-Kanal des Abbildung 20: YouTube Studio zeigt den Stream der Kamera und ist
VDCs geöffnet. Man bringt das Vi- zum Senden bereit
deo dort in den Vollbildmodus und
teilt dem Browser mit, dass es sich
um einen 360°-3D-Stream handelt.
Der funktionierende 360°-3D-Streaming-Gesamtprozess am VDC umfasst demnach folgende
Komponenten:

  Kamera         Stitching, Encoding    Streaming-Plattform   Anzeige-Hardware     Viewing-App

  Insta360 Pro        Insta360Pro-App        YouTube Studio     Oculus Quest II     Firefox Reality

Abbildung 21: 360°-3D-Streaming-Gesamtprozess am VDC

19
b)   Audio
     Die zuvor diskutierten Audio-Probleme und -Lösungen entstan-
     den während einiger Tests am Virtual Dimension Center. Neben
     zahllosen Kabeln, Adaptern, Splittern, einem Mini-Mischpult
     (Audio Sound Mixer Compact ammoon K1000) waren für die
     oben beschriebenen Aufbauten das USB-Audio-Mischpult Beh-
     ringer Xenyx und zwei Sets des Funkmikrofons K&F ConceptM-
     8 UHF im Einsatz. Über diese zwei Sets waren zwei separate
     1:1-Verbindungen, aber auch 1:2 und 2:1 möglich. Beim USB-
     Mischpult ist zu beachten, dass das Audio-Headset per 3.5mm-
     Klinkenstecker angeschlossen wird. Bluetooth-Headsets mit Abbildung 22: Funkmikrofon K&F
     USB-Anschluss scheiden damit aus. Man könnte aber das ConceptM-8 UHF
     Funkmikrofon und einen separaten Funkkopfhörer mit Klinken-
     anschluss verwenden. Auf diese Weise wäre der Nutzer auch
     hier kabellos unterwegs.

                                                                   Abbildung 23: USB-Audio-Mischpult
                                                                   Behringer Xenyx

     20
5   Aufzeichnungen: Medienformate und -eigenschaften

360°/360°-3D-Inhalte können auch in einer Mediathek vorgehalten werden, wenn es keinen Grund
für ein Echtzeit(Live)-Ausstrahlung gibt. Aufgrund von Unterschieden in der Behandlung werden Bild-
dateien und Filmdateien im Hinblick auf Datenformate und hier relevante Bearbeitungsoptionen von
getrennt voneinander behandelt. Doch zunächst werden an dieser Stelle die grundlegende Verfahren
Stitching und Meta Data Tagging / Injection (zur Qualifizierung von Bild- und Videodateien) beschrie-
ben.

5.1 Stitching
    Für Panorama-Darstellungen werden mehrere, sich überlagernde Aufnahmen erzeugt. Diese
    sind anschließend zu einem kongruenten Gesamtpanoramabild oder -film zusammenzusetzen.
    Diesen Prozess nennt man Stitching. Ebenso kann es wünschenswert sein, störende Inhalte aus
    dem Bild zu entfernen, so beispielweise etwa ein Kamera-Stativ in einer 360°-Aufnahme. Mittels
    benutzergesteuerte Verzerrungseinstellungen können etliche Stitching-Lösungen dieses auch
    bereits leisten. Für das Streaming von 180°/360°-Inhalten muss das Stitching natürlich zur Lauf-
    zeit erfolgen. Den 360°-Kameras sind zumeist eigene Stitching-Softwarelösungen mitgeliefert. Ist
    eine Kamera als „Streaming-fähig“ deklariert, so beherrscht deren Software das Stitching zur
    Laufzeit. Beispiele von gängigen Stitching-Lösungen sind:
    ▪ Cyberlink / Samsung ActionDirector

         Abbildung 24: Screenshot der Anwendung Action Director von Cyberlink/Samsung

    21
▪ Insta 360 Pro Stitcher

        Abbildung 25: Screenshot der Anwendung Insta 360 Pro Stitcher

5.2 Meta Data Tagging
   Damit ein Video oder Bild von einer Darstellungssoftware korrekt dargestellt werden kann, so
   muss der Darstellungssoftware mitgeteilt werden, welcher Art dieses Video oder Bild ist, ob es
   beispielsweise stereoskopisch und / oder als sphärisch (180°, 360°) aufgenommen wurde
   [01][03]. Um ein Video / Bild korrekt zu betrachten, kann man häufig die richtigen Einstellungen
   in der Darstellungssoftware manuell vornehmen. Dazu muss der Nutzer aber wissen, wie das Vi-
   deo / Bild aufgenommen wurde. Besser wäre es, die Aufnahmeeinstellungen werden der Video-
   /Bilddatei explizit mitgegeben. Dieses geschieht mittels so genannter Meta-Daten. Für die Defi-
   nition Video-/Bild-bezogener Meta-Daten existieren verschiedene Standards, die auch kombi-
   niert miteinander verwendet werden können. Die bekanntesten sind:

   ▪ Exchangeable Image File Format (EXIF [02]): Dieses ist ein Standardformat der Japan Electro-
     nic and Information Technology Industries Association (JEITA) für das Abspeichern von Meta-
     daten in digitalen Bildern. Die letzte Version des Standards (2.32, April 2010, letzte Revision
     im Mai 2019) wurde von einer Kooperation der JEITA mit der ebenfalls japanischen Organisa-
     tion CIPA (Camera & Imaging Products Association, Nachfolge-Organisation der JCIA – Japan
     Camera Industry Association) formuliert. In den Exif-Daten einer Bilddatei werden technische
     Informationen zur Aufnahme, unter anderem Kameramodell, Zeitpunkt der Aufnahme und
     Kameraeinstellungen, gespeichert.
   ▪ Der IPTC-IIM-Standard (oft kurz nur IPTC [04]) ist ein Datenformat zur Speicherung von Me-
     tadaten in Bilddateien (z. B. in JPEG- oder TIFF-Dateien). Es wurde 1991 als Information Inter-
     change Model (IIM) definiert. Informationen – sowohl Text als auch Datums- und Zahlenwer-
     te – werden in einem durch diesen Standard definierten Format in einem speziellen Bereich
     der Datei abgelegt.

   22
▪ Die Extensible Metadata Platform (XMP [05][06][07][08][12][13][14][15][16]) ist ein Stan-
       dard, um Metadaten, also bei einem Foto beispielsweise Daten über den Fotografen, die
       verwendete Ausrüstung und den Aufnahmeort, in digitale Medien einzubetten oder als Filial-
       datei dazuzulegen. Sie wurde von Adobe im Jahr 2001 veröffentlicht und erstmals in den
       Acrobat Reader 5 integriert. Im Februar 2012 ist der Kernteil der XMP-Spezifikation als ISO-
       Standard ISO 16684-1 erschienen. XMP basiert auf offenen Standards und bettet die vom
       World Wide Web Consortium veröffentlichte formale Sprache RDF (Resource Description
       Framework) in Binärdaten ein. Damit sollen die Metadaten in verschiedenen Applikationen
       nach einem einheitlichen Schema so integriert werden, dass die Dateien auch weiterhin von
       anderen Programmen gelesen werden können. Das Format wird von allen Adobe-Produkten,
       von Software anderer Hersteller sowie auch durch Anbieter von Redaktionssystemen unter-
       stützt.

5.3 Bilddateien verarbeiten
a)   Datenformate von stereoskopischen und sphärischen Bilddateien
     Es gibt kein spezifisches Datenformat für sphärische (Panorama-)Bilder. Ob ein Bild ein Panora-
     ma abbildet, wird vielmehr über das Einfügen gewisser Meta Tags (siehe nachfolgenden Ab-
     schnitt b) definiert. Wohl gibt es zahlreiche Darstellungsformate für Panoramabilder [11].
     Für stereoskopische Bilddateien werden im Allgemeinen die zwei nachfolgenden Dateiformate
     eingesetzt:
     ▪ Multi Picture Object (MPO [09][10]) oder Multi Picture Format (MPF) ist ein Bildformat für
       die dreidimensionale Fotografie: Klassische und in der zweidimensionalen Fotografie etab-
       lierte Bildformate wie JPEG oder PNG waren ursprünglich nicht zur Speicherung stereoskopi-
       scher Bilder gedacht – in den Dateien findet jeweils nur eine Fotografie Platz, es werden aber
       zumindest zwei Fotografien, eine für das rechte und eine für das linke Auge benötigt. Bei
       dem Format Multi Picture Object werden alle zur Anzeige notwendigen Daten innerhalb ei-
       ner einzigen Datei mit der Erweiterung .MPO gespeichert, um dem Nutzer den Umgang mit
       dem stereoskopischen Bildmaterial zu erleichtern. Zwar wäre es möglich, beide Fotografien
       in jeweils separaten Dateien in einem der genannten Formate zu speichern, problematisch
       kann es jedoch werden, wenn eine der beiden Dateien versehentlich gelöscht wird oder irr-
       tümlicherweise an einem anderen Ort gespeichert wird und so für die Betrachtersoftware
       nicht mehr auffindbar ist. Der MPO-Standard basiert auf dem JFIF-Standard, welcher wiede-
       rum ein Containerformat für JPEG-Dateien beschreibt.
     ▪ JPEG Stereoscopic (JPS) ist ein weiteres Bildformat, welches zur Speicherung und Darstellung
        stereoskopischer Bilder geeignet ist. Wie das MPO Format basiert es auf dem JPEG Verfahren
        und auf dem JFIF Container, bietet jedoch weit weniger Möglichkeiten als MPO und ist in der
        Praxis weniger verbreitet. Eine JPS-Datei besteht – im Gegensatz zu einer MPO Datei – aus
        einer einzigen JPEG/JFIF-Datei. Die Erweiterungen für die dreidimensionale Anzeige sowie die
        Identifizierung als JPS-Datei werden dabei im bislang nicht genutzten APP3-Marker gespei-
        chert. Die zwei Ansichten des Bildes für die stereoskopische Darstellung sind innerhalb eines
        einzigen Bildes, Seite an Seite gespeichert. JPS-Dateien enthalten außerdem wie gewöhnliche
        JPG Dateien, anders als die verketteten Bilder innerhalb einer MPO-Datei, üblicherweise den
        APP0-Marker mit den JFIF-Versionsinformationen. Die spezielle Art der Speicherung inner-
     23
halb einer JPS-Datei hat einen großen Vorteil gegenüber der Speicherung innerhalb einer
          MPO-Datei: Der einzige Unterschied zu einer herkömmlichen JPEG-Datei ist der APP3-
          Marker, welcher von mit JPS nicht kompatiblen Anzeigeprogrammen ignoriert wird. Daher
          können beide Ansichten innerhalb jedes beliebigen zur Darstellung von gewöhnlichem JPEG-
          fähigen Anzeigeprogramm dargestellt werden. Auch MPO bietet eine solche Möglichkeit zur
          Darstellung auf nicht kompatiblen Plattformen, jedoch nur für das erste Bild in der Verket-
          tung.
b)   Qualifizierung von stereoskopischen und sphärischen Bilddateien
     Die für 3D- und sphärische Inhalte wichtigen Mata-Daten-Tags sind in den XMP-Gruppen „XMP
     GPano“ (Pano steht für Panorama-Aufnahmen) und „XMP GSPherical“ aufgeführt. [siehe XMP
     Tag-Erläuterungen in o.a. Literatur]

     XMP GPano Tags                                       XMP GSpherical Tags
     Panorama Tags erstellt durch Google Photosphere.     Dieses sind keine offiziellen / allgemeingültig verein-
     Diese Tags gehören zur ExifTool XMP-GPano-Familie-   barten XMP Tags. Diese werden allerdings in Google
     1-Gruppe (ExifTool: [13]).                           Photosphere MP4-Videos (!) eingesetzt und haben
                                                          daher einen gewissen Verbreitungsgrad. Diese Tags
                                                          werden in die Video-Tracks von MOV/MP4-Dateien
                                                          geschrieben, und nicht im Top-Level wie andere XMP-
                                                          Tags. Diese Tags gehören zur ExifTool XMP-
                                                          GSpherical-Familie-1-Gruppe (ExifTool: [13]).
      Tag-Name                          Datenformat       Tag-Name                                Datenformat
      CaptureSoftware                   string            CroppedAreaImageHeightPixels            integer
      CroppedAreaImageHeightPixels      real              CroppedAreaImageWidthPixels             integer
      CroppedAreaImageWidthPixels       real              CroppedAreaLeftPixels                   integer
      CroppedAreaLeftPixels             real              CroppedAreaTopPixels                    integer
      CroppedAreaTopPixels              real              FullPanoHeightPixels                    integer
      ExposureLockUsed                  boolean           FullPanoWidthPixels                     integer
      FirstPhotoDate                    date              InitialViewHeadingDegrees               real
      FullPanoHeightPixels              real              InitialViewPitchDegrees                 real
      FullPanoWidthPixels               real              InitialViewRollDegrees                  real
      InitialCameraDolly                real              ProjectionType                          string
      InitialHorizontalFOVDegrees       real              SourceCount                             integer
      InitialVerticalFOVDegrees         real              Spherical                               boolean
      InitialViewHeadingDegrees         real              StereoMode                              string
      InitialViewPitchDegrees           real              Stitched                                boolean
      InitialViewRollDegrees            real              StitchingSoftware                       string
      LargestValidInteriorRectHeight    real              TimeStamp                               integer
      LargestValidInteriorRectLeft      real
      LargestValidInteriorRectTop       real              Legende:
      LargestValidInteriorRectWidth     real
      LastPhotoDate                      date             rot & fett = relevant für
      PoseHeadingDegrees                 real             sphärische Aufnahmen
      PosePitchDegrees                   real
      PoseRollDegrees                   real
                                                          blau & fett = relevant für
      ProjectionType                    string            stereoskopische Aufnahmen
      SourcePhotosCount                 integer
      StitchingSoftware                 string
      UsePanoramaViewer                 boolean

     Abbildung 26: XMP-Tag-Gruppen GPano und GSpherical

     24
c)   Meta Data Injection für Bilddateien
     Es gibt verschiedene Werkzeuge um Metadaten von Bilddateien zu bearbeiten und zu speichern.
     Die gängigsten Werkzeuge sind hier:
     ▪ The Exifer (Online-Werkzeug) https://www.thexifer.net/
     ▪ EXIF Fixer                     https://exiffixer.com/
     ▪ ExifTool                       https://exiftool.org/

     Ein Problem an dieser Stelle ist, dass die Gruppe XMP-GSpherical zwar für Videodateien definiert
     ist, allerdings nicht für Bilddateien. Für Bilddateien gibt es nur o.a. die Definitionen der XMP-
     Untergruppe XMP-GPano. Es besteht allerdings die Möglichkeit, das Programm ExifTool nach ei-
     genen Wünschen anzupassen und neue, selbst-definierte Tags einzusetzen (mit den o.a. Werk-
     zeugen „The Exifer“ und „EXIF Fixer“ ist dieses nicht möglich). Dazu ist eine Konfigurationsdatei
     „.ExifTool_config“ für EXIFTool zu programmieren. Der Code lautet:

             %Image::ExifTool::UserDefined = (
                'Image::ExifTool::XMP::Main' => {
                   GSpherical => {
                      SubDirectory => {
                         TagTable => 'Image::ExifTool::UserDefined::GSpherical',
                      },
                   },
                },
             );

             %Image::ExifTool::UserDefined::GSpherical = (
                GROUPS => { 0 => 'XMP', 1 => 'XMP-GSpherical', 2 => 'Image' },
                NAMESPACE => { 'GSpherical' => 'http://ns.myname.com/xxx/1.0/' },
                ProjectionType => { Writable => 'string' },
                Spherical => { Writable => 'boolean' },
                StereoMode => { Writable => 'string' },
             );

     Abbildung 27: Konfigurationsdatei des ExifTools

     Wird diese Konfiguration eingesetzt, so lassen sich für Bilddateien (was ursprünglich ja nicht
     vorgesehen war) die Tags „GSpherical:ProjectionType“, „GSpherical:Spherical“, „GSpheri-
     cal:StereoMode“ anlegen und abspeichern.

     25
Abbildung 28: Verwenden des ExifTools

EXIFTool selbst erlaubt natürlich ebenso das Editieren der Werte dieser Felder. Dazu müssen die
Felder, die der Nutzer ändern möchte, im Workspace-Manager von EXIFTool angelegt werden:

Abbildung 29: Verwenden des ExifTool Workspace-Managers

26
Die Tag-Definitionen im Workspace-Manager (aufzurufen unter -> Programm -> Workspace Ma-
nager …) lauten hier:

 Tag name to display               Tag definition                         Hint text
 GPano: ProjectionType             -xmp-gpano:ProjectionType              should be equirectangular
 GPano: UsePanoramaViewer          -xmp-gpano:UsePanoramaViewer           boolean
 GSpherical: StereoMode            -xmp-gspherical:StereoMode             mono OR left-right OR
                                                                          top-bottom
 GSpherical: ProjectionType        -xmp-gspherical:ProjectionType         should be equirectangular
 GSpherical: Spherical             -xmp-gspherical:Spherical              boolean
Abbildung 30: Konfiguration des Workspace-Managers im Werkzeug ExifTool

Je nachdem, ob stereoskopischer oder sphärischer Inhalt vorliegt, sollten folgende Tags in den
Mediendateien mit nachfolgenden Werten gesetzt und gespeichert werden:

                                                      3D-Stereoskopie        Sphärische Aufnahme
                                               nein            ja         nein        ja
 XMP GPano           ProjectionType                                       [leer]      equirectangular
                     UsePanoramaViewer                                    false       true
 XMP GSpherical      ProjectionType                                       [leer]      equirectangular
                     Spherical                                            false       true
                     StereoMode                mono       top-bottom,
                                                          left-right
Abbildung 31: Werte zum Setzen der Meta Data Tags

Anmerkung: Neben dem Panoramadarstellungsformat „equirectangular“ gibt es noch zahlreiche
weitere (cubic, cylindrical, arc formed, little planet, rectilinear, partial ppherical), die aber bei
den Entwicklern der Panorama-Viewer noch deutlich weniger Unterstützung erfahren [11].

27
5.4 Filmdateien verarbeiten
a)   Datenformate von stereoskopischen und sphärischen Filmdateien
     Es gibt keine spezifisches Datenformate für stereoskopische oder sphärische (Panorama-)Filme.
     Ob ein Film ein Panorama und/oder stereoskopisch abbildet, wird vielmehr über das Einfügen
     gewisser Meta Tags (siehe nachfolgenden Abschnitt b) definiert.

b)   Qualifizierung von stereoskopischen und sphärischen Filmdateien
     Es werden die XMP-Meta-Tags der Gruppe „XMP GSpherical“ (siehe Abbildung 26) benötigt, um
     einen Film als stereoskopisch und/oder sphärisch zu qualifizieren. Relevant sind die Felder Pro-
     jectionType, Spherical und StereoMode.

c)   Meta Data Injection für Filmdateien
     Zum Einsatz kommt nun entweder:
     ▪ ExifTool https://exiftool.org/ oder
     ▪ Spatial Media Metadata Injector: https://github.com/google/spatial-media/releases/tag/v2.0
       Dieses Werkzeug ist in der Lage, MP4-Filmdateien zu öffnen, und einfach per Mausklicks
       Häkchen bei den Optionsfeldern „spherical“, „stereoscopic“ und „spatial audio“ zu setzen.

          Abbildung 32: Verwendung des Werkzeugs Spatial Media Metadata Injector

     Die Datei wird anschließend wieder als MP4-Datei geschrieben.

     Anmerkung: Medien-Dateien, die einem Stitching mittels Cyberlink / Samsung Action Director
     unterzogen wurden, zeigten Probleme bei der Meta Data Injection. Die Meta Data Injection
     funktionierte bei solchen Dateien erst, nachdem sie mit einem Formatkonvertierungswerkzeug
     einmal neu erzeugt/formatiert wurden. Das Problem ist anscheinend länglich bekannt, so dass
     dieser Umstand auf verschiedenen Internetforen diskutiert wird.

     28
6    Wiedergabe: Endgeräte und Software

    Will man 360°- und 3D-Inhalte wiedergeben, so bieten sich aufgrund des niedrigen Preises (im
    Vergleich zu etwa Projektionen) VR-Headsets an. Diese gibt es mittlerweile in sehr vielen Ausfüh-
    rungen mit großen Unterschieden in der Leistungsfähigkeit und der jeweiligen Preisklasse. Zudem
    haben wir es hier mit einem Markt zu tun, auf dem ebenfalls ein intensiver Wettbewerb um den
    Ausbau digitaler Ökosysteme herrscht. Dieses schränkt zum Teil die Interoperabilität verschiede-
    ner Lösungen signifikant ein.
    Für eine stärkere Verbreitung von VR-Inhalten an sehr große Menschengruppen sind im Grunde
    die seit wenigen Jahren verfügbaren VR-Cardboard-Systeme eine signifikante Option. Das Google
    Cardboard (https://arvr.google.com/cardboard/) ist eine Halterung aus Karton, welche aus eini-
    gen Smartphones eine Virtual-Reality-Brille macht. Die Konstruktion besteht neben dem Karton
    aus zwei Sammellinsen und einem Druckschalter. Dieser bestand in der ersten Version von 2014
    aus zwei Magneten, die durch Einwirken auf den Magnetsensor des Smartphones als Betätigungs-
    knopf dienen; in der zweiten Version von 2015 einem Schalter mit konduktivem Bezug. Der Deckel
    wird mit einem Klettverschluss geschlossen. Wenn man nun auf dem Smartphone eine App mit
    der Unterstützung einer stereoskopischen Ansicht öffnet, wird durch die VR-Brille aus den zwei
    einzelnen Bildern ein Stereo-3D-Bild. Durch die Sensoren im Smartphone kann man sich in dieser
    3D-VR-Welt auch umsehen, die Drehung des Kopfes wird zur App übertragen. Die VR-Brille wurde
    von Google entworfen und 2014 auf der Google I/O vorgestellt. Da die Cardboard-Systeme derart
    einfach sind, haben unzählige Firmen eigens gebrandete Cardboards herausgebracht und dazu
    passende Inhalte entwickelt (z.B. Volvo, Stihl, Heller Maschinenfabrik).
    Preislich ebenso interessant sind die Hybrid-VR-Systeme Samsung GearVR und Google Daydream
    (https://arvr.google.com/intl/de_de/daydream/). Beide Systeme bestehen aus soliden Kunst-
    stoffhalterungen, in die ebenfalls Smartphones eingelegt werden. Beide Systeme verfügen zudem
    (im Gegensatz zu o.a. Cardboad-Systemen) über jeweils einen einfachen Hand-Controller, mit
    dem sich die Inhalte des VR-Headsets steuern lassen. Samsungs GearVR weist außerdem noch ein
    Touchpad an der Seite sowie zwei Taster auf, die durch ein elektrisches Ankoppeln beim Einste-
    cken des Smartphones angeschlossen werden. Beide Hybridsysteme verfügen über einen eigenen
    App-Store, in welchem Anwendungen speziell für das spezifische Headset erworben und herun-
    tergeladen werden können. Google hat allerdings sein Daydream-System aufgegeben und verwal-
    tet aktuell nur noch den App Store. Dort gibt es sowohl noch Nutzer als auch Entwickler. Die neu-
    eren Smartphones von Google unterstützen Daydream nicht mehr. Auch Samsung hat sich von
    seiner GearVR-Plattform getrennt und diese an Oculus veräußert (https://www.oculus.com/gear-
    vr/). Hier sind anscheinend die Erwartungen an die eigene VR-Plattform nicht erfüllt worden: das
    zu Facebook gehörende Unternehmen Oculus VR entwarf gemeinsam mit Samsung GearVR, aber
    auch die eigenen Systeme Oculus Go, Oculus Rift S sowie Oculus Quest. Schon 2019 verkündete
    Oculus, dass man GearVR nicht weiter unterstützen wolle. Samsung integrierte sein VR-
    Ökosystem nicht mehr ins Samsung Galaxy S20 oder Note 10. Samsung-XR- und Samsung-VR-
    Videoclients erhalten keine Aktualisierungen mehr. Ab dem 30. Juni 2020 entfernte Samsung die
    Samsung-VR-Video-App aus dem Oculus Store, so dass man auch nicht mehr von der Oculus Go,
    der Oculus Rift und der Oculus Quest darauf zugreifen konnte. Ab dem 30. September 2020 wur-
    de die VR-Videoplattform Samsung XR eingestellt. Der Hersteller deaktiviert sämtliche Accounts

     29
und löscht diese Dateien auch. Bereits ab dem 15. September 2020 sind Entwickler nicht mehr in
der Lage, neue Apps für GearVR zu veröffentlichen. Ernsthafte Alternativen zu GearVR gibt es im
niedrigen Preissegment nicht, denn Samsungs Brille setzte zwar ein Galaxy-S-Smartphone voraus,
kostete aber sonst um die 100 Euro. Bezogen auf die Performance und das Gebotene kommt die
nach wie vor erhältliche Facebook Go (ca. € 160,-) sehr nach an Gear VR heran. Auch andere Her-
steller bieten mittlerweile VR-Headsets ab € 200,- an. Die sehr leistungsstarke Oculus Quest II ist
ab ca. € 350,- zu haben. Die Zeit wird zeigen, ob sich wieder ein Hersteller des Konzepts der hybri-
den VR-Headsets ernsthaft annimmt. Die zwei größten aktuellen Plattformen / Ökosysteme für
VR-Headset-Software sind zurzeit Oculus und Steam VR. Daher müssen diese beiden Plattformen
selbstverständlich auch in der weiteren Analyse berücksichtigt werden.
Der einfachste Weg, 3D- und 360°-Inhalte zu betrachten, liegt in der Verwendung von geeigneter
Viewer-Software. Die Lösungen unterscheiden sich hinsichtlich interpretierbarer Dateiformate,
Darstellungsformaten, Dateizugriff (nur lokal oder auch Netzwerk) oder der Fähigkeit, online-
Streaming-Daten aus dem WWW anzuzeigen. Eines der wichtigsten Unterscheidungskriterien ist
zudem, ob man
▪ nur einzelne Mediendateien (Bild, Video) betrachten will: hierfür sind die bedeutendsten 360°-
  3D-Viewer in Abbildung 33 kurz aufgeführt und dann in Abbildung 34 detaillierter verglichen.
▪ eine Tour durch sukzessive Foto-/Filmaufnahmen ("Panorama-Tour") unternehmen möchte:
  hierfür muss der Bereitsteller des Dienstes (der "Tour") eine kostenpflichtige Panoramatour-
  Software einsetzen. Die Ansicht solcher Touren ist in der Regel kostenfrei. Eine Übersicht mit
  Vergleich gängiger Panoramatour-Lösungen findet sich in Abbildung 35.

 30
Viewer-

                                                                                                Cardboard-Systeme
                                                                                                                    Google Daydream
                                                                                                                                      Samsung GearVR
                                                                          Hardware

                                                                                                                                                       Oculus Quest II
                                                                                                                                                                         Steam-Geräte
     App

                      DeoVR: komfortabler 3D-Dateiviewer für viele Plattformen, der lokal
                                                                                                ✓ ✓                                                    ✓ ✓
                      und in DLNA-Verbindungen sucht
                      Firefox Reality: WWW-Browser zum Einsatz in VR-Headsets; sehr wert-
                                                                                                                                                       ✓
                      volle Einstellmöglichkeiten für Streaming unter Oculus
                      GizmoVR: komfortabel, sehr gute Benutzerführung, sehr weite Verbrei-
                                                                                                ✓ ✓ ✓                                                                    ✓
                      tung, einzig verbliebener Browser für Cardboard-Systeme.
                      Google Cardboard App: für unsere Aufgaben leider untauglich.              ✓

                      HereSphere VR Player: auf SteamVR                                                                                                                  ✓
                      krpano / Video360player: dient als Streaming-Engine zur Integration
                      von Panorama-Videos auf Websites und Sozialen Medien. Ergebnis            ✓ ✓ ✓ ✓ ✓
                      kann in HTML5-Browsern abgespielt werden.
                      Oculus Browser: unterstützt schlecht VR-Streaming; einzige Option für
                      VR-Streaming für die GearVR                                                                                     ✓ ✓

                      Oculus TV: kann einige lokale Bilddateien darstellen, teils aber nur
                                                                                                                                                       ✓
                      verzerrt.
                      Orion360 (Finwe): SDK / Plattform für das kontrollierte Abspielen von
                      Content auf mehreren Endgeräten                                           ✓ ✓ ✓

                      Pigasus: sehr komfortable App mit sehr guter Benutzerführung, guter
                                                                                                                                      ✓ ✓
                      Netzwerkzugriff, den meisten erkannten Dateiformaten
                      Samsung Gallery: einfacher Viewer mit vielen Schwächen; interessant
                                                                                                                                      ✓
                      nur noch unter GearVR
                      SkyBox: unterstützt nur Videos, keine Bilder; läuft nur unter Steam und
                                                                                                                                                       ✓ ✓
                      Oculus
                      VRTV: recht komfortable App, die aber nur unter Google Daydream
                                                                                                                    ✓
                      läuft, dort aber vergleichsweise gut
                      YouTubeVR: zur Anzeige lokaler Dateien oder WWW-Inhalte; Schwä-
                      chen bei 360-3D-Streaming                                                 ✓                                                      ✓

Abbildung 33: Auflistung einiger bedeutender 360°-Viewer-Apps und -Hardware

31
Sie können auch lesen