1. 26m vom Dirigenten entfernt stehen 3 Kameras:
A) JVC 1080p25 durchlaufend, nur auf die Videoleinwand eingegrenzt,
B) Fuji X-T3 mit Ninja Inferno 2160p25, durchlaufend, eingegrenzt auf Videoleinwand mit Orchester und den im Orchester stehenden Solisten,
C) Fuji X-T2 2160p25 mit langem Zeiss, eingegrenzt nur auf die beiden Solisten, läuft mit Unterbrechungen.
2. Ebenfalls auf der Brücke, also 26m entfernt, der Platz des Videokünstlers, der nach Ton, die Bilder zum Projektor sendet, sein Signal 2160p25 mit Ton von seinem MacBook bekomme ich per capture auf SD.
3. Zum Ton:
a) 1 Mic für den Dirigenten, für einführenden Kommentar zu Beginn,
b) 2 hängende Saalmikrofone, 13 m entfernt vom Dirigenten und damit auch noch 13 weitere Meter bis zu den Mikrofonen der Kameras und dem Videomann,
c) Der H6 Audiorecorder verfügt über eigene Mikrofone und bekommt die Saalmikrofone vom Mischpult.
Meine Überlegungen zur Synchronisierung über Ton und Laufzeitverzögerung:
1 m Tonstrecke benötigt 3 ms; 1000 ms dividiert durch 25 fps ergibt 40ms für 1
frame.
Meine Kameras, der Videomann und die Mics des H6 hören 26x3=78 ms den Ton später.
Entspricht ziemlich gut 2 Frames.
Die Saalmics sind 13x3=39 ms später, entsprechend 1 frame.
Sollte ich also VOR der Synchronisierung mit Plural eyes die Tonspuren der Kameras und das capture um 2 frames nach vorne verschieben und die Spuren der Saalmics um 1 frame nach vorne?
Oder ist da ein Gedankenfehler.
Ergänzend dazu:
Mein System verfügt über 4 SSD‘s. Könnte es sinnvoll sein die 2160p25 clips auf diese zu verteilen?
Jetzt wird es Zeit diese lange Geschichte zu beenden.
Erwarte sehr gerne Eure Kommentare.
