RÜCKBLICK: Frame.IOs Camera to Cloud und der Atomos Shogun CONNECT von Kenny McMillan

Blog

HeimHeim / Blog / RÜCKBLICK: Frame.IOs Camera to Cloud und der Atomos Shogun CONNECT von Kenny McMillan

Apr 25, 2023

RÜCKBLICK: Frame.IOs Camera to Cloud und der Atomos Shogun CONNECT von Kenny McMillan

In dem ich den neuen Monitor/Recorder von Atomos testen kann, der das ermöglicht

Hier kann ich den neuen Monitor/Recorder von Atomos testen, der die Camera-to-Cloud-Funktionalität von Frame.IO ermöglicht.

Im vergangenen Jahr habe ich das Camera 2 Cloud-System von Frame IO in verschiedenen Situationen getestet und es hauptsächlich für unsere Live-Event-Berichterstattung für ProVideo, nämlich Cinegear, NAB und Adobe MAX, verwendet. Während dieser Veranstaltungen haben wir den Teradek Cube 655 verwendet, um das Filmmaterial während der Aufnahme an unseren Redakteur zu übertragen, was funktionierte, aber der Teradek war jedes Mal etwas knifflig, wenn ich versuchte, einen neuen einzurichten, da der Cube nicht für C2C gebaut war ursprünglich. Das war ein Knackpunkt für mich, aber die Lawine an Vorteilen überwog die kleinen Unannehmlichkeiten eines Nachteils. Glücklicherweise ist jetzt speziell entwickelte Hardware auf dem Markt und ich konnte eine Lösung testen, den Atomos Shogun Connect.

Falls Sie es nicht kennen: Camera 2 Cloud ist ein System, mit dem Sie etwas filmen können, und eine standardmäßige, aber spezifische Hardware, die Sie wahrscheinlich bereits am Set haben (ein Teradek, Monitor/Recorder usw.), sendet Proxys davon Senden Sie das Filmmaterial nahezu augenblicklich an Ihren Redakteur, der die Frame.IO C2C-Registerkarte im NLE Ihrer Wahl geöffnet hat. Jedes Mal, wenn Sie die Aufnahme beenden, erhält Ihr Redakteur ungefähr diese Zeit später eine Benachrichtigung, dass neues Filmmaterial heruntergeladen wird, und es steht ihm sofort zur Verfügung, um mit dem Schnitt zu beginnen. Sobald sie das Originalmaterial vom Set erhalten haben, können sie die Clips einfach wie gewohnt neu verknüpfen. Frame.IO hat eine technische Anleitung, wenn Sie sich das ansehen möchten. Das ist aus mehreren Gründen verrückt, aber ich zitiere immer gerne Michael Cioni, der sagte: „Es macht den linearen Prozess des Aufnehmens und anschließenden Bearbeitens parallel.“ Zeit ist Geld in dieser Branche, oder? Wenn man bereits während der Dreharbeiten mit dem Rohschnitt beginnt, verkürzt sich die Gesamtzeit erheblich, ohne dass der Editor übermäßig belastet wird. Mir gefällt auch die Idee, dass ein anderes Augenpaar, völlig unabhängig von der Hektik eines Sets, jeden eingehenden Clip beobachtet, analysiert und der Produktion mitteilt, dass etwas nicht stimmt, etwa ein fehlender Fokus, ein schlechter Clip für VFX , was auch immer der Fall sein mag, in Echtzeit. Dies bedeutet auch, dass andere nicht produktionsrelevante Mitglieder des Teams fernbleiben und Notizen machen können, ohne im Video Village oder im DIT-Zelt oder wo auch immer sein zu müssen.

Nun wollten wir für unsere Event-Berichterstattung so nah wie möglich an „First to Air“ sein, also haben wir nicht einmal das Original-Kameranegativ verwendet, sondern sind direkt mit den Proxies ins Internet gegangen und wissen Sie was: Es war in Ordnung. Da wir meine C500 verwendeten, musste ich lediglich die Kamera auf Rec709 einstellen (ich habe tatsächlich eine schöne benutzerdefinierte Ansichts-LUT, die ich erstellt hatte, über das HDMI-Kabel gesendet, um das Filmmaterial „vorzubewerten“) und die Mikrofone sicherstellen waren auf Kanal 1 und 2 und überwachten korrekt, so dass der Redakteur die Audiodaten von mir und der Interviewpartnerin zu Verarbeitungszwecken auf getrennten Kanälen hatte. Da wir für das Internet drehten und nicht einmal meine internen Aufzeichnungen nutzten, waren das auf den CFexpress-Karten gespeicherte Full-Fat-Filmmaterial und die internen 2K-Proxys auf der SD-Karte schöne redundante Backups. Wenn ich wirklich verrückt werden wollte, hätte ich jeden Clip auf beiden CFx-Karten speichern können, wodurch sich die Gesamtzahl der redundanten Clips in der Kamera zusätzlich zur Version in der Cloud auf 3 erhöht hätte, was mir . Das ist Arbeitsplatzsicherheit.

Als wir dies zum ersten Mal machten, hatten wir den Proxy-Encoder auf dem Teradek auf 15 Mbit/s eingestellt und fanden, dass das zu groß ist, um in einem so unregelmäßigen Verbindungsbereich wie in einem Kongresszentrum mit einer Menge WLAN-Signalen überall mit einer angemessenen Geschwindigkeit zu übertragen. Wir fanden heraus, dass 10 Mbit/s ein perfektes Gleichgewicht zwischen Qualität und Geschwindigkeit darstellten, und stellten später fest, dass 8 oder sogar 5 Mbit/s vollkommen akzeptabel waren. Denken Sie daran, dass es sich dabei um einfache Interviews oder von der Kamera aufgenommene Stücke handelt, die direkt auf YouTube übertragen werden, sodass wir keine 4K-Klarheit oder ähnliches benötigen. Abgesehen davon hatte ich einmal einen Perlglanzfilter auf dem Objektiv und die Blüte sah in dieser Umgebung ziemlich schlecht aus und hielt nach dem Proxieren nicht besonders gut, also machen Sie das vielleicht nicht. Wenn Sie sich die Videos selbst ansehen, werden Sie bestimmt keine merkwürdigen Blockierungen oder irgendetwas bemerken, das auch nur annähernd darauf hindeutet, dass wir einen Proxy mit so niedriger Bitrate verwenden. In manchen Fällen wirken unscharfe Dinge wirklich sehr unscharf, aber solange es sich um den Hintergrund und nicht um das Gesicht einer Person handelt, ist das in Ordnung. Für diese Off-Label-Nutzung des Systems ist das ein völlig akzeptabler Kompromiss … aber was wäre, wenn Sie stattdessen die Original-Kameranegative hätten? Glücklicherweise können der RED V-Raptor (und der Fujifilm XH2 mit Griff) .R3D-Dateien einsenden auf 8K-Auflösung und ProRes-Proxys nativ. Richtig, wenn Sie es wirklich wollten (und ohne zusätzliche Hardware über die Kamera selbst hinaus), könnten Sie diese .R3Ds einfach direkt von der Kamera, kabelgebunden oder drahtlos, in die Hände Ihres Redakteurs schicken, und schon haben Sie ein zusätzliches Vollformat Sichern Sie zusätzlich zu allem anderen auch Ihre Karten und Laufwerke am Set. DPs haben noch nie so tief geschlafen. Freuen Sie sich darauf, dass wir das dieses Jahr auf der NAB testen! Im Moment habe ich jedoch eine einfache Canon C500mkII und durfte den neuen Atomos Shogun Connect darauf testen. Es hat eine Weile gedauert, aber jetzt sind wir hier. Das Shogun Connect ähnelt dem Shogun 7, verfügt jedoch über einen neuen, 0,2 Zoll kleineren „SuperAtom“-IPS-Touchscreen mit 1920 x 1200 325 PPI (ähnliche Pixeldichte wie ein iPhone 11), der etwa 500 Nits heller ist als Das Original hat eine Leistung von 2.000 Nits (oder sie sind identisch, die Website liefert widersprüchliche Informationen) und verfügt offensichtlich über Netzwerkfähigkeiten. Außerdem sieht es so aus, als ob der Shogun 7 P3 ist, aber der Connect ist Rec709, also gibt es das. Das können beide Monitore sein Kalibriert mit normaler Hardware (in meinem Fall dem i1 Display Pro) in Verbindung mit Atomos Calibrator. Das Gerät selbst sieht erstklassig aus und startete ziemlich schnell, vielleicht ein paar Sekunden. Der Touchscreen reagiert, ist schön hell und das Menülayout ist intuitiv Es ist einfach zu bedienen und startet praktisch sofort los. Sie müssen lediglich sicherstellen, dass Ihre Eingabeeinstellungen korrekt sind (Kameratyp, Audioüberwachung, Timecode usw.) und dass es im richtigen Dateityp für Ihren Anwendungsfall gespeichert wird (was sich nicht auf Camera2Cloud auswirkt, sodass alles funktioniert). Zur Auswahl stehen ProRes, ProRes RAW, DNxHR, DNxHD und H.265, die die meisten Grundlagen für professionelles Arbeiten abdecken sollten.

Was die physischen Eingänge angeht, verfügen Sie über einen HDMI- und einen 12G-SDI-Anschluss mit einer Auflösung von bis zu 4:2:2 10 Bit, für die Ausgänge gilt dasselbe, und alle können eine Konvertierung in den anderen durchführen, sodass das Gerät eine Art Umschalter ist sowie. Der SDI-Anschluss zeichnet Metadaten für den Dateinamen von Arri und RED auf, aber sowohl er als auch der HDMI-Anschluss zeichnen Weißabgleich, Belichtungsindex, Verschlusszeit/-winkel, Blende, ISO, Gamma und Farbraum im RAW-Format auf. Ich habe auch herausgefunden, dass man Clips im Wiedergabemenü markieren kann, z. B. In/Out, Gut/Schlecht, welche Winkelnummer es ist, Person/Landschaft, B-Roll und alles Mögliche. Ich fand das cool.

Ich lasse Sie am Ende des Artikels mehr über die restlichen spezifischen Funktionen des Monitors erfahren, aber ich kann mit Sicherheit sagen, dass es sich um einen fantastischen Monitor/Recorder mit allen Hilfsfunktionen (Fase Color, Zebras, Waveform, Vectorscope) handelt usw.) könnte man brauchen. Lassen Sie uns über Camera to Cloud sprechen.

Das Einrichten von C2C war denkbar einfach. Ich musste lediglich eine Verbindung zu einem Netzwerk herstellen (ich habe mich für eine Kabelverbindung entschieden) und ein Foto eines QR-Codes machen, um das Gerät über Atomos Cloud mit meinem Frame.IO-Konto zu verbinden. Es hat nur 3 Minuten gedauert und „einfach funktioniert“, was eine tolle Erfahrung war, nachdem ich mich mit dem Teradek herumschlagen musste. Von da an habe ich einfach mein Projekt („C2CREVIEW“) ausgewählt und angefangen, einige Clips abzuspielen.

Um grobe Übertragungszeiten zu testen, habe ich einen kurzen Clip (19 Sekunden) und einen längeren Clip (3 Minuten und 36 Sekunden) abgespielt und festgestellt, dass die Übertragung etwas länger dauerte als die Laufzeit des Clips. Mit anderen Worten: Der 19-sekündige Clip stand 11 Sekunden, nachdem ich auf der Kamera auf „Stopp“ geklickt hatte, in der Warteschlange meines Frame.IO-Kontos und konnte insgesamt 28 Sekunden danach angesehen werden. Es dauerte 3 Minuten, bis die 3:36-Clips in der Warteschlange standen, und konnten 44 Sekunden später angeschaut werden. Wir haben festgestellt, dass diese Zeiten bei unseren längeren (10-20-minütigen) Clips, die wir auf den oben genannten Konferenzen aufgenommen haben, relativ ähnlich sind, und halten das für völlig angemessen, obwohl Ihre Verbindungsgeschwindigkeit die Dinge natürlich beeinflussen wird. Mein Heimnetzwerk hat eine maximale Upload-Geschwindigkeit von 20 Mbit/s und die drahtlose Verbindung, die wir vor Ort verwendeten, war tatsächlich viel schneller, wenn ich mich richtig erinnere. Spectrum Internet beeindruckt mich wieder einmal. Meine Download-Geschwindigkeit beträgt an einem guten Tag tatsächlich 300 Mbit/s, was mir wahrscheinlich auf jeden Fall dabei hilft, die Aufnahmen schnell aus der Cloud zu laden. Die Clips werden erst dann auf Ihren PC heruntergeladen, wenn Sie es dazu auffordern. Daher befinden sich alle Vorschauen, die Sie sich ansehen, in der Cloud und können daher nach Belieben schnell angesehen werden, ohne dass plötzlich ohne Ihr Wissen oder Ihre Erlaubnis die Laufwerke voll werden. Da meine Download-Geschwindigkeit ausgezeichnet ist, dauerte es etwa 1 Sekunde, Frame anzuweisen, die Dateien herunterzuladen (entweder in den Varianten „Original“, „Proxy Highest“ oder „Proxy Lowest“) und sie wurden parallel und nicht linear in den von mir ausgewählten Ordner heruntergeladen und automatisch zu meinem hinzugefügt Projekt.

Von dort aus bearbeiten Sie einfach wie gewohnt, wobei Clips im Frame.IO-Bedienfeld kommentiert und gezeichnet werden, wie Sie es erwarten würden, wenn Sie möchten. Ich habe alle 4 Audiokanäle des C500 in den Proxy-Dateien enthalten, aber wenn Sie separates Audio verwenden, können Sie entweder über die 3,5-mm-Buchse zum Monitor springen, zur Kamera selbst, wenn Sie das herausfinden können, oder einfach eine verwenden Sound Devices 888 oder Scorpio (mit korrektem Timecode) und diese Audiodateien können ebenfalls an das C2C-Projekt übertragen werden und sind bereits mit dem Video synchronisiert. Unglaublich. Es sind nicht nur Sound Devices-Recorder oder auch nur Shogun oder Teradek, die mit Camera to Cloud funktionieren; Es gibt eine Menge Hardware und Software, die Sie nutzen können, sogar bis hin zur Telefon-App Filmic Pro. Sie können CDLs von Livegrade, Dailies von ShotPut Pro und Silverstack, Kameraberichte mit Zoelog hinzufügen und sogar Hedge in Ihren Workflow integrieren, indem Sie das Frame.IO-Projekt als Zielordner festlegen. Es scheint, dass mit einiger Regelmäßigkeit weitere Integrationen hinzugefügt werden, das ist also toll zu sehen. Bald werde ich in der Lage sein, eines dieser Systeme für einen narrativen oder kommerziellen Dreh mitzunehmen, aber für den Moment muss dieser eher wissenschaftliche Testbericht ausreichen. Ich muss sagen, dass die oben erwähnte „Off-Label“-Nutzung der Veranstaltungsberichterstattung und die bloße Verwendung der Proxys als „Original“-Filmmaterial ein erstaunliches Werkzeug ist, das meiner Meinung nach viele Leute nutzen, darunter auch bestimmte Nachrichtenteams. Das Schöne an diesen Geräten ist, dass das Filmmaterial weiterhin auf dem Laufwerk des Monitors (oder der SD-Karte im Fall des 655) aufgezeichnet wird. Selbst wenn die Verbindung unterbrochen wird, wartet die Hardware also einfach darauf, dass die Verbindung wiederhergestellt wird, bevor sie fortfährt hochladen. Außerdem sagte mir ein Vertreter von Frame.IO, dass tatsächlich neun Backups in der Cloud erstellt werden, bevor Sie Ihren Clip erhalten, um sicherzustellen, dass Ihr Filmmaterial sicher ist. So wie es aussieht, bearbeite ich den Großteil der Inhalte, die ich drehe (ich leite eine kleine Produktionsfirma, das hält die Kosten also niedrig und die Einnahmen hoch), aber trotzdem würde so etwas wie „Camera to Cloud“ bedeuten, dass ich diese habe Die Dateien werden zu Hause gesichert, bevor ich dort ankomme, und sind bereits organisiert. Das ist nicht nichts! Ich war kürzlich in einer Situation, in der meine beiden CFexpress-Karten beschädigt waren (lange Rede, sie waren nicht von einer bekannten Marke, keine Sorge) und wenn ich dieses Filmmaterial zu Hause hätte, hätte ich mir zumindest einen Teil der Panik ersparen können. Bei diesem Projekt handelte es sich ohnehin um eine Webkomödie, die in 1080p gedreht wurde, sodass die Proxys zumindest einigermaßen dem entsprachen, was wir ohnehin verwendet hätten. Profi-Tipp: Schließen Sie Ihren Kartenleser an ein Chromebook oder Linux-Gerät an, irgendwie können diese nur schlechte Karten lesen. Auf diese Weise habe ich meine Aufnahmen von ihnen gemacht.

Ich habe das Gefühl, dass ich zu sehr von diesem Service begeistert bin, um objektiv sein zu können, weil ich nichts finden kann, was mir daran missfällt. Verbindungen lassen sich problemlos herstellen, die Hardware ist hervorragend, es werden ständig Weiterentwicklungen und Integrationen vorgenommen … Ich meine, Verbindungsgeschwindigkeiten sind sicherlich ein Faktor, aber das liegt im Wesentlichen zwischen Ihnen und Ihrem Dienstanbieter. Natürlich würde das Senden von 8K-R3D-Dateien über einen Mobilfunk-Hotspot eine Weile dauern, aber zumindest die Internetgeschwindigkeit ist etwas, das Sie planen oder berücksichtigen können. Meiner Meinung nach wird und sollte diese Technologie auf jedem Set vorhanden sein und über die Möglichkeit verfügen, sie auszuführen. Selbst wenn Ihr Redakteur nicht direkt vor Ort ist und darauf wartet, dass das Filmmaterial in den Papierkorb gelangt, ist dies für Remote-Arbeiten von großem Nutzen, da der Redakteur sich nicht in der Nähe des Benzintanks einer PA am Set befinden muss, um loszulegen und so weiter Laufwerke können konsolidiert und zu gegebener Zeit als ein Paket verschickt werden. Ich meine, selbst wenn Sie am Set überhaupt keine Live-Verbindung haben, können Sie nach dem Drehtag einfach in Ihr Zimmer zurückkehren und den Shogun an ein Ethernet-Kabel anschließen (zur Sicherheit wahrscheinlich auch an eine Steckdose). und schon geht es los, ohne dass Sie dafür etwas tun müssen. Wenn Sie dort eine Stunde Filmmaterial haben, würde die Übertragung, wie ich bereits sagte, wahrscheinlich etwa eine Stunde dauern. Das ist gar nicht so schlecht. Ich habe gesehen, dass CF-Karten bei einer stabilen USB-Verbindung länger brauchen.

Wenn Sie das Hauptabonnement „Alle Apps“ von Adobe Creative Cloud oder Premiere Pro/After Effects einzeln haben, verfügen Sie bereits über ein Frame.IO-Konto, das zwei Benutzer, fünf Projekte und 100 GB aktiven Speicher zusätzlich zu Camera to Cloud umfasst. Schüler und Lehrer mit einem individuellen All-Apps-Plan haben auch Zugriff auf Frame.io für Creative Cloud. Alle anderen müssen sich für ein Frame.IO-Konto anmelden und um C2C ​​zu erhalten, müssen Sie mindestens die Stufe „Pro“ wählen. Das kostenlose Kontingent umfasst die Standard-Überprüfungstools für bis zu zwei Projekte, Sie benötigen jedoch Pro, Team oder Enterprise, um die C2C-Funktionalität zu erhalten.

Vollständige technische DatenPhysikalische DatenAbmessungen (B x H x T mm) 198 mm / 7,8″ x 133 mm / 5,2″ x 40 mm / 1,57″Gewicht 730 g / 1,6 lbs

BefestigungspunkteOben: 1 x 1/4″20 oder 3/8″ mit Anti-Rotationspunkten, Unten: 1 x 1/4″20 oder 3/8″ mit Anti-Rotationspunkten, Rechts: 1 x 1/4″20 oder 3 /8″ mit Anti-Rotations-Punkten. Leistung. Eingangsspannung: 6,2 – 16,8 V. 1 x NP-F / L-Serie SlotLocking DC-Buchse (5,5 mm Außendurchmesser und 2,1 mm Innendurchmesser). Anschluss über optionales D-Tap-zu-DC-Kabel

Display7" Full HD 10-Bit (8+2 FRC) SuperAtom IPS-Panel (kapazitiver Touch)325 PPIRec709, 2000nit +/- 10%, KantenbeleuchtungKalibrierbar mit ColorChecker Display Pro oder Plus

Farbfunktionen Nahezu jedes Standard-Protokollformat und GamutLUT-Unterstützung (33pt CUBE)Native / 709 / HLG / PQ / 3D LUT-Überwachungsmodi

Videoeingang 1 x HDMI 2.01 x 12G SDI8/10 Bit Tiefe, 4:2:0 und 4:2:2

Videoausgang1 x HDMI 2.01 x 12G SDI1 x 12G SDIHDMI > SDI-KonvertierungSDI > HDMI-Konvertierung

MetadatenHDMIRAW – Weißabgleich, Belichtungsindex, Verschlusszeit/-winkel, Irisblende, ISO, Gamma, Farbraum

SDI-Dateiname von Arri, RED. RAW – Weißabgleich, Belichtungsindex, Verschlusszeit/-winkel, Irisblende, ISO, Gamma, Farbraum

Netzwerk1GbE RJ45 EthernetWi-Fi 6Wireless RF (AirGlu™ SYNC Timecode Network)Atomos Cloud (Capture to Cloud, Live Stream)Verbindung zum Hotspot über WLAN

Audioeingang/-ausgang 24-Bit / 48 kHz PCMHDMI: 8 Kanäle 24 Bit, eingangsabhängig SDI: 12 Kanäle 24 Bit, eingangsabhängig 3,5-mm-Klinkeneingang – 5-V-Stromversorgung 3,5-mm-Klinkenausgang + Kopfhörer

Auflösung und Bildraten (Aufnahme, Monitor und Wiedergabe) 4k DCI bis zu 4Kp604k UHD bis zu 4Kp602K DCI bis zu 2Kp60FHD bis zu 1080p1208K RAW bis zu 8Kp30 über HDMI6K RAW bis zu 6Kp60 über HDMI und 6Kp30 SDI4K RAW bis zu 4Kp120 über HDMI / SDI3 .5K Anamorphic RAW bis zu 3,5Kp60 über HDMI2K RAW bis zu 2Kp240 über SDI

Aufnahme CODECApple ProRes RAW bis zu 12bit 8Kp30 / 4Kp120Apple ProRes HQ / 422 / LT bis zu 4Kp60Avid DNxHD bis zu 1080p60Avid DNxHR bis zu 4Kp60H.265 C2C-Proxy-Aufzeichnung inklusive – Optionale Aktivierung für bis zu 4Kp60 (MOV-Container)Kamera-zu-Cloud-Unterstützung von Adobe Frame.io[Gleichzeitige Proxy-Aufzeichnung ProRes RAW* / ProRes / DNx mit H.265-Proxy in zukünftiger FW-Version verfügbar]

Unterstützte MedienSSDmini, CFast II über AtomX CFast-Adapter, Master Caddy III

On-Screen-Tools Wellenform, RGB-Parade, Vektorskop, 1x-2x-Zoom, Fokus-Peaking: Farbe und Schieberegler für Schwellenwert, Falschfarben mit IRE-Skala, Zebra, Farbkanal isolieren (nur Blau), sichere Bereiche, Cine- und Social-Frame-Guides (voreingestellt oder benutzerdefiniert). )Anamorphes Desqueeze (1,25x, 1,33x, 1,5x, 1,8x und 2x)Frame Grab und Onion Skin Overlay speichern verlustfreies Full HD PNG

Bestellen Sie heute

„… an Ihren Redakteur, der die Frame.IO C2C-Registerkarte in seinem NLE seiner Wahl geöffnet hat.“ Avid Media Composer hat also eine C2C-Registerkarte? Oder sollte dieser Satz lauten „wenn Sie Premiere oder Resolve verwenden“ oder so ähnlich?