Newsmeldung von slashCAM:
Ab dem 2. Februar wird der Verkaufsstart von Apples Vision Pro in den USA starten, in Deutschland rechnen Marktbeobachter gegen Ende des Jahres mit dem VR-Headset von App...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Kommt DaVinci Resolve auf Apple Vision Pro? Laut diesem Apple Tutorial Video: Ja.
Antwort von cantsin:
Wir hatten diese Diskussion doch schon lange im Forum.
Das Vision Pro bietet dieselbe Funktionalität wie AppleTV, das Display eines externen Macs via das drahtlose AirPlay 2-Protokoll zu spiegeln. Multiple Displays gibt es nicht, auch kein Verschieben von Fenstern im 3D-Raum, sondern einfach nur ein gespiegeltes Mac-Display in der Brille.
Natürlich läuft darauf jede beliebige Mac-Anwendung, auch Resolve. Wobei man noch sehen muss, ob die drahtlose Verbindung nicht für Probleme bei Latenz und Bilddarstellung (vor allem bei Bewegtbild!) sorgt. Zumal ja das Videosignal für den Luftweg noch einmal extra komprimiert werden muss.
Was soll bitte ein Game Changer oder besonders daran sein?
Seitens der Softwarehersteller ist dafür natürlich keine Anpassung der Anwendungen nötig. Es gibt daher auch Resolve "für Vision Pro". @slashcam, Eure Meldung ist ziemlich irreführend.
Und ob diese Lösung praxistauglich ist, kann man schon heute mit einem AppleTV testen.
Antwort von rob:
Hallo Cantsin,
verwirrt sollte hier niemand werden.
Vielmehr war die Idee, dass diejenigen, die sich noch nicht so intensiv mit der Vision Pro beschäftigt haben, eine Vorstellung erhalten, wie man mit der physischen Tastatur des Laptops auch in komplexen Programmen wie Resolve mit der Vision Pro unterwegs sein kann.
Ich bin mir da nicht so sicher, ob ein AppleTV als Vergleichserfahrung da wirklich ausreicht. Aber ich hab die Vision Pro auch noch nicht ausprobiert ...
Viele Grüße
Rob/
slashCAM
Antwort von cantsin:
rob hat geschrieben:
Ich bin mir da nicht so sicher, ob ein AppleTV als Vergleichserfahrung da wirklich ausreicht. Aber ich hab die Vision Pro auch noch nicht ausprobiert ...
Naja, zumindest, was die Leistungsfähigkeit des AirPlay 2-Protokolls angeht, bei der drahtlosen Übertragung des Arbeitsbildschirms. Denn die Vision Pro nutzt da dieselbe Übertragungstechnologie wie AppleTV. Im Prinzip ist das eine VNC-Lösung über WiFi. Man sollte also schon heute mit einem AppleTV testen können, ob z.B. Arbeiten mit einer Timeline ausreichend ruckelfrei und erträglich möglich ist.
Mehr Details hier:
https://www.macrumors.com/2024/01/11/ap ... erability/
Ansonsten zeigt Apples Video, dass die iPad-Version von Resolve auch auf der Vision Pro laufen wird. Aber auch da gilt die prinzipielle Einschränkung, dass iPad-Apps nur in einem 2D-Fenster laufen. Außerdem hat man dann den Nachteil, dass sich Resolve und das (rechenaufwendige) VisionOS-Betriebssystem dann die Hardware-Resourcen der Vision Pro teilen müssen und es auch nicht einfach ist, Videomaterial in die Vision Pro hochzuladen. (Und dass der interne Flash-Speicher der Vision Pro je nach Ausstattungsvariante auf 256GB/512GB/1TB beschränkt ist. Neben der Frage, wie gut das Touch-Interface ohne Touchscreen funktionieren wird...)
Antwort von Frank Glencairn:
cantsin hat geschrieben:
Außerdem hat man dann den Nachteil, dass sich Resolve und das (rechenaufwendige) VisionOS-Betriebssystem dann die Hardware-Resourcen der Vision Pro teilen müssen und es auch nicht einfach ist, Videomaterial in die Vision Pro hochzuladen. (Und dass der interne Flash-Speicher der Vision Pro je nach Ausstattungsvariante auf 256GB/512GB/1TB beschränkt ist. Neben der Frage, wie gut das Touch-Interface ohne Touchscreen funktionieren wird...)
Nur mal so verständnishalber, ich dachte Resolve läuft ganz normal auf dem Pad und die Vision ist nur der Monitor-Ersatz, oder hab ich da was falsch verstanden?
Antwort von Darth Schneider:
Resolve läuft auf dem iPad, bisher aber, noch nicht alles, nur die Cut,Color und quasi die Deliver Page.
Gruss Boris
Antwort von cantsin:
"Frank Glencairn" hat geschrieben:
Nur mal so verständnishalber, ich dachte Resolve läuft ganz normal auf dem Pad und die Vision ist nur der Monitor-Ersatz, oder hab ich da was falsch verstanden?
Das ganze ist in der Tat etwas verwirrend (und offenbar blickt auch die Slashcam-Redaktion nicht mehr völlig durch):
1.) Es gibt KEINE native Version von Resolve oder (soweit bisher bekannt) FCP für die Vision Pro bzw. für VisionOS.
2.) Stattdessen gibt es zwei Möglichkeiten, Resolve mit einer Vision Pro zu nutzen:
(a) Resolve läuft auf einem Mac, der mit der Vision Pro via AirPlay 2 (also VNC/remote desktop via Wifi) verbunden ist. Das Mac-Display erscheint dann als zweidimensionaler Schirm in der VisionPro, wobei dieselbe Technik genutzt wird wie beim Streamen/Spiegeln eines MacOS-Displays per Apple TV. Es gibt keine Möglichkeit, Resolve oder andere Mac-Anwendungen wirklich als Virtual Reality/3D-Anwendungen zu nutzen, sondern man bekommt dasselbe Interface wie im Mac. Auch ist nur
ein gespiegelter Bildschirm möglich, kein virtueller Multi-Monitor-Betrieb.
Wenn man also z.B. ein Macbook mit Resolve mit der VisionPro verbindet, sieht man in der VisionPro genau das, was auch auf dem Macbook-Display zu sehen ist, als 2D-Fenster/virtueller Bildschirm innerhalb der 3D-Umgebung, und bedient die Anwendung per Maus und Tastatur am realen Macbook. Die VisionPro fungiert dann faktisch nur als externes Display. Wobei noch die Frage ist, ob das bei Videoschnittprogrammen (mit ihren Echtzeit-Timelines) über Wifi wirklich gut funktioniert, hinsichtlich Auflösung/Streaming-Kompressionsartefakten, Bildwiederholrate und Latenz. Es gibt keine Möglichkeit, die Vision Pro mit dem Mac via HDMI zu verbinden.
(b) Die iPad-Version von Resolve läuft direkt auf der Vision Pro-Hardware und in VisionOS, weil VisionOS auch das Ausführen selektierter iOS- (bzw. iPhone- und iPad-) Apps beherrscht. Aber auch hier läuft das ganze nur 2D, sozusagen in einem virtuellen iPad-Fenster innerhalb der VR-Umgebung. Weil Resolve dann direkt auf der Vision Pro-Hardware läuft, bleibt noch abzuwarten, wie gut das in der Praxis funktioniert bzw. performt, weil sich die Resolve-App dann die CPU- und GPU-Resourcen mit der übrigen Systemumgebung von VisionOS teilen muss.
Auch ist noch die Frage, wie das Touch-Interface in VisionOS emuliert wird, und gibt es ganz praktische Beschränkungen z.B. beim Upload vom Videomaterial (sowohl hinsichtlich der physischen Schnittstellen, als auch des verfügbaren internen Speicherplatzes; man kann ja an die Brille nicht einfach so einen Kartenleser oder eine externe Platte anschließen...).
Antwort von Frank Glencairn:
Alles klar, Danke.
Antwort von rob:
Wenn du Resolve als mobile Version auf der Vision Pro laufen lässt, könnten hier die neuen Blackmagic Cloud Funktionen für das Einbinden von Material relevant werden.
Viele Grüße
Rob/
slashCAM
Antwort von Frank Glencairn:
.. was dann einen neuen Flaschenhals einbaut :D
Antwort von medienonkel:
Ja wie?
Ist's am Ende des Tages doch nur eine ziemlich dumme VR Brille mit virtuellen Glubschern an der Außenseite?
Zumindest in dem Video wird das Thema Arbeitsplatz durch das öffnen der Apple Mail app und das hören von Musik abgefrühstückt.
Und wenn dann resolve drauf läuft ist das Warten, bis das Stirnband mit rendern fertig ist bei Kippe drehen, Kaffee kochen oder Klopapier finden sicher auch wahnsinnig praktisch.
Aber hey, dank Apple kann man jetzt dann zum ersten Mal richtige Panoramafotos betrachten. Bzw. Panoramafotos richtig betrachten, also so ernsthaft. Pro eben.
Die einzige Tech-Demo ist dann was mit Dinosauriern, wie bei allen anderen VR Brillen auch.
Die Fingerzwickende Maushand ist in der Tat erstmal beeindrucken. Jedoch: wo ist der Rechtsklick, wie will man bei komplexeren Softwares sog. Tastaturkürzel nutzen...
Aber vielleicht kann man sich da ja selbst Gesten erstellen?
Mittelfinger links: Rückgängig machen
Mittelfinger rechts: wiederherstellen
Zeigefinger ins Loch: neuer Ordner
Usw.
Super wird's auch, wenn man gerade in diesem Relaxraum ist und der Mitbewohner geistgleich plötzlich eingeblendet wird.
Ich freu mich drauf, das wird top!
😉
Antwort von Rick SSon:
cantsin hat geschrieben:
"Frank Glencairn" hat geschrieben:
Nur mal so verständnishalber, ich dachte Resolve läuft ganz normal auf dem Pad und die Vision ist nur der Monitor-Ersatz, oder hab ich da was falsch verstanden?
Das ganze ist in der Tat etwas verwirrend (und offenbar blickt auch die Slashcam-Redaktion nicht mehr völlig durch):
1.) Es gibt KEINE native Version von Resolve oder (soweit bisher bekannt) FCP für die Vision Pro bzw. für VisionOS.
2.) Stattdessen gibt es zwei Möglichkeiten, Resolve mit einer Vision Pro zu nutzen:
(a) Resolve läuft auf einem Mac, der mit der Vision Pro via AirPlay 2 (also VNC/remote desktop via Wifi) verbunden ist. Das Mac-Display erscheint dann als zweidimensionaler Schirm in der VisionPro, wobei dieselbe Technik genutzt wird wie beim Streamen/Spiegeln eines MacOS-Displays per Apple TV. Es gibt keine Möglichkeit, Resolve oder andere Mac-Anwendungen wirklich als Virtual Reality/3D-Anwendungen zu nutzen, sondern man bekommt dasselbe Interface wie im Mac. Auch ist nur ein gespiegelter Bildschirm möglich, kein virtueller Multi-Monitor-Betrieb.
Wenn man also z.B. ein Macbook mit Resolve mit der VisionPro verbindet, sieht man in der VisionPro genau das, was auch auf dem Macbook-Display zu sehen ist, als 2D-Fenster/virtueller Bildschirm innerhalb der 3D-Umgebung, und bedient die Anwendung per Maus und Tastatur am realen Macbook. Die VisionPro fungiert dann faktisch nur als externes Display. Wobei noch die Frage ist, ob das bei Videoschnittprogrammen (mit ihren Echtzeit-Timelines) über Wifi wirklich gut funktioniert, hinsichtlich Auflösung/Streaming-Kompressionsartefakten, Bildwiederholrate und Latenz. Es gibt keine Möglichkeit, die Vision Pro mit dem Mac via HDMI zu verbinden.
(b) Die iPad-Version von Resolve läuft direkt auf der Vision Pro-Hardware und in VisionOS, weil VisionOS auch das Ausführen selektierter iOS- (bzw. iPhone- und iPad-) Apps beherrscht. Aber auch hier läuft das ganze nur 2D, sozusagen in einem virtuellen iPad-Fenster innerhalb der VR-Umgebung. Weil Resolve dann direkt auf der Vision Pro-Hardware läuft, bleibt noch abzuwarten, wie gut das in der Praxis funktioniert bzw. performt, weil sich die Resolve-App dann die CPU- und GPU-Resourcen mit der übrigen Systemumgebung von VisionOS teilen muss.
Auch ist noch die Frage, wie das Touch-Interface in VisionOS emuliert wird, und gibt es ganz praktische Beschränkungen z.B. beim Upload vom Videomaterial (sowohl hinsichtlich der physischen Schnittstellen, als auch des verfügbaren internen Speicherplatzes; man kann ja an die Brille nicht einfach so einen Kartenleser oder eine externe Platte anschließen...).
Wenn ich virtuell nicht mal
desktoperweiterung habe, dann is das Ganze doch einfach nur ein sehr teurer und umständlicher umweg nicht mehr in der „realität“ auf einen bildschirm
zu glotzen. Wobei ich eigentlich nur in der realität auf einen anders geformten bildschirm glotze.
Antwort von Axel:
"Rick SSon" hat geschrieben:
Wenn ich virtuell nicht mal
desktoperweiterung habe, dann is das Ganze doch einfach nur ein sehr teurer und umständlicher umweg nicht mehr in der „realität“ auf einen bildschirm
zu glotzen. Wobei ich eigentlich nur in der realität auf einen anders geformten bildschirm glotze.
Blackmagic gelang die Portierung von Resolve auf iPadOS deshalb so gut, weil es konsequent ver
einfachte. Das, was man mit Touch- und Pen-Gesten direkt am farbverbindlichen Bild machen konnte, wurde umgesetzt. Wie diese VisionOS-Review mE ganz gut zeigt (und wie es der Reviewer sagt), bedeuten multiple virtuelle Bildschirme eine Verkomplizierung des Arbeitsumfeldes, die in Richtung Multitasking-Anforderungen tendiert:
Falls nicht, was ja immerhin möglich wäre, eine native VisionOS-Version von Resolve, mit schlicht einem virtuellen, fixen Arbeitsplatz kommt. Das könnte die ansonsten sicherlich erheblichen Ressourcen, die ür AR-Berechnung verbraten werden, etwas eindämmen. Und statt Sidecar, also Wlan, als Videozuspieler verwenden zu müssen, könnte es kabelgebundene Anschlüsse geben. Das ist im Moment freilich nicht gegeben, afaik.
Antwort von dienstag_01:
Also, ich setzte einen Probanden vor einen Screen und zeige ihm meinen Lieblingsfilm (also meiste Geld).
Während er/sie sich den Film anschaut, filme ich das Gesicht des Probanden (unbedingt zentral).
Danach nehme ich die Apple Brille und stülpe sie über den Monitor meiner Kamera (muss nicht das neuste Modell sein).
Ich starte Resolve.
Film, also Gesicht ab.
Alles klar?!
Das Gesicht wird "ausgelesen".
Jetzt muss ich nur noch genug Stock Footage bzw. KI-generiertes Material in meinem Media Pool liegen und dann...
Antwort von BigT:
medienonkel hat geschrieben:
Ja wie?
Ist's am Ende des Tages doch nur eine ziemlich dumme VR Brille mit virtuellen Glubschern an der Außenseite?
Zumindest in dem Video wird das Thema Arbeitsplatz durch das öffnen der Apple Mail app und das hören von Musik abgefrühstückt.
Und wenn dann resolve drauf läuft ist das Warten, bis das Stirnband mit rendern fertig ist bei Kippe drehen, Kaffee kochen oder Klopapier finden sicher auch wahnsinnig praktisch.
Aber hey, dank Apple kann man jetzt dann zum ersten Mal richtige Panoramafotos betrachten. Bzw. Panoramafotos richtig betrachten, also so ernsthaft. Pro eben.
Die einzige Tech-Demo ist dann was mit Dinosauriern, wie bei allen anderen VR Brillen auch.
Die Fingerzwickende Maushand ist in der Tat erstmal beeindrucken. Jedoch: wo ist der Rechtsklick, wie will man bei komplexeren Softwares sog. Tastaturkürzel nutzen...
Aber vielleicht kann man sich da ja selbst Gesten erstellen?
Mittelfinger links: Rückgängig machen
Mittelfinger rechts: wiederherstellen
Zeigefinger ins Loch: neuer Ordner
Usw.
Super wird's auch, wenn man gerade in diesem Relaxraum ist und der Mitbewohner geistgleich plötzlich eingeblendet wird.
Ich freu mich drauf, das wird top!
😉
Ich hatte darauf gehofft, so einen Beitrag zu finden 😄
Einfach um nicht das Gefühl zu bekommen allein zu sein.
Sagenhaft was alles versucht wird, um uns immer noch mehr Kram anzudrehen.
Antwort von medienonkel:
BigT hat geschrieben:
medienonkel hat geschrieben:
Ja wie?
Ist's am Ende des Tages doch nur eine ziemlich dumme VR Brille mit virtuellen Glubschern an der Außenseite?
Zumindest in dem Video wird das Thema Arbeitsplatz durch das öffnen der Apple Mail app und das hören von Musik abgefrühstückt.
Und wenn dann resolve drauf läuft ist das Warten, bis das Stirnband mit rendern fertig ist bei Kippe drehen, Kaffee kochen oder Klopapier finden sicher auch wahnsinnig praktisch.
Aber hey, dank Apple kann man jetzt dann zum ersten Mal richtige Panoramafotos betrachten. Bzw. Panoramafotos richtig betrachten, also so ernsthaft. Pro eben.
Die einzige Tech-Demo ist dann was mit Dinosauriern, wie bei allen anderen VR Brillen auch.
Die Fingerzwickende Maushand ist in der Tat erstmal beeindrucken. Jedoch: wo ist der Rechtsklick, wie will man bei komplexeren Softwares sog. Tastaturkürzel nutzen...
Aber vielleicht kann man sich da ja selbst Gesten erstellen?
Mittelfinger links: Rückgängig machen
Mittelfinger rechts: wiederherstellen
Zeigefinger ins Loch: neuer Ordner
Usw.
Super wird's auch, wenn man gerade in diesem Relaxraum ist und der Mitbewohner geistgleich plötzlich eingeblendet wird.
Ich freu mich drauf, das wird top!
😉
Ich hatte darauf gehofft, so einen Beitrag zu finden 😄
Einfach um nicht das Gefühl zu bekommen allein zu sein.
Sagenhaft was alles versucht wird, um uns immer noch mehr Kram anzudrehen.
Also, ich denke schon wirklich, dass die hier gebotene Hardware echt außergewöhnlich toll und die Interaktion ohne Controller was echt Neues sind.
Alldeweil aber selbst im Promo Gewäsch nichts wirklich neues im Sinne der "Erfahrung" geboten wird.
Was meiner Meinung nach eine Killer Applikation sein könnte, wäre es einfach die Möglichkeit zu bieten virtuelle Control Boards nach Belieben zu erstellen.
Einfach mal einen kleinen audio Mischer mit anfassbaren Fadern fürs berühren bauen. Der hängt dann so vor einem rum...Oder auch virtuelle Instrumente generell.
Ich sehe dasnur ... Joa, nix neues bei den Anwendungsmöglichkeiten
Antwort von BigT:
medienonkel hat geschrieben:
BigT hat geschrieben:
Ich hatte darauf gehofft, so einen Beitrag zu finden 😄
Einfach um nicht das Gefühl zu bekommen allein zu sein.
Sagenhaft was alles versucht wird, um uns immer noch mehr Kram anzudrehen.
Also, ich denke schon wirklich, dass die hier gebotene Hardware echt außergewöhnlich toll und die Interaktion ohne Controller was echt Neues sind.
Alldeweil aber selbst im Promo Gewäsch nichts wirklich neues im Sinne der "Erfahrung" geboten wird.
Was meiner Meinung nach eine Killer Applikation sein könnte, wäre es einfach die Möglichkeit zu bieten virtuelle Control Boards nach Belieben zu erstellen.
Einfach mal einen kleinen audio Mischer mit anfassbaren Fadern fürs berühren bauen. Der hängt dann so vor einem rum...Oder auch virtuelle Instrumente generell.
Ich sehe dasnur ... Joa, nix neues bei den Anwendungsmöglichkeiten
Das mit den virtuellen Control Boards war auch immer so eine Vision die ich in Bezug auf die Bedienung virtueller Synthesizer hatte.
Trotzdem habe ich mir jetzt auf die Rente hin wieder ein paar richtige Hardwarekisten gekauft, wo das direkte Schraub-Erlebnis auf fixe Parameter pro Regler mit haptischem Feedback einfach durch nichts zu ersetzen ist. Das Gleiche gilt für den nach heutigen Automatisierungs-Massstäben äusserst rudimentären Allen&Heath Mischer aus den 90ern, den ich dafür wieder reaktiviert habe. Passt Alles und klingt grossartig.
Aber vielleicht werden jüngere Generationen mit diesem Brillenzeugs irgendwo hinkommen, wo ich dann auch anerkennend nicken muss.
Ich lasse mich gerne überraschen. Wie immer zählt letzten Endes das Ergebnis.
Antwort von cantsin:
Laut diesem Erfahrungsbericht...
...wird jegliche Form von echtem, dauerhaften Arbeiten auf der Vision Pro unmöglich sein, weil das Headset viel zu schwer ist und der Kopf schon nach wenigen Minuten wehtut, wenn man das Headset aktiv mit Kopfbewegungen nutzt (und nicht nur passiv in einem Stuhl mit Kopflehne z.B. einen Film ansieht).
Antwort von pillepalle:
Das Gewicht kann man doch einfach mit einem Easyrig beheben :)
VG
Antwort von Darth Schneider:
Warum reden dann so viele von dauerhaft arbeiten mit dem Ding auf dem Kopf ?
Der Akku hält ja eh nur für 2 Stunden…
Ich denke damit muss man warten bis das Apple Glass kommt und ausschaut wie eine normal Brille.
Ganz ohne Mac Computer drin verbaut.
Was das Gewicht anbelangt, mit dem Helm den ganzen Tag auf dem Motorrad geht scheinbar ganz locker..;))
Gruss Boris
Antwort von medienonkel:
Man muss halt diesen Zusatzakku hinten als Gegengewicht nehmen.
Anderswo holt man 30 Liter Wasser aufm Kopf.
Der nette Grummelbär hier versucht ja gerade eine zu bestellen