Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Infoseite // Apropo 4/3" Kameras sind die Zukunft



Frage von aight8:


Es gibts ja schon die ersten gross Sensor Kameras. Viele sagen auch das die EX1 bereits veraltet ist, alles geht richtung FS100 und AF100. Grosse Sensoren werden regieren. Wie bitteschön? Ist aber nicht wirklich so oder?

Ich meine wenn man mit offener Blende filmen möchte, wird man immer eine extreme Tiefenschärfe haben. Und Autofokus hat man z.Z. auch nicht wirklich, aber das ist was anderes.

Wie siehsts mit den 3 Sensoren aus? Bei einem grossem Sensor, kann man kaum 3 Blöcke verwenden. Haben die andere vorteile die ein grosser Sensor nicht hat?

Sonst gäbe es ja nichts gegen grosse Blöcke. Mann könnte einen riesen Füllfaktor erreichen bei 2 Megapixel die für Full HD benötigt werden. Wieso macht man das nicht?

Space


Antwort von Bernd E.:

...Viele sagen auch das die EX1 bereits veraltet ist, alles geht richtung FS100 und AF100. Grosse Sensoren werden regieren...Ist aber nicht wirklich so oder?... Nein, so pauschal kann man das nicht sagen. Genausowenig wie es die vorigen 100 Jahre die eine Kamera gab, die für alle Zwecke ideal war, wird es so eine in Zukunft geben. Alle von der Actionkamera bis zur Sony F65 haben ihren Bereich, in dem sie überragen, und viele andere Bereiche, in denen sie unpraktisch bis untauglich sind. Es kommt immer darauf an, was man vorhat. Wenn der Modetrend von dem derzeitigen Minischärfentiefe-Wahn aber demnächst umschwenkt auf den 3D-Wahn, dann werden ohnehin wieder alle möglichst kleine Sensoren haben wollen ;-)
...Sonst gäbe es ja nichts gegen grosse Blöcke. Mann könnte einen riesen Füllfaktor erreichen bei 2 Megapixel die für Full HD benötigt werden. Wieso macht man das nicht?... Man macht es ja durchaus bereits. Sony verwendet in der F3 und der FS100 einen S35mm-Sensor, der nur knapp über drei Megapixel hat (zwei Megapixel wären etwas wenig, da ja durch den Bayer-Filter einiges verlorengeht). Andere Kameras, die eher den Durchschnittskunden mit seiner Denkweise "Je mehr Pixel, desto besser ist die Kamera" ansprechen oder eigentlich filmende Fotoapparate sind, schlagen sich da bei gleicher Sensorgröße mit mehr als dem Fünffachen herum.

Space


Antwort von WoWu:

@aight8

Du spricht die Freistellungmerkmale an. Aber die hängen nicht mit grossen Sensoren zusammen sondern mit dem Pixel-Pitch, den ein Sensor aufweist.
Du kannst also ebenso mit einem relativ kleinen Sensor eine geringe Tiefenschärfe erzeugen.
Und die Unterschiede sind gar nicht so gross.
Der Unterschied zwischen einer 5D und der GH2 ist beispielsweise etwa 2 Blenden (Ratio 1,7) obwohl der Sensor nicht mal ein Viertel der Grösse hat.
Nimmst Du also ein lichtstarkes Objektiv auf die GH2 bist du fast schon da.

Die Grösse des Bauteils wird sich also an der grösse des Pixels orientieren müssen und wenn Du 1920 bei 7µ PP erreichen willst, bist du auch bei 14mm. Das ist von den 18mm des 4/3" nicht wirklich weit weg.

Wichtiger wäre es vielleicht, dass mal einer anständig zu bedienende Objektive auf den Markt bringt und dies "Gefummel" an den Photooptiken aufhört. Bisher geht es nur mit Kinoobjektiven und die sind durch die Bank deutlich teurer als all das, was man an den billigeren Kameraköpfen ggf. einspart.
Warum also dann nicht gleich zur Alexa oder Flex greifen.

Space


Antwort von aight8:

Ich dachte, das man eine kleine Tiefenunschärfe nur mit grossen Sensoren erreichen kann.

Es ist doch ein physikalisches Hinderniss das man bei Dunkelheit, die Blende öffnet und dadurch die DOF klein wird. Wäre es dann auch möglich die Lichtstärke eines grossen Sensor mit offener Blende auszunützen ohne viel DOF zu haben? Oder sind wir da an der physikalischen Grenze?

Die Canon 5D ist etwa genauso Lichtstark wie die FS100 obwohl die 5D weit viel mehr Megapixel hat und dementsprechend kleinere Pixel. Nun, arbeitet da die 5D mit Pixel Pitch? Dann wäre das Bild ja heller als bei den Fotos weil mehrere Pixel zusammenarbeiten. Ich habe zwar gelesen die 5D lassen bei Video Aufnahmen einfach Zeilen aus was dann auch zum Moire Artefakten führt.

ps: Ich sehe gerade ich vewechsle Pixelpitch mit der Technik mehrere nebeneinanderliegende Pixel zusammenzufassen um so Lichtstärker zu sein.

Space


Antwort von crassmike:

Es ist doch ein physikalisches Hinderniss das man bei Dunkelheit, die Blende öffnet und dadurch die DOF klein wird. Wäre es dann auch möglich die Lichtstärke eines grossen Sensor mit offener Blende auszunützen ohne viel DOF zu haben? Oder sind wir da an der physikalischen Grenze? Das ist nunmal das Prinzip - offene Blende und / oder großer, lichtempfindlicher Sensor ergibt niedrige Tiefenschärfe..

Aber die Technik schreitet ja auch voran, und ich bin mir sicher, dass in Zukunft auch kleine Sensoren entwickelt werden, die empfindlicher sind und mit besserer Rauschreduzierung bei höheren ISO Werten arbeiten.
Sehen wir ja jetzt schon, wie die GH2 besser im Lowlight aufnimmt, als ihre Vorgängerin. Und die GH3 wird mit noch besserer Lowlight - fähigkeit angekündigt.

Für den Broadcast-Bereich wird das nützlich sein, wo 1/3 und 2/3 " Chips die Regel sind. Und das wird sich so schnell nicht ändern..
Mit DSLR und Großchipper lässt sich journalistisch auch arbeiten, es ist eben schwieriger..

Aber für den Indie-Cine-Bereich frage ich mich, warum 4/3 kein gutes Format sein soll - nicht zu groß und nicht zu klein - jetz muss es nur noch gute Videolinsen dafür geben..

MfG

Space


Antwort von WoWu:

@aight8
Ich dachte, das man eine kleine Tiefenunschärfe nur mit grossen Sensoren erreichen kann. Das ist ein Trugschluss.
Die Canon 5D ist etwa genauso Lichtstark wie die FS100 obwohl die 5D weit viel mehr Megapixel hat und dementsprechend kleinere Pixel. Nun, arbeitet da die 5D mit Pixel (Pitch) Binning ? Dann wäre das Bild ja heller als bei den Fotos weil mehrere Pixel zusammenarbeiten. Ich habe zwar gelesen die 5D lassen bei Video Aufnahmen einfach Zeilen aus was dann auch zum Moire Artefakten führt. Die 5D lässt keine Zeilen aus. Sie arbeitet mit Pixelbinning.
Dadurch wird zwar pro Pixel nicht mehr Ladung erzeugt, weil nach wie vor gleichviel Photonen auf den Sensor auftreffen, aber der Störabstand wird durch das Binning deutlich vergrössert, sodass man höher verstärken kann, ohne dass die Rauschartefakte sichtbar werden.
Das Bild wird also nicht heller ... es wird bei hohen Verstärkungen nur rauschfreier dargestellt und generiert so ein verwertbares Bild bei wenig Licht. Unter "Normalbeleuchtung" wirst Du (in Bezug auf die Belichtung) also keinen Unterschied sehen.
Wenn Dich das Thema interessiert, Binning, Störabstand und DoF habe ich in meinem Buch sehr ausführlich beschrieben (nur im neusten Download).

@crassmike Aber für den Indie-Cine-Bereich frage ich mich, warum 4/3 kein gutes Format sein soll - nicht zu groß und nicht zu klein - jetz muss es nur noch gute Videolinsen dafür geben.. Das ist gerade das Problem. den Leistungsstandard von professionellen Objektiven in Bezug auf die Brennweiten und die Haptik auf die neuen Sensoren zu übertragen. Möglich wird es vielleicht noch sein, aber ob sie dann auch noch bezahlbar sind, ist die Frage. .... Und natürlich dann auch die Grösse (Gewicht).
Wenn man die Produktionen mal betrachtet, die kommerziell mit der 5D gemacht worden sind, reicht ein Blick auf die verwendeten Objektive ... alles CINE Priems + Adaption, riesengross und unerschwinglich.

Space


Antwort von Scallywag:

Du spricht die Freistellungmerkmale an. Aber die hängen nicht mit grossen Sensoren zusammen sondern mit dem Pixel-Pitch, den ein Sensor aufweist.
Du kannst also ebenso mit einem relativ kleinen Sensor eine geringe Tiefenschärfe erzeugen. Der Pixelpitch hat erst mal gar nichts mit der Freistellung zu tun, denn er beschreibt nur den Abstand der Pixel zueinander. Auf einem gleich großen Sensor erreiche immer die exakt selbe Freistellung, egal ob dieser nun 6MP oder 21MP hat und sich dadurch der Pixelptich erheblich unterscheidet.

Das es eine Beugung gibt ist bekannt, und hier spielt der Pixelpitch tatsächlich eine Rolle, nämlich bei der fürderlichen Blende.

Freistellung hat also nur mit der Sensorgröße, der Blende und mit der Brennweite zu tun.

Um mit einen kleinen Sensor eine geringe Tiefenschärfe zu erzeugen, hilft nur eine große Brennweite und eine große Blendenöffnung.

Space


Antwort von WoWu:

Das ist ein weit verbreiteter Irrtum denn die Tiefenschärfe ist unabhängig von der Gesamtgrösse des Sensors und entsteht ausschliesslich an jedem einzelnen Pixel in der Gaussschen Bildebene.
Dort entsteht für jeden Bildpunkt ein System aus konzentrischen hellen und dunklen Ringen um einen zentralen Kern (Airy-Scheibchen). Und es ist völlig egal, oben das ein grosser oder ein kleiner Sensor ist. Lediglich die Pixelgrösse und damit das Pitch des Sensors ist massgeblich.

Space


Antwort von Scallywag:

Dazu hätte ich gerne eine Quelle, denn meinem Verständnis nach kann das nicht sein.

Das ist ein weit verbreiteter Irrtum denn die Tiefenschärfe ist unabhängig von der Gesamtgrösse des Sensors und entsteht ausschliesslich an jedem einzelnen Pixel in der Gaussschen Bildebene.
Dort entsteht für jeden Bildpunkt ein System aus konzentrischen hellen und dunklen Ringen um einen zentralen Kern (Airy-Scheibchen). Und es ist völlig egal, oben das ein grosser oder ein kleiner Sensor ist. Lediglich die Pixelgrösse und damit das Pitch des Sensors ist massgeblich.

Space



Space


Antwort von cebros:

Kann das irgendwie auch nicht so recht glauben...

Space


Antwort von WoWu:

@ Scallywag
Gauche Lehre ... in jeder besseren Bibliothek

@cebros
Das hat nicht viel mit Glauben zu tun.
Das, was sich da abspielt spielt sich ausschliesslich auf der optischen Ebene ab und theoretisch ist es egal, ob dahinter ein Sensor, ein Film oder ein stück Papier hängt. Es geht ausschliesslich um die Parallelität des Lichtkegels.
Blenden(Nummern) sind nur Verhältniszahlen, von denen ich erst durch eine Zwischenrechnung auf den Durchmesser des Lichtkegels komme.
Sorge ich aber dafür, dass der Lichtkegel bei unterschiedlichen Kameras (und Sensoren) einen identischen Durchmesser hat, generiert das immer dieselbe Tiefenschärfe.
Das projizierte Ereignis als Resultat aus der Objektivprojektion ist immer gleich. Und zwar auf der Basis eines einzelnen Lichtpunktes. Und in der Summe natürlich des gesamten Bildes, egal aus wieviel Bildpunkten es sich zusammensetzt.
Tiefenschärfe gilt für einen Bildpunkt ebenso wie für SD, HD, 4k oder 8k oder was auch immer.
Erst danach wird es interessant, wie es auf dem Medium (Film, Sensor, usw. verarbeitet wird) Dort ist aber egal, ob es sich um einen kleinen Sensor in seinen mechanischen Ausmassen handelt, oder um einen grossen Sensor. sondern lediglich, wie gross die einzelnen Pixels sind, also welchen Bereich des Zersteuuungskreis sie aufzunehmen in der Lage sind.)

Aber, wie gesagt ... nachlesen hilft.

Space


Antwort von Scallywag:

Ich bleibe dabei, die Schärfentiefe hängt von der Sensorgröße ab.
Zumindest wenn man mit Optiken vergleicht, die die selbe Bilddiagonale an verschieden roßen Sensoren darstellen.

Beispiel Vollformat gegen mFT:

Wenn ich ein Vollformatobjektiv an eine mFT-Cam adaptiere, leuchtet die Optik einen vier mal kleineren Sensor aus. Das bedeutet letztendlich, dass 75% des Lichts gar nicht auf den kleinen Sensor fallen, sondern daneben gehen. Wähle ich nun exakt den selben Aufnahmeabstand, habe ich sowohl bei VF als auch bei mFT exakt die selbe Freistellung. Allerdings ist das Motiv bei mFT vier mal so groß, so dass ich letztendlich für die sinnvolle Nutzung weiter weg gehen müsste. Soweit korrekt.

Es muss also ein Objektiv mit kleieres Brennweite her, damit es wieder passt. Kleinere Brennweite bedeutet aber auch, größere Schärfentiefe. Doch diese kleinere Brennweite muss ich ja haben um den kleineren Sensor komplett auszuleuchten. Ergo, wir die Schärfentiefe durch das Sensorformat bestimmt. Das es dazu eine andere Linsenkonstruktion bedarf ist doch nur die logische Schlussfolgerung.

Space


Antwort von Jan:

Hallo,

da der einzelne Pixel bei einem grösserem Sensor meist grösser ist, haben ja wohl beide Seiten recht.


Gibt es das überhaupt, dass ein deutlich grösserer Sensor wirklich kleinere Pixel hat, als ein viel kleinerer Sensor ?

Dürfte wohl eher selten sein.


VG
Jan

Space


Antwort von WoWu:

Wenn man mal die optische Projektion, an der die eigentliche Tiefenschärfe stattfindet ausser Acht lässt, und nur das Projektionsmedium betrachtet, also die Übertragung einer entstandenen Tiefenschärfe, dann geht es um die Menge der Photonen pro Photozelle.
Ist die Photonenmenge identisch, was bei zwei Lichtkegeln identischen Durchmessers -nicht identischer Blende- der Fall ist, wird die identische Tiefenschärfe dargestellt, egal ob grosser oder keiner Sensor.
Die Verteilung ist bei kleinen Pixels nur so, dass die geringere Photonenmenge nachverstärkt werden muss, um einen identischen Störabstand zu erhalten. Aber Gain (oder ISO oder wie immer man es nennt) geht nicht ins DoF ein.

@Jan
Mein Beispiel oben vergleicht die 5D mit der GH2 und mit einem Cineprime, das lichtstark genug ist, bekomme ich eine geringere Tiefenschärfe auf einem kleineren Sensor und trotz geringeren PPs als auf einer 5d mit Standardobjektiv.
(und hier ging es ja um 4/3"). Der Unterschied ist genau Faktor 1,7 also knapp 2 Blenden und das DoF ist identisch, trotz kleineren Sensors.
Letztlich ist es also eine reine Frage der optischen Projektion und hat zunächst einmal nichts mit dem Sensor zu tun und schon gar nichts mit der Grösse.

Edit:
Nur mal losgelöst von der Grundsatzdiskussion finde ich, dass einer der derzeit interessantesten Sensoren der in der FS100 und FS3 ist.
Wenn man den Veröffentlichungen glauben kann, macht der auf 23,6 mm 2.448 Pixels = Pixelpitch von 9,6µ.
Das sind anständige Werte, bei denen man auch mal wieder abblenden kann, ohne dass die Schärfe gleich in die Binsen geht.
Auch müssen die Objektive nur noch rd 50 Lp/mm leisten und werden erschwinglich. Oder man benutzt CineOptiken, die von den Anforderungen wenigstens Bewegtbild angepasst sind und nicht dies Fotoobjektiv-Gefummel.
Das sind alles gute Voraussetzungen.
Betrachtet man dagegen die 4/3" mit ihren 3,76µ und einer daraus resultierenden Objektivanforderung von 133 Lp/mm, weiss man auch, warum die GH2 so "angespitzt" ist.
Ich bin mal auf die weiteren Leistungen der Sony gespannt.
Das könnte schon die Lösung werden.
Also .. insofern ist 4/3" in der bestehenden Form (weil Fotoapparat) noch nicht optimal.

Space


Antwort von cebros:

Da wir bei HD immer von 1920x1080 Pixel ausgehen, ist die Pixelgrösse direkt abhängig von der Sensorgrösse. So ist es schlussendlich doch wieder die Grösse des Sensors, die entscheidend für die Schärfentiefe bzw. Tiefenunschärfe ist.

Space


Antwort von WoWu:

Das ist ein weiterer grosser Trugschluss, weil es auf die Binningmethode ankommt, die angewandt wird und wie das Abtastpattern aussieht denn erst danach wird das Demosaiking gemacht.

Space


Antwort von Harald_123:

In Wikipedia gibt es Formeln zur Berechnung der Schärfentiefe und auch von der (von dieser unterschiedenen) "Wellenoptischen Schärfentiefe".
Im ersten Fall wird sie über ein 1/1500 der Formatdiagonale gefunden. Hier sehe ich den Zusammenhang mit dem Pixelpitch z. Zt. nicht, sobald genug Pixel zur Auflösung von 1/1500 der Diagonale verfügbar sind.
Im zweiten über die Airyscheibchen (Rayleighsche Schärfentiefe). Das hat mit dem Pixelpitch zu tun, klar. Und der Wellenlänge des Lichts, die das Ergebnis um bis zu etwa 100% schwanken lässt (380 nm bis 780 nm).


Vielleicht etwas OT:

Es heißt doch z. B. "Wassertiefe" und "Schranktiefe".
Es heißt nicht "Tiefenwasser" und "Tiefenschrank", wenn man etwas über die gesamte geometrische Tiefe des Wassers oder Schranks sagen möchte.

Warum also nicht wie Wikipedia bei "Schärfentiefe" bleiben? Tiefenschärfe mag umgangssprachlich akzeptiert sein, aber jetzt auch unter Fachleuten?

Space


Antwort von WoWu:

Moin Harald

Vielleicht sollte jeder seine Tiefenschärfe nach Gusto berechnen. Schliesslich ist es ja nicht einmal ein optisches Gesetz sondern lediglich eine Festlegung, bis zu welcher Grösse des Zerstereuungskreises unser Auge etwas noch als scharf erachtet.
Wir werden also sehn, ob es eines Tages Sensoren geben wird, die trotz kleinerer Ausmasse, aber grösserer Pixel eine geringere Tiefenschärfe generieren können.

Zu Deinem OT:
Tiefenschärfe hält sich hartnäckig und trotz häufiger Belehrung durch "Experten" als dominante Form.
Seit die Begriffe im späten neunzehnten Jahrhundert zum ersten Mal im Google-Books-Korpus auftreten, war Tiefenschärfe fast immer häufiger als Schärfentiefe. Erst in den letzten Jahren scheint sich das geändert zu haben, wobei abzuwarten ist, ob es sich hier um eine Modeerscheinung oder einen dauerhaften Effekt handelt denn inhaltlich hat sich am Begriff ja nichts geändert.
Wenn beide Wörter genau dasselbe bezeichnen, ist diese Bevorzugung des offiziell "falschen" Wortes erstaunlich.
Außerdem denke ich, ist der Begriff gar nicht so falsch.
Stellen wir am Schärfering ja auch die Schärfe ein und nicht die Unschärfe aus... es geht also um Schärfe und weil bei den meisten zusammengesetzen Substantiven im Deutschen das Zweitglied die Kernbedeutung und das grammatische Verhalten des gesamten Wortes bestimmt, denke ich dass Tiefenschärfe nicht so falsch sein kann.
Hochzeitsfotograf bezeichnet als Kern ja auch den Fotograf und nicht die Hochzeit. Dreht man es aber um, so würde aus der Schärfe die Tiefe und aus dem Hochzeitsfotograf die Fotografenhochzeit.
Eins ist aber klar: Alle Fotograf, seit eh und je, verstehen, was mit Tiefenschärfe gemeint ist, und sprachkritische Ermahnungen tragen nichts zu diesem Verständnis bei.
Sei"s also drum. Auch hier kann jeder benutzen, was er will.

Space



Space


Antwort von Axel:

Um Schärfentiefe wird als Begriff ein solcher Tanz gemacht, es ist erst ein Zauberwort, seit man eigentlich die Verringerung von Schärfentiefe meint. Man hat ein Schlagwort mit weggelassener Negierung, kein Wunder, dass es zu sprachlichen Ungereimtheiten kommt.

Objektive mit genügend großen Blendenöffnungen, um DoF-Effekte (eine präzisere Bezeichnung) von nennenswerter Stärke zu ermöglichen, gab es früher wenige. Darum sind alle älteren Filmhandbücher darauf aus, absolute Schärfentiefe zu erzielen. Ein DoF-Rechner wurde in den Siebzigern verwendet, um zu entscheiden, wie klein die Blende zu sein hatte, um alles ausreichend scharf (innerhalb des Schärfefeldes, dessen Tiefe man errechnet, hier sind alle Begriffe) zu kriegen.

Lichtstarke Objektive heißen auf englisch fast lenses, lichtempfindlicher Film fast stock. Auch missverständlich. Die Bezeichnung kommt aus der Fotografie. Mit lichtstarken Objektiven lassen sich kürzere Belichtungszeiten benutzen, um schnelle Bewegungen ("fast") ohne Bewegungsunschärfe hinzukriegen.
Es ist doch ein physikalisches Hinderniss das man bei Dunkelheit, die Blende öffnet und dadurch die DOF klein wird. Wäre es dann auch möglich die Lichtstärke eines grossen Sensor mit offener Blende auszunützen ohne viel DOF zu haben? Oder sind wir da an der physikalischen Grenze? Ich persönlich hoffe, dass Lowlight zukünftig auch mit großer Schärfentiefe vereinbar sein wird. Es ist die Art, wie wir sehen. Unsere nachtempfindlichen Sehzellen sind großzügig über die Netzhaut verteilt, praktisch keine in der Sehgrube. Der Zerstreuungskreis ist riesig, sodass wir bei echtem Lowlight trotz komplett geöffneten Pupillen einen Fixfokus-Effekt haben. Und Weitwinkel. Shallow DoF, hohe Farbdifferenzierung und Vignette sind für das photopische, das Tagsehen typisch.

Space


Antwort von WoWu:

@Axel lichtempfindlicher Film fast stock. Auch missverständlich. So missverständlich finde ich das gar nicht, weil die Emulsion von lichtempfindlichem Film grössere Kristalle enthält, die SCHNELLER (fast) in der Lage sind, Silber zu bilden (und somit geringere Belichtungszeiten zulassen). Daher finde ich den Begriff in diesem Zusammenhang schon ganz ok.

Aber, wie gesagt, jeder Profi weiss, was mit dem einen oder andern Begriff gemeint ist und es ist müßig, hier Korrekturen vornehmen zu wollen.
Ich tippe mal drauf, dass in den letzten Jahren all die dazugekommen sind, die noch in den Windeln gelegen haben, als schon Generationen an Fotografen sich über den Begriff "Tiefenschärfe" einig waren.
Nur mit neuen Begriffen ändert man eben auch nichts an den eigentlichen Vorgängen. (Zum Glück). Wobei ich mir nicht einmal sicher bin, dass die Mehrheit derer, die die Begriffe benutzen, eigentlich wissen, was sie bedeuten, geschweige denn, ihre Entstehung verstanden haben. Schon die Definition des Begriffes "Schärfe" fällt den meisten, die sich um die Bezeichnung aufregen, schwer. Umso leichter fällt es ihnen offenbar, neue Wortkreationen zu adaptieren.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Kameras Allgemein-Forum

Antworten zu ähnlichen Fragen //


Die Zukunft der Hybrid-Kameras - wohin geht die Reise?
Die Zukunft des Tracking - das Ende der High-Speed-Kameras?
Sind iPhones die neuen Referenz-Consumer-Displays für die Farbkorrektur?
Panasonic und die L-Mount - Vergangenheit, Gegenwart und eine mögliche Zukunft
Die Zukunft des Kinos – mit Achim Flebbe, Kino-König
DJI Ronin 4D mit ProRes RAW und 3D LiDAR in der Praxis: Die Robotik-Film-Zukunft?
Foto-Shooting plus KI: Schaut so die Zukunft der Fotografie aus?
Google Dreamix: Neue KI demonstriert die Videobearbeitung der Zukunft
Xiaomi 12S Ultra Concept - Die Zukunft?
Neue Funktionen in Premiere Pro und die Zukunft KI generierter Inhalte für Video (Firefly)
SPARK soll iPhones via smartem Handgriff in DSLMs verwandeln - die Zukunft auch für Handy-Filmer?
Die Zukunft der Videobearbeitung 2026 - Alles Echtzeit in der Cloud (gegen Aufpreis)
Zukunft AI-Video - Wohin generative KI die Medienbranche führen wird
Neue SmallHD Smart 5 Kameramonitore sind bis zu 3.000 nits hell und können Kameras steuern
Die 10 besten Kameras für Video in 2022 - welche Kameras haben uns dieses Jahr beeindruckt?
Die besten Kameras 2023: Welche Kameras haben uns in diesem Jahr besonders beeindruckt?
Die Österreicher sind wieder da
Für alle, die noch unschlüssig sind




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash