Newsmeldung von slashCAM:Heute ist wohl der Tag, an dem die schlafenden 4K-Geister in diversen High-End Kameras kollektiv zum Leben erweckt werden
Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Arri Amira bald auch mit internem 4K-Recording
Antwort von Abercrombie:
Jetzt ist 4k in Deutschland salonfähig :)
Antwort von Jan Reiff:
wer braucht schon 4K ?
sieht man doch net den Unterschied.
Antwort von Frank Glencairn:
Einfach nur das Bild aufblasen? Seriously?
Wenn das schon als ausreichend angesehen wird, kann man auch einfach HD auf einem 4k TV anschauen und spart Bandbreite.
Antwort von Jan Reiff:
eben.
weil 2K und 4K kein Unterschied macht, konnte man hier 1000x lesen.
Frage ist warum dann Arri das anbietet ? Eingenickt oder Eingeknickt ?
Antwort von Paralkar:
Naja Arri sagte immer, wir müssen erstmal alles andere richtig machen, bevor wir zu schnell auf 4k umsteigen.
Die Alexa ist so beliebt, wegen ihrer Einfachheit und simplen Menüführung, unglaublich durchdachten Aufbau und aus der bild-ästhetischen Sicht, die Farbreproduktion (sehr kornartiges Rauschen, Schärfe etc.)
Letzteres wollen Sie sicherlich auch bei einer möglichen echen 4k Kamera haben, halt eine wirkliche 4k Kamera, die all die Qualitätsansprüche einer Alexa abdeckt.
In dem Interview mit dem Herr Kraus von Arri, klärt er doch auf das Arri sich nicht gegen 4k stellt, sondern erst viele andere Faktoren verbesserungswürdig sind
Höherer DR für zukünftige hochkontrast Fernseher
Höhere Framerates für höhere Fernseher Framerates
Es geht ganz stark darum das wir, bevor wir 4k starten, erstmal bessere Endnutzergeräte etablieren, und diese Faktoren verbessern.
Da gabs doch auf öfters in diesem Forum hier, die Frage, ist 4k mit 8 bit ausreichend, oder sollten wir nicht erstmal mittels Rec 2020 versuchen, bessere Farbräume, höheren Kontrastumfang und 10 bit zu erreichen?
Und da die Alexa/ Amira, dank der Qualitäten des Alexa Sensors so beliebt sind und diese Qualitätsstandards erfüllen, die so anerkannt werden, ist ein Upscaling auf 4k legitim, da die restlichen Parameter gleich bleiben.
Also ich finde nicht das Arri damit gegen eigene Aussagen oder Philosophie verstößt.
Antwort von otaku:
ich war ja mal ein echter arri fan, aber inzwischen ist es nur noch peinlich.
auf arri zu stehen bedeutet nur noch auf retro equipment zu stehen.
Antwort von rideck:
@ Paralkar
schön gesagt.
Antwort von Jan Reiff:
welchen Sinn bitte macht das Upscaling ?
wie gesagt, jahrelang lese ich hier, ihr mit Eurem 4K - kein Mensch braucht das - jetzt entspricht es der Philosophie von Arri. wie es passt.
erinnert mich mehr und mehr wie schonmal erwähnt an die Autobranche aus Deutschland ("Hybrid ist ein japanischer Hype", las man noch vor 3 Jahren - jetzt verkauft BMW den i8 als Revolution, während der Tesla komplett elektrisch ihn links überholt)
ich begrüße Arri"s Pushen von 4K, aber eine Philosophie sehe ich hier gar nicht mehr - und es wird spannend sein, wie sie sich das "freischalten" bezahlen lassen ... und wie das Pseudo 4K dann 1:1 im Vgl zu F65 und Dragon ausschaut, und dann mache ich auch mal 200% crops ...
die nächsten Kameras aller Hersteller (Sony, Red und Arri) werden die spannendsten, ... unter echtem 4K und DR16 braucht keiner mehr vor die Kamera treten und nen Scheiss von 2K und HD erzählen
Antwort von otaku:
ob 4k oder mehr im endgerät sinn macht oder nicht, darueber kann man ja sprechen. ob 4k ode mehr bei der aufnahme sinn macht, da gibts eigendlich nicht mehr so viel zu sagen, ich brauche den headroom den 4k footage gegenüber 2k footage hat meistens nicht, wenn ich ihn aber brauche bin ich sehr froh wenn ich einen schritt zurück auf mein original footage machen kann und mir die 4k lappen da raus ziehen kann. aber sei es drum.
aber in der kamera einfach nur noch datenmüll zu erzeugen in dem ich ein paar pixel durch die gegend interpoliere, das ist einfach nur noch ein verzweifelter versuch so zu tuen als könnte man mit der entwicklung schritt halten. ich fand ne alexa vor 4 jahren noch gut. bis gestern fand ich sie veraltet, heute finde ich das ding lächerlich.
wenn das footage aus ner lächerlichen gh4 besser aussieht und mehr informationen hat als ne alexa.... omg... dann macht es die ergonomie auch nicht mehr.
ich finde es nicht gut wenn eine firma den markt dominiert, das ist für keinen gut, aber mir scheint arri hat sich red jetzt kampflos ergeben.
zum 3fachen preis kein produkt bauen zu können was zumindest gleichgertig ist, wow, das ist schon beachtlich.
ich hoffe das ist nicht stellvertretent fuer German Engineering.
Antwort von Thunderblade:
Lieber hochskaliertes 4K vom ALEXA/AMIRA Sensor als natives 4K von anderen Herstellern.
Ich habe vor anderthalb Jahren mal einen Vergleich gesehen zwischen auf 4K hochskaliertem 2.8K ARRIRAW und nativem RED EPIC 5K auf 4K runterskaliert auf der großen Kinoleinwand in einer State of The Art Grading Suite.
Das ARRI Bild sah einfach besser aus. (Ein Auflösungsunterschied war nur in Testcharts zu sehen. In real gefilmten Szenen kann das keiner von euch sehen. Das garantiere ich euch.!).
und wie das Pseudo 4K dann 1:1 im Vgl zu F65 und Dragon ausschaut, und dann mache ich auch mal 200% crops ...
Ja und eben das ist ein typisches realitätsfernes Szenario. Im Kinosaal oder Im Fernsehen guckt niemand 200 Prozent Crops.
Pixel-Zählen ist eine Diskussion für Kamera-Nerds und DITs.
Ein DoP guckt sich das Endergebnis auf der Leinwand an bzw das entstehende Bild und da wird der Unterschied nunmal marginal sein!!!
Antwort von Jan Reiff:
Lieber hochskaliertes 4K vom ALEXA/AMIRA Sensor als natives 4K von anderen Herstellern.
Ich habe vor anderthalb Jahren mal einen Vergleich gesehen zwischen auf 4K hochskaliertem 2.8K ARRIRAW und nativem RED EPIC 5K auf 4K runterskaliert auf der großen Kinoleinwand in einer State of The Art Grading Suite.
Das ARRI Bild sah einfach besser aus. (Ein Auflösungsunterschied war nur in Testcharts zu sehen. In real gefilmten Szenen kann das keiner von euch sehen. Das garantiere ich euch.!).
und welches Footage habt ihr angeschaut: 1:1 dieselben Motive ?
Antwort von Jan Reiff:
Lieber hochskaliertes 4K vom ALEXA/AMIRA Sensor als natives 4K von anderen Herstellern.
Ich habe vor anderthalb Jahren mal einen Vergleich gesehen zwischen auf 4K hochskaliertem 2.8K ARRIRAW und nativem RED EPIC 5K auf 4K runterskaliert auf der großen Kinoleinwand in einer State of The Art Grading Suite.
Das ARRI Bild sah einfach besser aus. (Ein Auflösungsunterschied war nur in Testcharts zu sehen. In real gefilmten Szenen kann das keiner von euch sehen. Das garantiere ich euch.!).
und wie das Pseudo 4K dann 1:1 im Vgl zu F65 und Dragon ausschaut, und dann mache ich auch mal 200% crops ...
Ja und eben das ist ein typisches realitätsfernes Szenario. Im Kinosaal oder Im Fernsehen guckt niemand 200 Prozent Crops.
Pixel-Zählen ist eine Diskussion für Kamera-Nerds und DITs.
Ein DoP guckt sich das Endergebnis auf der Leinwand an bzw das entstehende Bild und da wird der Unterschied nunmal marginal sein!!!
nochmal: welchen Sinn hat dann die (wahrscheinlich) mit Kosten verbundene interne Upscale Funktion, wenn man es nicht sehen wird ?
Alleine der Name "hochskaliertes 4K" sagt: wir verkaufen jetzt mal kein 4K für 4K. Das was man jahrelang den anderen vorgehalten hat. Aber jetzt ist es Philsophie und klasse. War mir klar. Soviel zum Thema Fanboys. Ich glaube langsam, Arri kann noch Kochtöpfe bauen und manche kaufen die für 30 000 EUR. Gut für Arri, aber ob es zukunftssicher ist - schauen wir mal in 10 Jahren ...
Antwort von sgywalka:
Wer sagt....?!
Dass in 5 Jahren ( was eine extrem laaange Zeit ist) nicht alle
üblichen verdächtigen Technologie-protagonisten verschwunden
sind?
Aufgekauft, abgekauft, die Human-hardware ist abgewandert, better
economic income Profile, etz..
Bei der ganzen Show war ja ab ende 2012 die Change, dass die
Endverbraucher-portfolios neu gemischt worden wären.
Farbraum / 10 bit/ Bandbreiten-real-time/ etz..
Aber das ist das erste Feld um unzählige "neue" ( alte) Felder zu
kreieren.(Kostendruck/ Ausbau-wunsch/druck/ Kunden-interesse)
Wir reden hier nicht mal von INHALTEN.
( promi-4k-diktator-big-Brotha.. des reicht ja auch in 2 bit.480.. :) )
Und wir werden alt.
Die alten Kinohocker-ledernacken, dies dann später mit der Bahre
vom 4k gewölbten Tv tragen ( der samsung is echt net schlecht nur bei
4900 eurone wird jedem schelcht/ wenn man die übliche samsung-speed
betrachtet wo du öööörli adobbta noch gar net ausgeschprechta und schon
sind 24 150cm 4k tv-kübeln da und... kost fast nix...ab 699,-) die sind
verzeihung- nicht mehr relevant.
Den ewig lockt das mobile 4k-smart-devices Tier.
Deswegen auch die aufpump oder abpump-Disco eine nette wo wir uns
bis in den Achselschweiss der Kompetenz näher kommen-aber das
interpolliert ja auch wieder nix anderes-als wäre das hier ein Thread
über " Muttermilch-appump-technologien für spät gebährende.."
wobei i ma des jetz echt net vorstellen mag ( Hirnpixel löschen..)
Die nächste Gen Kameras wird darüber technisch net mehr nachdenken.
Ich frag immer. WO SIND DIE ERTRÄGLICH KAUFBAREN LINSEN?
wer baut die?
und sehen wir das alles:??
SEHEN wir das noch? oder is es dann schon eine 8 d-laser-tech?
Und wie sieht es aus?
Und dürfen wir es uns angucken ohne digitale Hirnkeule?
dürfen wir?
Und was koschds? max+++> ab 79900,90,-
weil schweres Blech ist edler und som it teurer...
habt Gnade :)
Antwort von Jan Reiff:
http://www.newsshooter.com/2014/08/26/a ... nternally/
Antwort von DV_Chris:
Mit der Entscheidung für ProRes geht die Tür auch weit in den News Bereich auf. Die Amira am Weg zum universellen Arbeitstier.
Antwort von perrostar:
Arri wird wie sonst auch ein Mördergschäft damit machen *grins*
http://shotonwhat.com/cameras/arri-cameras 1171 Titel
http://shotonwhat.com/cameras/red-digit ... ma-cameras 279 Titel
Antwort von Jan Reiff:
Arri wird wie sonst auch ein Mördergschäft damit machen *grins*
http://shotonwhat.com/cameras/arri-cameras 1171 Titel
http://shotonwhat.com/cameras/red-digit ... ma-cameras 279 Titel
Gähn.
Zieh mal die 35mm Filme ab (oder hat Red 35mm Kameras im Programm)
wie gesagt: lass uns mal in 5 Jahren quatschen
Antwort von perrostar:
Da hast Du wohl recht, war ja auch eher humorvoll gemeint.
Ich finde es in der Tat höchst bedenklich solche Themen zu emotionalisieren.
Zusammengeschweisstes Metall/Plastik Klumpert da wie dort.
Ja ich hab mir die Amira aus ganz bestimmten Gründen gekauft aber sie ist mir im Endeffekt wurscht. Sie soll/wird mein altes Arbeitsgerät ablösen und Geld machen so wie jede meiner Kameras der letzten 20 Jahre.
Wenn jemand mit einer Red gerne dreht und damit Geld machen kann, so what , soll er machen , finde ich großartig.
Antwort von otaku:
@perro
ich finde auch das ne amira sinn macht, hab ich damals im thread auch geschrieben, es gibt ne zielgruppe da ist das vermutlich das beste was man zzt kaufen kann, fernsehn, aktuelle berichterstattung, etc.
dafuer braucht man auch 4k nicht, im gegenteil 4k ist da ehr hinderlich.
aber 4k nicht auf die kette zu bekommen (also jetzt bei alexa nicht bei amira) und dafür die daten hoch zu skalieren, was soll das?
mein iphone4 kann ich auch skalieren auf 8k und 32bit fp aber was soll das?
wenn die ein consumer produkt verkaufen wuerden, ok, einen consumer interessiert was auf der verpackung steht und nicht was drin ist, aber im profi markt, wo jeder sofort kappiert das das ein rip off ist, da fuehlt man sich doch nur noch verarscht.
wenn die so verzweifelt sind sollten die darueber nachdenken ob die nicht red kameras als oem kaufen und die auf arri umlabeln.
Antwort von Jan Reiff:
ich sehe es von 2 Seiten
in der Tat, wird man bei normalen Betrachten (bis auf Totalen) kaum Unterschiede sehen zwischen Dragon und Alexa / Amira auf 4K -
in Totalen sehe ich mehr Details, Fakt.
Die Frage ist: für wen ist es eher ein Kompliment.
Argument Arri: der Sensor ist schon älter als Dragon.
Argument Red: Arri hat massiv mehr Historie und Erfahrung, und hat faktisch die Leaderrolle nicht mehr alleine, der Bildunterschied wurde praktisch aufgehoben. Bei Red z.B. für weniger Kaufpreis.
Pro Arri mag noch etwas Verarbeitung usw sein , und auch der Name, aber da warne ich massiv vor, nicht zu enden wie Nokia usw - die dachten auch sie sind unantastbar.
Dass eine Alexa / Amira eine der besten Kameras der Welt ist steht ausser Frage, aber, ... eben nur noch "eine der besten"
Antwort von perrostar:
Ich nehme mal an Jan Du hast selber eine Red. Ich verstehe natürlich das Du Deine Kaufentscheidung immer rechtfertigen wirst und ich denke auch das Du es sogar gut meinst die Anderen davon zu überzeugen das Red die vielleicht bessere Wahl ist/wäre.
Ich persönlich mach das halt nicht weil für mich nur zählt welche Entscheidung mir hilft meinen Umsatz zu steigern. In diesem Forum wird generell viel zuwenig über kaufmännische Aspekte gesprochen. Es geht im Endeffekt um gewinnbringende Investments. Für Dich, so hoffe ich war die Red ein gutes Investement.
Für mich war jede Kamera für die ich mich bis jetzt entschieden habe ein gutes bis sehr gutes Investment weil ich absolut emotionslos abwäge und dann gekauft habe.
Das 4K Update der Amira wird mein Investment weiter absichern und das freut mich. Aber irgendwann wird dieses Metall Klumpert Dings (so wie auch Deine Red) ein nutzloses Trumm Technik sein. Welche es früher sein wird sei dahingestellt :-)
Wichtig ist das ich weiß eine gute Investition gemacht zu haben die mir Gewinne bringt und um nichts Anderes geht es mir.
Antwort von Jan Reiff:
ich habe 3
Antwort von Jan Reiff:
es sichert dich aber auch nur ab, weil du es auch als 4K verkaufst, obwohl es keins ist.
was bei Red oft als unseriös im Marketing angesehen wurde kann jetzt nicht plötzlich seriös angesehen werden.
Darum geht"s. Und ich habe heute schon 10x gehört: Arri hat jetzt auch ne 4K ...
Wie gesagt: alle auf dem gleichen Level: sich möglichst gut zu verkaufen...
Antwort von perrostar:
Ich musste GottseiDank noch nie eine Sensorgröße verkaufen und das werde ich auch nie :-)
Antwort von DV_Chris:
HDV war nicht HD. DVCPro HD war nicht HD (Panasonic, die Könige des Pixelshift). Trotzdem wurden zigtausende Mühlen verkauft. Am Ende kommt es doch nicht nur auf die nominale Pixelzahl an?
Antwort von Jan Reiff:
es geht nicht um die Qualität hier und jetzt,
sondern dass ich es persönlich etwas schade finde, dass sich Arri jetzt einer Mogelpackung bedient und etwas 4K nennt, was nicht 4K ist.
Und sich mehr in ihren Aussagen im Kreis drehen als andere.
Man vergleiche mal die Aussagen noch vor 2 Jahren.
Es ist ja nice für die Amirabesitzer dass jetzt 4K draufsteht, aber es ist eben genauso eine Hype Politik wie es anderen vorgeworfen wird.
Ich erwarte spät nächstes Jahr schon mal wieder einen Meilenstein von Arri, und nicht das Verwalten des status quo, weil wie gesagt, die anderen haben nicht nur aufgeholt / gleichgezogen, sondern im Preis/Leistungsvergleich überholt.
Antwort von Fader8:
ich war ja mal ein echter arri fan, aber inzwischen ist es nur noch peinlich.
auf arri zu stehen bedeutet nur noch auf retro equipment zu stehen.
Eine nicht sehr sachliche Ansicht.
Antwort von Fader8:
Für alle die hier gross rumposaunen - schaut dieses Video. Weit entfernt von 4k ist ARRI mit dem 4:3 Sensor nicht.
Diejenigen die ernsthaft mit der GH 4 als Vergleich kommen, lässt mich an deren Verstand zweifeln.
Antwort von Jan Reiff:
arghh, nochmal - es geht nicht darum, dass Arri nah oder weit weg von 4K ist
es amüsiert mich nur, und ich habe auf diesen Tag gewartet, dass nun genau das, was anderen vorgeworfen wird, nun korrekt ist und spätestens wenn es freigeschaltet ist "ganz ganz toll aussieht und ja so muss es aussehen das 4K Bild und seht Ihr wir haben es immer gesagt 4K ist toll und wer hat gesagt 2K reicht locker weil man sieht keinen Unterschied und wir warten solange mit 4K bis wir die Pixel noch besser machen und blablabla" - ich meine fast weniger die Firma Arri an sich sondern die zum Teil grauenvoll arroganten Arri-User.
Unterm Strich:
Amira 4K ist NICHT 4K. Sind wir uns da einig?
Ok. Um nix anderes geht"s. Bei Red waren es die lauten Amis die immer wild gepoltert haben, jetzt ist es "nah dran" und ganz seriös.
- dass die Bilder gut sind, wissen alle. Seit heute ist klar, dass Arri die Zeichen der Zeit mehr erkannt hat und die ganzen Pappnasen, die meinten Arri schwimmt weiter in ihrem eigenen Gewässer sind ab heute vorbei. Sie haben die gleiche Marketing-Trompete und blasen genauso falsch oder richtig rein wie andere.
Antwort von Jan Reiff:
Für alle die hier gross rumposaunen - schaut dieses Video. Weit entfernt von 4k ist ARRI mit dem 4:3 Sensor nicht.
Diejenigen die ernsthaft mit der GH 4 als Vergleich kommen, lässt mich an deren Verstand zweifeln.
welches Video ?
Vergleiche Amira - GH4 ??
ne, will ich nicht sehen
kann nur Schrott sein
nix gegen die GH4 ... aber ...
Antwort von Jan Reiff:
aus facebook gerade heh heh
Where's my "We don't upscale - we downscale!" T-Shirt when I need it?
true
Antwort von DV_Chris:
Jedenfalls traue ich der Arri Firmware Abteilung mehr zu als allen anderen in der Industrie. Die IBC wird hoffentlich offizielles Material en masse bringen.
Antwort von Jan Reiff:
nimms mir nicht übel, aber mich wird es kaum beeindrucken was die bringen.
ich habe für günstigeres Geld dasselbe nur besser
Antwort von perrostar:
Alles nicht sachlich , wer ist wo wie arrogant usw, seids ihr im Kindergarten daheim ?
Antwort von otaku:
ne gh4 ist lächerlich obwohl die echtes 4k in 422 10bit rauspumpt
aber ne arri die hd auf 4k aufbläst ist toll? echt? na gut.
Antwort von DV_Chris:
nimms mir nicht übel, aber mich wird es kaum beeindrucken was die bringen.
ich habe für günstigeres Geld dasselbe nur besser
Die Frage halt, wie Du 'besser' definierst. Alleine in Sachen After Sale Support ist Arri die Industriemacht Nummer 1. Das Wissen um die Geräte, die Verbreitung im Verleih, Ausfallssicherheit usw.
Antwort von Jan Reiff:
wenn die Industriemacht Nr 1 heute also 4K ernennt, heisst das dann wohl: goodbye 2K -
fuckin hell yes - finally -
und Jannard hatte eben doch Recht.
jetzt muss Arri halt noch a richtige 4K Mühle hinbekommen, und nicht upscale von Prores - aber der richtige Weg - für die Industriemacht (Mmmmuuaahhahahahhaha)
Möge diese mit Euch sein.
Antwort von Thunderblade:
und welches Footage habt ihr angeschaut: 1:1 dieselben Motive ?
Ja genau. Die gleichen Einstellungen simultan auf RED EPIC und ALEXA/Codex Kombi gedreht. Beides mit Master Primes.
Und der Unterschied ist marginal. Bei Super35 Sensoren ist eh immer nur ein Bruchteil des Bildes ,,scharf''/im Fokus und bei dem Teil der out of focus ist ist es sowieso egal ob es 2K,4K oder 8K ist. Du siehst nicht mehr.
Sobald schnelle Kamerabewegungen oder viel Bewegungen im Bild vorkommen (bei 24fps) und dadurch logischerweise Motion Blur bleibt von 4K sowieso nichts mehr übrig. Bei keinem System.
Und wie gesagt: Es ist schon ein deutlicher Unterschied ob du einen FokusChart abfilmst oder ein menschliches Gesicht. (Bei letzterem siehst du keinen deutlichen Unterschied zwischen skaliertem ALEXA und nativem RED 4K-Material.
Antwort von Jan Reiff:
und welches Footage habt ihr angeschaut: 1:1 dieselben Motive ?
Ja genau. Die gleichen Einstellungen simultan auf RED EPIC und ALEXA/Codex Kombi gedreht. Beides mit Master Primes.
Und der Unterschied ist marginal. Bei Super35 Sensoren ist eh immer nur ein Bruchteil des Bildes ,,scharf''/im Fokus und bei dem Teil der out of focus ist ist es sowieso egal ob es 2K,4K oder 8K ist. Du siehst nicht mehr.
Sobald schnelle Kamerabewegungen oder viel Bewegungen im Bild vorkommen (bei 24fps) und dadurch logischerweise Motion Blur bleibt von 4K sowieso nichts mehr übrig. Bei keinem System.
Und wie gesagt: Es ist schon ein deutlicher Unterschied ob du einen FokusChart abfilmst oder ein menschliches Gesicht. (Bei letzterem siehst du keinen deutlichen Unterschied zwischen skaliertem ALEXA und nativem RED 4K-Material.
Epic MX oder Dragon ? 2 verschiedene Kameras im gleichen Gehäuse
Antwort von Jan Reiff:
anyway
ich will keine Amira.
zu groß, zu schwer, zu teuer.
Gleiches mit mehr Wumms woanders besser
Ende.
Aber welcome Arri to 4K. Wurde Zeit.
Auch wenn es halbgar ist.
Antwort von Jan Reiff:
und welches Footage habt ihr angeschaut: 1:1 dieselben Motive ?
Ja genau. Die gleichen Einstellungen simultan auf RED EPIC und ALEXA/Codex Kombi gedreht. Beides mit Master Primes.
Und der Unterschied ist marginal. Bei Super35 Sensoren ist eh immer nur ein Bruchteil des Bildes ,,scharf''/im Fokus und bei dem Teil der out of focus ist ist es sowieso egal ob es 2K,4K oder 8K ist. Du siehst nicht mehr.
Sobald schnelle Kamerabewegungen oder viel Bewegungen im Bild vorkommen (bei 24fps) und dadurch logischerweise Motion Blur bleibt von 4K sowieso nichts mehr übrig. Bei keinem System.
Und wie gesagt: Es ist schon ein deutlicher Unterschied ob du einen FokusChart abfilmst oder ein menschliches Gesicht. (Bei letzterem siehst du keinen deutlichen Unterschied zwischen skaliertem ALEXA und nativem RED 4K-Material.
aber warum ähh nochmal dann upscale auf 4K
was will uns Arri damit sagen ?
Erklärs mir
Antwort von Thunderblade:
nochmal: welchen Sinn hat dann die (wahrscheinlich) mit Kosten verbundene interne Upscale Funktion, wenn man es nicht sehen wird ?
Ich sage ja auch nicht, dass man den Unterschied zwischen AMIRA HD-Material und AMIRA 4K Upscale nicht sehen kann!!! Sondern ich sage, dass man keinen nennenswerten Unterschied zwischen AMIRA 4K Upscale und nativem 4K RED,SONY oder CANON Material sehen wird.
Antwort von Jan Reiff:
was ist natives 4K Red ?
Dragon auf 4K oder nativ gedreht auf 4K ?
unterschätze das Dragon Footage nicht, das ist ziemlicher detailporn(o)
Antwort von Thunderblade:
Epic MX oder Dragon ? 2 verschiedene Kameras im gleichen Gehäuse
EPIC mit MYSTERIUM-X Sensor. Ist ja wie gesagt schon ein bisschen mehr als anderthalb Jahre her. Da war der Dragon-Sensor noch in der Enwicklung.
Antwort von Jan Reiff:
bin mal gespannt
"The upgrade is expected to be available for purchase at the online
ARRI License Shop by the end of 2014."
End of 2014 ... WTF ??
Antwort von Jan Reiff:
Epic MX oder Dragon ? 2 verschiedene Kameras im gleichen Gehäuse
EPIC mit MYSTERIUM-X Sensor. Ist ja wie gesagt schon ein bisschen mehr als anderthalb Jahre her. Da war der Dragon-Sensor noch in der Enwicklung.
nix isch älter als die Zeitung von ...
du weisch schon
Antwort von Jan Reiff:
mir solls recht sein
bin 4K Fan und vielleicht gibt"s das nochmal nen Schub wenn die "Macht" das so sagt und jetzt auch ganz toll findet
sagte ich und schraubte die Dragon auf den Octocopter - hätt halt alles Vor und Nachteile ...
Good Luck Ex-2K Folks!
Antwort von DV_Chris:
Jan, geht ja hier nicht um Fußball, sondern nur um Kameras.
Arris Vormacht in der Filmproduktion ist unbestritten.
Dass aus dem RED Hype doch noch Serienprodukte wurden, ist im Prinzip eine gute Sache. Das sollte man zum Anlass nehmen, die Sache nicht so verkniffen zu sehen.
Antwort von Thunderblade:
Was ich damit eigentlich nur sagen wollte:
Unterschätzt nicht was ein guter Hochskalieralgorithmus hervorbringen kann.
Der Unterschied zu nativem 4K anderer Kameras ist sehr gering/ bzw. marginal.
Für alle die die ALEXA immer als HD-Kamera abstempeln:
Guckt euch bitte nochmal dieses Video von Michael Cioni von LIGHTIRON an.
Die ALEXA ist keine HD-Kamera!!!
Antwort von Thunderblade:
Doppelpost.
Antwort von chrigi00:
Jetzt nur noch eine Amira Plus zur IBC mit weniger Audioanschlüssen auf der Assi Seite und bessere Anschlüsse für die WCU wie bei der Alexa Plus.
Dann ist das eine sehr feine Sache!!
Antwort von Jan Reiff:
Was ich damit eigentlich nur sagen wollte:
Unterschätzt nicht was ein guter Hochskalieralgorithmus hervorbringen kann.
Der Unterschied zu nativem 4K anderer Kameras ist sehr gering/ bzw. marginal.
Für alle die die ALEXA immer als HD-Kamera abstempeln:
Guckt euch bitte nochmal dieses Video von Michael Cioni von LIGHTIRON an.
Die ALEXA ist keine HD-Kamera!!!
jo, genau dieser Cioni wurde hier letztens als Dummschwätzer bezeichnet.
Oh Leut, was denn nu ?
Antwort von Fader8:
bin mal gespannt
"The upgrade is expected to be available for purchase at the online
ARRI License Shop by the end of 2014."
End of 2014 ... WTF ??
End of 2014 WTF?
Antwort von WoWu:
ich war ja mal ein echter arri fan, aber inzwischen ist es nur noch peinlich.
auf arri zu stehen bedeutet nur noch auf retro equipment zu stehen.
Du verwechselst Anzahl der Pixels mit Auflösung.
Schau Dir heuet mal an, wie 4K hergestellt wird.
Das hat mit der Pixelmenge fast gar nichts mehr zu tun.
Schau Dir mal die Punktbilder der Objektive, die Bayermaske und die Objektivleistungen an und dann sag mir, wie daraus "nativ" 4K Bildpunkte auf der Projektion entstehen sollen.
Arri weiss schon, was sie da machen.
Es sind nur die Ersten, die es sagen.
Antwort von tom:
Bitte unterlasst persönliche Angriffe - die entsprechenden Beiträge sind jetzt gelöscht.
Thomas
slashCAM
Antwort von otaku:
@wowu
ja genau, das hab ich ja bei ner red auch bemängelt, das die 6000 pixel auf dem chip als 6000 pixel im bild verkaufen, weil es ja durchs debeyer muss und das bedeutet das auch bei 6k auf dem chip nur 4-5k wirklich raus kommt. das kann man am bild auch sehen, haben wir vor ein paar tagen ja noch gemacht. arri schafft aber den wundersamen trick aus 2500 pixeln 4000 zu machen. toll. biete ich jetzt in zukunft auch an, fuer alle iphone, canon, bmd pocket usw. schickt mir euer footage und ich convertiere es in arri prores. klasse. ich kann sogar noch mehr als 4k - iphone bis 20k kein problem.
über hoch und runter rechnen 8bit 10bit, ist offenbar alles egal sobald arri drauf steht.
wie du schon sagst wolfgang: ist arri, die wissen was sie tun. genau. vor allem das arri marketing. die ganze welt lacht sich gerade tot.
Antwort von cantsin:
Flamewar mal beiseite - ein technisches Detail scheint noch niemandem aufgefallen zu sein: dass die Amira zwar einen 3,4K-Sensor besitzt, aber in ProRes aufzeichnet. ProRes wiederum unterstützt keine krummen Auflösungen zwischen 2K und 4K, so dass da nur die Wahl zwischen zwei suboptimalen Optionen - Downscaling oder Upscaling - bleibt.
(Das Problem gibt's ja auch bei den 2,5K-Kameras von Blackmagic.)
Antwort von WoWu:
@otaku
Wir sollten anfangen, in zwei Kategorien zu denken.
In einer optischen Ebene, in der nach wie vor die Abbildungstheorien eines Ernst Carl Abbe oder John William Strutt oder C.M.Sparrows Gültigkeit haben und woran sich wohl auch nichts mehr ändern wird, es sei denn, irgend jemand stellt fest, dass die Erde doch eine Scheibe ist.
Aber dank dieser Wissenschaftler können wir die optischen Gesetze recht gut verstehen und sie sind seit ein paar hundert Jahren immer wieder bestätigt worden.
Die andere Kategorie ist die, dass Fouriertransformationen mittlerweile die Werte aus dem optischen Resultat weiter bearbeiten und sich in der Videotechnik ein Paradigmenwechsel vollzogen hat.
Solche Transformationen können quasi bis zu einer unendlichen Genauigkeit berechnen und einer Faltung ist bekanntlich kein Ende gesetzt.
Diese Verbindung ist für den Hausgebrauch neu und war bisher der Mikroskopie und der Astrophysik vorbehalten.
Die Barriere schein überwunden und offenbar sind die Algorithmen, die auch schon über Jahrzehnte alt sind, jetzt in Hardware gelandet, die in grossen Mengen verfügbar ist.
Nutzbar ist sie im professionellen Sektor bereits rd. 10 Jahre, denn seit der Zeit Skalen wir bereits mit S&W 720 material nach 1080 up und das mit besseren Qualitäten, als die Kameras raustun.
Es war nur eben nicht wirklich billig aber dass es einwandfrei funktioniert ist kein Hexenwerk.
Warum also nicht jetzt als Massenware ?
@cantsin
Insofern ist die starre Reglung einer Verdopplung lange nicht mehr relevant.
Du kannst aus jeder beliebigen Grösse jede andere rechnen.
Und das es gemacht wird, sehen wir an der Verknüpfung der beiden Kategorien.
Für die kleinen Pixels bräuchtest Du, wenn Du auch nur die Offenblende mit 4K bedienen wolltest, ein Objektiv, das 300 LP/mm macht.
Was das preislich bedeutet weiss vermutlich jeder hier im Forum.
Und wenn Handys mittlerweile qualitativ völlig überlegene Fotokombinationen schlagen, dann kann auch jeder nachvollziehen, dass das nicht an der optisch überragende Leistung der Knopflinse und des Minisensors liegt.
Deswegen sollten wir beginnen, mit dem Thema Video so umzugehen, wie es uns derzeit fast täglich präsentiert wird. Als nachgerechnetes Bild.
Ich denke, dass ARRI mehr damit zu tun hat, die Nebenwirkungen die so ein nachrechnen ins Bild bringt zu beseitigen, als daran, ein 4K Bild zu präsentieren denn es wird nicht so einfach möglich sein, den Stammkäufer davon zu überzeugen, dass die Qualität der Linse plötzlich egal ist und man DoF nur aus der Macroposition zaubern kann.
Da werden die Schwierigkeiten sein aber nicht in 4K oder 8K aus einem HD Format. das ist nun wirklich kein Problem.
Ich frage mich nur, wann solche Algorithmen in den NLEs landen denn den meisten der mir bekannten Verfahren ist es ziemlich egal, ob der Input aus einem Sensor oder aus einem andern bestehenden Bild kommt.
Das würde dann nämlich bedeuten, dass jede alte Kamera 4K fähig wird. Zumindest in Sachen Bildpunkte, wie es derzeit angeboten wird.
Hattest Du nicht neulich mal das Beispiel mit dem 8mm Experiment gepostet ?
Und hat sich eigentlich noch niemand gefragt, warum bei 4K Aliasing eigentlich gar kein Thema mehr ist ?
Das ist genau der Grund ... weil man das bestehende Material einfach sooft faltet, bis die Frequenzen so hoch sind, dass sie weit genug von den Ortsfrequenzen des Nutzbildes entfernt liegen.
Was wir bei 4K sehen sind schon lange keine optischen Reproduktionen mehr, wie wir sie aus der Fotographie kannten.
Für mich liegt daher ein Beurteilungsmasstab an 4K Bildern darin, wie gut oder schlecht die gestalterischen Mittel der analogen Optiken reproduziert wurden und nicht, ob die Bilder knackescharff aussehen. Und ich denke, ARRI wird da ähnliche Maßstäbe anlegen, denn sie haben mit dem Verlust solcher Merkmale auch eine menge Kunden zu verlieren.
Otto Normalverbraucher will nur "scharf" und "bunt". das bekommt er heute für 250 €, weil mehr kostet die Hardware offenbar nicht mehr.
Antwort von otaku:
wolfgang ich schätze deine meinung und dein wissen, ich habe bis jetzt viel durch das gelernt was du geschrieben hast, aber jetzt machst du gerade eine 180 grad wende von dem was du sonst eigendlich immer sagst, eine information die nicht da ist, die kann man auch nicht hinein rechnen.
ich verstehe natuerlich was du sagst bzgl. pixelgroesse und linsenqualitaet, ich sehe aber auch, das in einem vergleichstest handy vs. canon 5d, wo die canon mit einem der groessten sensoren im feld und mit zweifelsfrei deutlich hochwertigeren linsen als in einem handy ein bild aufzeichnet, dem es im vergleich einfach an detail fehlt. wenn die canon ein nummernschild aufzeichnet, das nur noch blur und artefakte sind und das handy zeichnet das nummernschild so auf das ich jede einzelne nummer und buchstaben lesen kann, dann kannst du daran rum interpolieren wie du willst, du wirst das nummernschild bei der canon niemals lesen können. einmal verlohren und das wars dann. das kann auch arri nicht ändern.
interessanter weise hast gerade du einige beiträge zu diesem thema verfasst, nur jetzt wo es um arri geht sagt du plötzlich das gegenteil, das verstehe ich nicht.
Antwort von WoWu:
@otaku
Deswegen sagte ich oben, dass ein Paradigmenwechsel stattfindet.
Die optische Lösung findet bei 4K die Grenze, wie wir feststellen müssen, was aber auch vorhersehbar war.
Und ich kann Dir versichern, dass es nichts mit ARRI zu tun hat. Nur glaube ich, ARRI ist die erste Firma, die die selben "Ziele" verfolgt, die ich als professioneller Anwender auch verfolgen würde, nämlich die Gestaltbarkeit wieder ins Spiel zu bringen und nicht einfach nur auf Run&Gun Manier die Bildpunkte zu erhöhen.
Insofern, denke ich, hat sich ARRI auch lange damit zurück gehalten und ist bestimmt noch nicht am Ziel.
Wir haben 2008 einmal eine Koreanische Kamera zur probe gehabt, in der durch Software Unschärfeebenen während der Aufnahme definiert werden konnten. Das gab zum teil bizarre Ergebnisse, weil man bis zu drei Ebenen vorlegen konnte, was ganz unwirkliche Bilder ergab.
Es wird aber vermutlich soweit kommen, dass so etwas wie Unschärfe regeneriert werden muss, weil eben die Rechenmodelle nicht vorsehen, inhaltlich zu unterscheiden. (Vielleicht kommt das ja noch).
ARRI ist nach meiner Meinung ein Unternehmen, das sehr viel Image zu verlieren hat und es würde mich total wundern, wenn die eine Kamera heraus bringen, die keine besseren Bilder (auch im Hinblick auf die bekannten Gestaltungsmerkmale) macht, als jeder drittklassige Henkelmann.
Insofern bin ich bei meinen alten Vorsätzen bezüglich einer Bildbeurteilung auch geblieben und finde 4K ala 2000 € Kamera für jeden Amateur eine tolle Sache, Leben ins Wohnzimmer zu bringen. Aber aus Sicht eines guten gestalteten Bildes, finde ich das Zeug absoluter Mist.
Und da hat sich auch meine Einstellung nicht geändert.
Deswegen sag ich auch, dass der, der mehr als 275 € für eine solche 4K Kamera ausgibt, mit dem Klammerbeutel gepudert sein muss.
Aber das ist Run&Gun.
Vielleicht hat Sony ja auch denselben Grund wie ARRI, in die 55 und andere Kameras erst im kommenden Jahr 4K frei zu schalten, denn die Algorithmen sind drin, wie man sieht. Nur wird man in einer 55 auch keine Handyqualität anbieten dürfen sondern muss was in Richtung Gestaltung tun.
Was die Bildauflösung angeht haben wir in der Vergangenheit immer komplette Systeme diskutiert, die alle eine durchgängige Funktion hatten und bisher hat noch keiner versucht, jedenfalls meines Wissens, Aliasing durch Raummodelle weg zu rechnen.
Aber mittlerweile ist es soweit.
Hier ein Beispiel, aus 5 Einzelbilder 128x128 ein 255x255 Bild zu berechnen.
Deswegen sagte ich oben.
Es findet gerade in der Videotechnik ein Paradigmenwechsel statt und entweder lernen wir damit umzugehen - oder es wird immer schwerer, den Anschluss zu finden.
(Vielleicht auch, weil ich nach 40 Jahren nun doch noch erfahren darf, dass das, was man im Studium mal gelernt hat -überraschender weise- anwendbar ist.
Ich habe mich also für das Erstere entschieden. Nur lernen müssen wir alle, zukünftig mit künstlichen Bildern umzugehen, obwohl vorne noch ein Objektiv drauf sitzt.
Nur wenn das so weiter geht, werden wir auch alles vergessen können, was Objektive aus macht denn die werden als Simulation zukünftig stattfinden.
Antwort von iasi:
Man muss es wohl prakmatisch betrachten:
Arri bietet nun eine schnelle Möglichkeit 4k direkt aus der Kamera zu erhalten. Das ist es dann aber auch schon.
Gerade die Amira muss sich eben auch einem 4k-Markt stellen, bei dem es oft auf Schnelligkeit ankommt.
Mag ja auch sein, dass Arri durch die spezielle Anpassung an die Hardware doch noch einmal bessere Ergebnisse liefert, als beim Hochskalieren in der Post - wobei aber die Hardwarebeschränkung mit hineinspielen wird.
Jedenfalls ähnelt dies der internen Objektivkorrektur bei MFT-Kameras. Mir ist es jedoch lieber, wenn das Objektiv gut gerechnet ist, statt die Bilder dann intern "gut" zu rechnen.
Was die Alexa betrifft, liegt es nahe, das den Kunden zumindest auch anzubieten, was die kleine Schwester kann.
Der Alexa Nachfolger wird aber sicherlich "echte" 4k bieten.
@WoWu
Es stimmt natürlich, dass die wenigsten Objektive in der Lage sind 4k und mehr überhaupt ordentlich zu bedienen. Nur ist es doch besser, die Kamera reizt das Limit der Linsen aus, statt zu sagen: Bei der Kamera genügt das, was so eine übliche Scherbe übertragen kann.
Zudem ist auch im Objektivbereich sehr viel in Bewegung gekommen und die Teile werden besser und besser.
Antwort von Ab-gedreht:
Ist doch wurscht. Bleibt ja eine Option! Dadurch werden die Kameras ja nicht schlechter. Wenn jemand 4K direkt ans Posthaus abligern muss, ist doch klasse.
Antwort von otaku:
nunja, ich habe nie bestritten, das ein bild in dem man ein bissel die pixel von rechts nach links rechnet besser aussehen kann als ein original bild, es entfernt sich aber damit vom original. die technik aus mehreren unscharfen bildern ein scharfes bild zu rechnen ist nicht neu, und je nach anwendung funktioniert das auch unterschiedlich gut, auch da hab ich nichts dagegen, ich habe aber probleme damit, falls die so eine technik benutzen, was ich bezweifele, das irgend ein 5 euro chip in der kamera diese entscheidung fuer mich uebernimmt.
ich selbst hab arri bis jetzt noch akzeptiert, aber ich bin mir sicher, der naechste kameraman der mir sagt er will mit ner alexa drehen, dem werde ich sagen: ja klaro, vielen dank, wir melden uns dann.
das thema arri ist fuer mich jetzt erstmal durch. vintage. avoid.
Antwort von CameraRick:
ich selbst hab arri bis jetzt noch akzeptiert, aber ich bin mir sicher, der naechste kameraman der mir sagt er will mit ner alexa drehen, dem werde ich sagen: ja klaro, vielen dank, wir melden uns dann.
Wird jetzt das Bild einer Alexa schlechter, weil die Amira so ein Update bekommt?
Also jetzt wirds albern.
Antwort von WoWu:
Nee, nee, so albern ist das gar nicht.
Und das ist vermutlich auch der Grund, weshalb RED das mit gigantisch grossflächigen Sensoren versucht, statt 4K auf 1" zu machen.
Genau da liegen nämlich die Grenzen, wo ein Objektiv bei verkleinerten Pixelgrössen die hohe Auflösung nicht mehr schafft sondern nur noch HD, weil die Diffraktionsscheiben um mehr als 75% überlappen und dann zwei Pixel als ein Bildpunkt wahrgenommen werden, das Bild also statt 4k nur noch als 2K wahrgenommen wird und die Algorithmen nicht unterscheiden, ob die Unschärfe Teil des Bokehs sind oder Teil der Objektinformation und daher alles "scharf" rechnen, egal in welcher Ebene es liegt.
Wenn also ARRI wirklich "nur" 4K so ausrechnet wie die andern Kameras, wird das Bild auch ähnlich aussehen.
Deswegen vermute ich, dass ARRI stark daran arbeitet, die Bildgestalterischen Möglichkeiten (vermutlich auch per Software) auf einen ähnlichen Stand zu bringen, wie bisher per Optik.
Tun sie das nicht, werden sie einen Haufen Kunden verlieren, speziell wenn RED den Drahtseilakt wagt und es optisch versucht.
Daher halte ich den Umstand, dass ARRI sich Zeit lässt eher für einen Vorteil, als für ein schlechtes Zeichen.
Beurteilen würde ich also erst nach dem, was letztlich dabei heraus kommt und nicht daran, wer der erste am Markt ist. (Meistens ist quick auch dirty).
Zur Erinnerung: der erste war ein Handy ... aber daraus abzuleiten, das sei nun das beste aller Bilder kann man nun wirklich nicht.
Antwort von otaku:
der ansatz der hier im forum mal als rumor die runde gemacht hat, das arri aufgrund der limitationen bei der pixelgroesse an einem chip arbeitet der 70mm film groesse hat, der dann 4k aufzeichnet, das war fuer mich eine nachricht bei der ich gedacht habe, jau das macht sinn, dann bringen die 4k und bleiben dennoch ihrer philosophie treu.
hochrechnen ist fuer mich unserioes, wenn ich das in der post machen wuerde, wuerde man auch genau das ueber mich sagen, und zu recht.
ich weise jeden kunden darauf hin das ein 4k/5k master keinen sinn macht und nur geld kostet, will der kunde es dennoch, dann bekommt er das auch, pixel fuer pixel.
und natuerlich hat das nichts mit der alexa zu tuen, wenn die amiera in den bildern rum skaliert, das ist richtig. aber es fuehrt dazu das ich das ganze 2k gelaber von arri nicht mehr ernst nehmen kann, und bei mir einfach der eindruck erweckt wird, die labern sich nen kipparsch, bekommen aber doch recht wenig auf die reihe, gleichzeitig zieht die red weiter und weiter davon, zu einem bruchteil des preises.
ich habe ueber 10 jahre ausschliesslich 35mm film bearbeitet, in allen geschmacksrichtungen, als telecine auf pal bis zu 4k scans, von tv spots bis kino feature, das volle programm, ich fand dieses digital zeugs nur aetzend, jetzt mit dem dragon bekomme ich wieder ein funkeln in den augen und ich hab zum ersten mal den eindruck ich bearbeite keine bilder die schon bei der aufnahme geschrottet wurden. also digitaler film, das was red ja seit jahren anpreist, jetzt ist das da. auf hochgerechnetes hd will ich da definitiv nicht zurueck.
Antwort von WoWu:
@otaku
Siehst Du, wir sind eigentlich derselben Meinung und schätzen die Bildqualitäten, wie sie optische Systeme bezüglich der Bildgestaltung derzeit bieten.
Und, obwohl ich ebenso den RED Versuch schätze, dies in die Zukunft weiter zu tragen, hab ich nicht besonders viel Hoffnung, dass es noch lange funktioniert, weil einfach der Aufwand, das über weite Strecken fortzusetzen, sich nicht rechnen wird.
Wir werden also früh oder lang die Softwaremethode auch bei RED sehen.
Wobei Dein Up-Skale Vergleich nicht das ist, was die Kameras machen, denn im NLE arbeitest Du bestimmt nicht mit Fouriertransformationen sondern mit den bisher üblichen linearen Interpolationsalgorithmen.
Insofern lassen sich die Systeme, bzw. Ergebnisse, nicht vergleichen.
Daher wird man erst einmal abwarten müssen, welche Up-Scale Algorithmen ARRI benutzen wird.
Wir sind wahrscheinlich aber auch einer Meinung, dass die Up-Skaler, die sich derzeit in den Henkelmännern zu finden sind, mindestens ebenso unterirdisch sind.
Daher kann ich mir im Augenblick auch nicht vorstellen, dass Firmen wie ARRI, darauf so zugreifen sondern dass Sie Anstrengungen (Software) unternehmen werden, die klassischen Looks nach zu bauen, weil sonst ihr wichtigstes Alleinstellungsmerkmal weg fällt.
Und wir können nun Wetten eingehen, wann RED den ersten Algorithmus einsetzt denn spätestens an den Objektiven (und Bildkreisen für so grosse Sensoren) wird die Luft dünner denn es sind ja nicht nur die Auflösungen sondern auch dass die meisten Objektive für grosse Sensoren, gar nicht für Bewegtbild gebaut wurden und etliche "Macken" haben, die erst bei Video überhaupt auffallen, im Gegensatz zur Fotografie.
Die Luft für gute Objektive wird an der Stelle also ziemlich dünn, was man bei einer (optischen) RED immer auf den Preis noch aufschlagen muss.
Fraglich also, wie lange der Druck noch auszuhalten ist, bevor auch RED den einfacheren Weg geht.
Antwort von otaku:
@wowu
naja wenn red in zukunft die auflösungsschraube in richtung unendlich drehen will, dann koennte das durchaus passieren. aber bis jetzt fand ich deren entscheidungen relativ clever, ich hoffe und glaube nicht, das die den wahnsinn jetzt unendlich fortsetzen werden, 6k ist schon deutlich ueber dem was noch sinn macht. ich kann mir nicht vorstellen, das jetzt ne red 8k kommen wird.
bei red wuerde es mich nicht wundern, wenn die jetzt die letzten stellschrauben an der kamera verbessern, und dann glaube ich werden die ehr versuchen ihren ruf mit rueber in den massen markt zu nehmen oder zumindest semi pro markt. ich glaube das thema scarlet ist fuer die noch nicht durch
Antwort von WoWu:
Tja, leider endet sowas an der Vernunft der Benutzer.
Schau Dir den gegenwärtigen 4K Hype an.
Das Bild löst um keinen Deut besser auf, nur die Reproduktionswand wird grösser aber damit nicht der Betrachtungsabstand weil kein Pixel grösser wird. Dafür aber die Pixels auf den Sensoren und damit die eigentlich bildprägende Qualität.
und trotzdem entsteht ein hype, weil eine "elektrische" Schärfe ins Bild gekommen ist, die man bisher nicht gewohnt war.
Noch vor ein paar Monaten konnte nicht genügend "Unschärfe" enthalten sein und heute kräht kein bahn mehr danach.
Was glaubst Du, was passieren wird, wenn irgend einer die erste bezahlbare 8K auf den Markt bringt und RED "optisch" nicht mithalten kann ?
Ich bin da nicht so zuversichtlich, wie Du.
Die Konsumenten interessiert das nicht, ob RED sich Mühe gibt oder nicht, weil die Meisten so etwas gar nicht wirklich beurteilen, sonder einfach dem aktuellen Hype folgen.
Darunter wird auch RED eines Tages leiden.
Das sieht man doch jetzt auch bei ARRI. Die haben ganz deutlich gesagt, es wird noch einige Zeit dauern, weil wir mehr wert auf Bildqualität als auf Pixel legen.
Aber offenbar ist der Druck mittlerweile so gross, dass sie ihm nachgeben.
Wenn das man gut geht. Nur wird RED eines Tages am selben Punkt angekommen sein.
Antwort von iasi:
Merkwürdig, dass ihr nun doch plötzlich alles auf die Auflösung verkürzt.
Eine Amira/Alexa hat ja schließlich noch andere Stärken.
Und Red ist mit der Dragon doch längst bei 4-Produktionen angekommen - es war mal ein "65mm-Sensor" angekündigt - vielleicht versucht sich Red ja an einer solchen dann Höchstpreis-Kamera.
Diese 4k-Erweiterung ist eine Option, die die Hardware hergibt und die sich Arri nun eben bezahlen lassen möchte.
Es kann natürlich auch sein, dass Arri die 4k-Entwicklung falsch eingeschätzt hatte und nun darauf reagieren muss, dass der Markt nun eben doch 4k fordert.
Eine echte 4k-Arri muss kommen. Die Alexa ist auch mit diesem "internem 4K-Recording" eben dennoch ein "altes Modell".
NAB 2015?
Antwort von WoWu:
@iasi
Wir verkürzen eben nicht auf die Auflösung und ARRI -aus ihren bisherigen Statements- offenbar auch nicht.
Wenn sie es nun vorgezogen doch tun, wird sich zeigen, was ihre bisherigen Statements wert waren, auf jeden fall müssen sie Position dazu beziehen, um ihre Kunden nicht im Dunkel stehen zu lassen.
Ich würde also erst mal abwarten, was sie machen und wie sie es machen denn die meisten hier gehen bei up-Skaling von den Methoden aus, die ihr NLE ihnen abliefert. dass das nichts, aber auch gar nichts mit dem zu tun hat, was in professionellen Up-Skalern passiert sieht man ja heute schon an den Ergebnissen.
Also .. ruhig Blut, schaun was kommt denn das, was bisher gekommen ist, ist in der tat qualitativ nicht mit dem zu vergleichen, was bisher in der Liga als "gutes Bild" bezeichet wurde.
Antwort von iasi:
@WoWu
Da hast du sicherlich recht, was die Qualität der Upscaler betrifft. Ich frage mich aber eben, ob die Kamerahardware die Rechenleistung bietet, die in der Post zur Verfügung steht.
Ein speziell auf die Kamera abgestimmter Upscaler bietet wiederum wohl noch mehr Qualitätspotential.
Dennoch sehe ich das als Übergangslösung, bis die echte 4k-Arri kommt. Gute Geschäfte macht man nun einmal mit neuen Modellen und die Arri-Leute werden ja wohl nicht nur an der Amira herumgewerkelt haben, die eher einer Modellvariante entspricht.
Antwort von WoWu:
Die UpSkaler, die in den kameras stecken wird es wohl als Software für NLEs nicht so bald geben, weil sie in DSPs stecken.
Solche Algorithmen werden wohl auch nicht so schnell in Software entsprechend leistungsfähig sein.
Nur wenn sie einmal in NLEs zur verfügung stehen, stellt sich die Frage nach der Notwendigkeit einer 4K fähigen Kamera.
Weil sich dann die meisten gering aufgelösten Bilder in 4K skalieren lassen.
Die kamera macht ja nichts Anderes als 4 odser 6 gering aufgelöste Bilder zu nehmen, einen gemeinsamen "point of Interest" in allen Bildern zu fixieren und sich dann die hochfrequenten Anteile jedes pixels zu nehmen und die in einem Raummodell neu zu berechnen. Aber eben nicht entlang der bisher üblichen Interpolationsmethoden.
Heraus kommt eben das, was ich oben mal als kleines Beispiel gepostst habe. Statt eines, mit hochfrequenten Anteilen zugestopften Bildes (Moire) ein doppelt so grosses Bild, also statt 128 dann 255 (oder statt 2K dann 4K), ohne die Störung. Dem Bildprozess wird eigentlich nur eine drastisch höhere Abtastfrequenz vorgegaukelt. Mehr nicht.
Nur dass das eben für jedes Pixel gilt und weil der Prozess nicht zwischen unscharfem Bild vom Sensor und der Unschärfe des DoF unterscheiden kann, wird das Bild eben durchgängig "knackescharf" und die Gestaltungsmittel sind dahin.
Und also Übergangslösung sehe ich das nicht denn solange optische Gesetze gelten -und die gelten bestimmt noch ein paarhundert Jahre- wird die Deffraktion immer die Auflösung beeinträchtigen.
In der Mikroskopie und der Astrophysik hat man ja lange geforscht und auch keine andere Lösung gefunden. Und die haben deutlich mehr Mittel.
Insofern schminke ich mir die Übergangslösung da ab.
4K, wenn man es analog/optisch machen will, ein ziemlicher Brocken. das darf man nicht vergessen und Qualität wird in dem bereich teuer.
Entwickel mal nur aus Fotobjektiven vernünftige Objektive für Bewegtbild, schon das allein kostet ein Vermögen. Für die Softwareversion brauchst Du nur noch die Knopflinse (je kleiner, umso besser) einen relativ kleinen Sensor und ein paar DSPs mit der nötigen Software. Und die Kunden natürlich, die dann das Bild auch noch mögen. Aber solche Sichtgewohnheiten lassen sich ja Hypen, wie man sieht.
Ich befürchte daher, es ist keine Übergangslösung.
Antwort von otaku:
eine software lösung die sowas macht gibts schon, leider weis ich den nahmen jetzt nicht, ich hab es auch selbst noch nicht benutzt, aber im fxguide hab ich einen bericht darüber gelesen, ist ein oder zwei jahre her.
die software hatte ihren ursprung in der überwachungstechnik um gesichter oder nummernschilder etc sichtbar zu machen. die demo war ein bissel wie scifi wo die 50000% in ein bild zoomen und natürlich ist alles scharf. natürlich nicht so krass aber der eindruck war identisch.
wie lange sowas rendert weiss ich natürlich nicht, hab es auch nur gelesen.
Antwort von iasi:
Die UpSkaler, die in den kameras stecken wird es wohl als Software für NLEs nicht so bald geben, weil sie in DSPs stecken.
Solche Algorithmen werden wohl auch nicht so schnell in Software entsprechend leistungsfähig sein.
Nur wenn sie einmal in NLEs zur verfügung stehen, stellt sich die Frage nach der Notwendigkeit einer 4K fähigen Kamera.
Aber denkst du wirklich, dass die in der Amira/Alexa schon stecken?
Zudem ist eine Bearbeitung in der Post eben nicht so zeitkritisch wie bei einer Berechnung in der Kamera während der Aufnahme.
Red holt mit ADD ja auch schon ziemlich viel heraus, was die Kamera (schon von der auf Raw-ausgerichteten Konstruktion her) nicht leisten kann.
Es erfordert eben enorme Rechenleistung etwas in Echtzeit berechnen zu müssen. Wenn die Software mehr Zeit aufwenden kann, sind eben auch genauere und bessere Berechnungen möglich.
Dies bemerkt man auch in der Praxis, wenn es z.B. um GPU beschleunigtes Rendern geht, das oft nicht an die rein CPU-basierte heranreicht. Auch die Red Rocket liefert leicht schlechtere Ergebnisse als reines CPU-Render.
Ich wüßte jedenfalls nicht, ob ich in der High-End-Klasse kamerainterne Bildbearbeitung haben möchte. Objetivkorrekturen durch die Kamera bedeuten z.B. doch nur, dass die Objektive meist schlecht gerechnet sind.
Antwort von WoWu:
Nein IASI, das bedeutet es eben nicht.
Ich hatte oben einmal die Berechnung der Deffraktion gezeigt und auch, bis zu welcher physikalischen Pixelgrösse sich die Wellenlängen des Lichtes überschneiden. Geschieht das, werden zwei Punkte des Lichtes als nur noch ein punkt wahrgenommen.
Die Kamera macht damit nur noch die halbe Auflösung.
Und dass man an diesen physikalischen Gesetzmässigkeiten (ausser in Stuttgart) nicht vorbei kommt zeigt, dass die Hersteller dazu übergehen, die hochfrequenten Anteile des Bildes anders herzustellen, weil sie optisch nicht mehr darstellbar sind.
Deshalb gibt es nur diese beiden Wege ... Sensorfläche (genauer gesagt pixels) soweit vergrössern, dass optisch solche Limits noch fassbar sind ... so versucht es RED gerade mit grossen Sensoren und grossen Pixels, aber mit welchem zukünftigen Bildkreis ?
Und die andern sind bereits auf dem Softwareweg, auf dem die Mikroskopie schon ein paar Jahre ist.
Aber denkst du wirklich, dass die in der Amira/Alexa schon stecken?
Ja, das glaube ich ganz sicher denn schon allein das Aliasing lässt sich vernünftig in den Grössenordnungen und hohen Ortsfrequenzen gar nicht anders beseitigen. Jedenfalls nicht mit den immer aberwitziger werdenden Filtermethoden.
Schon das allein ist ein guter Grund, solche Algorithmen auch in HD einzusetzen ... und dann ist der Schritt zur höheren Auflösung nur noch ein "Patch".
Schau Di mal an, wie die Mikroskopie auflöst (links maximale optische Auflösung rechts gerechnet)
Antwort von iasi:
Es ist doch aber merkwürdig, dass beim digitalen Filmbild schon bei 4k nichts mehr zu holen sein soll, aber bei einer DSLR noch so viel mehr geht.
Theorie und Praxis eben.
"Physikalischen Gesetzmäßigkeiten"?
In komplexen Systemen?
In Stuttgart übertragen wir eben nicht ein Ergebnis auf alles ohne die Unterschiede zu beachten.
Sensorfläche vergrößern ist sicherlich die beste Methode. Jedoch blendest du neue technische Entwicklungen aus. Das erinnert mich an die Theorien bzgl. der Computertechnik und den pysikalischen Grenzen, die immer wieder aufs neue gezogen werden, da es nun doch plötzlich doch immer wieder kleiner geht.
Es wird aber eben auch von der Alexa gesprochen - einer High-End-Kamera für High-End-Produktionen - und den mittlerweile nicht mehr frischen Sensor per Software aufzupeppen ist nicht das Gelbe vom Ei.
Zumal andere Kameras eben doch die 4k-Auflösung ohne Hochskalieren erreichen: F65, Red.
Für die Amira und die Alexa ist es eine gute Option, aber es ist hoffentlich der Weg, den Arri in Zukunft einschlagen will.
Antwort von WoWu:
Deine Hoffnung in allen Ehren, aber bei DSLR geht auch nicht viel mehr bezogen auf einen 36x24 mm Sensor.
Solche Gesetzmäsigkeiten stehen leider fest und würde es gehen, hätten sich genau die Felder, bei denen es darauf ankommt, nämlich die Medizintechnik und die Astrophysik ganz sicher nicht auf die Softwarelösung zurück gezigen.
Zumal in der optischen Lösung auch das Aliasing problem nach wie vor als ungelöster Faktor (ohne Software) im raum steht.
Deine Hoffnung, das irgendjemand nun doch noch die Eierlegendewollmilchsau erfindet, sei Dir belassen.
Die Marktsituation sieht allerdings bereits völlig anders aus und wir können nun Wetten abschliessen, wann RED denselben Weg geht.
Ich denke, wir werden es im frühen nächsten Jahr (spätestens) auch bei RED sehen.
Vor allen Dingen, weil auch mehr -mit weniger Aufwand- zu verdienen ist.
Die hersteller werden sich dann ein Wettrennen liefern können, wessen Software dann wieder das schönste DoF simuliert.
Aber vielleicht liegt ja auch eine Chance darin, z.B. mit Apps entsprechend hochwertige Objektive und ihre Eigenschaften zu simullieren oder sowas wie dynamische DoF ... Mit Software ist ja ein völlig neues Tor aufgestossen.
Vermutlich ist es dann wieder eine Frage der Zeit, bis diese fürchterlich überschärften Bilder in der versenkung verschwunden sind und in ein paar jahren kräht kein hahn mehr danach, da man früher all die Effekte mit "Glas" erzeugen musste -höllisch schwer und teuer- und heute reicht eine Knopflinse und ein winziges schwarzes Kästchen.
Vielleicht erleben wir ja wirklich gerade das ende der Optik und den Wechsel zur Software. -Jedenfalls sieht es ziemlich danach aus-.
Antwort von iasi:
Wie schon gesagt: Red nutzt bei ADD schon jetzt Softwaremöglichkeiten. Dagegen ist ja auch nichts zu sagen - HDR ist auch eine Möglichkeit den DR zu erweitern.
Ich kann mir jedoch nicht vorstellen, dass Arri die Hardwaremöglichkeiten mit der Alexa aufgeschöpft sieht und rein auf Software setzt.
Ich denke auch, dass neue Techniken die von dir genannten Grenzen noch etwas herausschieben können, aber ...
Wobei: Hättest du dir vor Jahren vorstellen können, dass eine Kamera derartige LowLight-Fähigkeiten wie die Sony A7s bieten könnte?
Vor einigen Jahren zu denken, dass ich 48 und mehr Bilder pro Sekunde mit der Auflösung einer DSLR aufnehmen kann, ...
Ich bin mit Grenzziehungen vorsichtig geworden.
Antwort von WoWu:
Ja, das hätte ich. In der militärischen Aufklärung funktioniert das seit jahrzehnten.
Es war wohl mehr eine Frage der Zeit, bis es billig genug wird.
Und wegen der optischen Gesetze mach ich mir gar keine Sorgen.
Die stimmen nun schon seit dem 16 Jhd. und werden nun wohl nicht gerade 2014 nicht mehr stimmen.
Und dass RED sie nun ausgerechnet ändert halte ich auch für eine trügerische Hoffnung.
Ansonsten, wer's nicht glaubt kann selbst nachrechnen.
Das ist ja das schöne an so alten Gesetzmässigkeiten.
Sie wurden schon von Tausenden angezweifelt und stimmen immer noch.
Die Wellenläge des Lichtes verändert sich eben nicht.
Auch nicht RED zur Liebe.
Antwort von Jott:
"Nur dass das eben für jedes Pixel gilt und weil der Prozess nicht zwischen unscharfem Bild vom Sensor und der Unschärfe des DoF unterscheiden kann, wird das Bild eben durchgängig "knackescharf" und die Gestaltungsmittel sind dahin."
Wenn du mal irgendwann irgend eine 4K-Kamera (außer einem Handy meinetwegen) tatsächlich in die Hand nehmen und mal mit spitzen Fingern angeekelt damit etwas filmen würdest, würde dir sofort auffallen, dass "durchgängig knackscharf" einfach nur Quatsch ist und die Gestaltungsmittel nicht im Geringsten dahin sind. DoF bleibt DoF, egal ob du eine Kamera auf HD oder UHD/4K stellst. Du verrennst dich. Kann jeder leicht ausprobieren.
"So versucht es RED gerade mit grossen Sensoren und grossen Pixels".
Ganz im Gegenteil - mehr Pixel auf gleicher Sensorgröße, erst 4K, dann 5K, jetzt 6K.
Antwort von WoWu:
Dann sagt doch einfach, warum die optischen Gesetze nicht mehr stimmen.
So einfach ist das und warum Firmen auf Software ausweichen.
Und rechne doch mal vor, warum Diffraktion plötzlich anders funktioniert.
Antwort von Jott:
Ach wowu. Da du es nicht tun wirst:
Hallo Besitzer von GH4, AX100, F55, AX1, Z100, C500, FS700 mit 4K-Recorder etc.: berichtet mal. Auf HD gestellt und gedreht: bekanntes DoF-Verhalten, Tiefenschärfe abhängig von Blende, bla bla. Jetzt Kamera auf 4K umstellen (bzw. UHD, bevor sich jemand aufregt) - ist da was anders? Na? Alles scharf plötzlich, was vorher noch jenseits oder diesseits der Schärfenebene lag? Nicht, oder? Na also.
Antwort von WoWu:
Hat es alles schon gegebn. Slashcam hat das hier schon mit 3 Kameras exerziert und die AX1 hat genau das gezeigt.
Und wer hat eigentlich gesagt, dass alle Hersteller bereits umgestiegen sind ?
Einige bemühen sich ja noch redlich die 4K auch optisch zu schaffen.
Meistens mit minderem Erfolg, ausser in Offenblend.
Und die Zusammenhänge hast Du offenbar immer noch nicht begriffen, nämlich dass der Effekt der Deffraktion nicht von der Sensorgrösse sondern von der Pixelgrösse abhäng und RED mit 5µ da noch relativ gross ist, ebenso wie ein paar KB Sensoren.
Aber die Grenzwerte sind mittlerweile immer näher und sobald man die Blenden entsprechend schliesst, wird HD daraus.
Bei denen, die es noch optisch machen, geht es ja nicht darum dass die DoF sich verändert sondern darum, dass die Auflösung schwindet.
Man, Jott ... wirst Du das jemals begreifen ?
Antwort von Jott:
Slashcam hat das hier schon mit 3 Kameras exerziert und die AX1 hat genau das gezeigt.
Au ja, verlink das noch mal und erklär, was du da gesehen hast und was dich dabei zu deinen Theorien geführt hat.
Antwort von WoWu:
Das hab ich nun hinreichend erklärt, das hast Du nur mal wieder nicht verstanden.
Antwort von Jott:
Erklärt? Du verbreitest Vermutungen (die sich ganz leicht widerlegen lassen) als Fakten. Das merkt man nun mal. Mehr ist dazu nicht zu sagen.
Die Aufforderung an die Kamerabesitzer bleibt. Gerne auch Amateure und Knöpfchendrücker, denn außer wozu sind das ja alle. Macht mal, der beißt nur verbal.
Antwort von WoWu:
Widerleg doch einfach statt mal wieder bloss zu polemisieren.
Antwort von Jott:
Widerlegen? Obigen Test machen (zwischen HD und 4K hin- und herschalten) und gucken. Könntest du auch. Wirst du aber aus Prinzip niemals tun. Auch eine Möglichkeit, Theorien durchzustampfen: das empirische Nachprüfen verweigern. Solltest du vielleicht mal tun, bevor deine Theorie am Ende noch als Fakt in deinem E-Book landet! :-)
Antwort von WoWu:
Ja, ja Jott, ist ok.
Antwort von Frank Glencairn:
Für die kleinen Pixels bräuchtest Du, wenn Du auch nur die Offenblende mit 4K bedienen wolltest, ein Objektiv, das 300 LP/mm macht.
.
Entweder hab ich was falsch verstanden oder ich bin zu doof das zu kapieren.
Nehmen wir mal einen 16:9 Super 35 chip (24.89mm x 14.00mm)
Nach meiner Rechnung wären das
3840/24.89/2 = 77 LP/mm
2160/14/2 = 77 LP/mm
Hab ich irgendwo einen Denkfehler?
Antwort von WoWu:
Das hast Du nicht falsch verstanden, aber bei 4K kameras, die 1/2.3" benutzen, sieht das schon so aus, dass Du 3840/ 6,17 mm teilst und dann bei (622/2 landest).
Wobei die objektivauflösung nicht mal das kritische Mass darstellt.
Schau Dir mal die Deffraktion solcher Sensoren an.
Bei 24,89, also Deinem noch relativ grossen Sensor, bist Du bei 6,4 µ/pixel.
Nun rechne Dir die Deffraktion aus da bist du bei Rot bei Blende 2.8 bei 4,4 µ und bei Blende 5.6 bei 8,9 µ
Das Auflösungskriterium liegt bei 75% Überlappung, also 6,4*1,75 = 11,2
Das erreichst Du bei bei 650nm zwischen Blende 5.6 und 8.
Das bedeutet dass die Kamera spätestens ab Blende 8 nur noch HD macht, völlig unabhängig davon, wie die Objektivleistung ist. Da kannst Du dann eins drauf haben, dass 150 Lp/mm macht.
Das Objektiv war eher in geringeren Auflösungen, also HD, der limitierende Faktor. Bei UHD ist es eher der Sensor und das Beugungslimit.
Es geht ja auch darum, dass wir offensichtlich an einer Grenze des optisch Machbaren angekommen sind und dass einige Hersteller eben keine Kameras mehr anbieten wollen, die man nur -streng genommen- mit zwei Blenden betreiben kann.
Wobei häufig die Offenblende ja schon bei vielen Objektiv/kamerkombinationen ausfällt und dann nur noch eine, vielleicht zwei qualitativ hochwertige Blenden bleiben.
Antwort von Frank Glencairn:
Ah, jetzt ist der Groschen gefallen, danke.
Antwort von mediavideo:
Als abschreckendes Beispiel dazu dient doch die neue RED-Dragon:
Das sind doch nur 6k Marketingpixel für Blöde ...
1. Das Rauschverhalten
Die Epic rauscht auffällig im dunklen Bereich und hat bei 27.7mm Sensorbreite 5120 Pixel, das ergibt: 5.41µm Pixelpitch
Die Dragon rauscht mehr als die Epic und das gab einen schönen und berechtigten Shit-Storm der RED-Dragon Kunden im eigenen Forum, der Forum-Bereich wurde dann dicht gemacht um den Imageschaden zu begrenzen ...
Das Versprechen von RED zum Dragon Sensor ist immer noch auf der Website zu lesen, Zitat: "Improved low-light capabilities let you shoot at ISO 2000 and still produce a clean image fit for theatres or publication" - also cleaners Bild gegenüber der Epic - schöne Sauerei bzw. Betrug am Kunden, denn das haben die wissen müssen, dass das wohl nicht geht ...
Warum rauscht die RED-Dragon mehr als die RED-Epic? - Weil 30.7 mm bei 6144 Pixel nur noch 4.99µm ergeben und das liegt physikalsich-technisch deutlich von 5.41µm weg.
Je kleiner die Pixelpitch, je größer wird das Rauschen. Und wie hier geschrieben, kommt das Beugungsproblem (Rayleigh-Kriterium) bei kleinerer Pixelpitch (also größer 4k auf S35-Sensoren mit 24.89mm) auch noch dazu.
6µm Pixelpitch gelten seit Jahren als die "rauschfrei-Grenze" bei entsprechenden Technologiefirmen (Canon, Sony, ...) und das passt noch genau bei S35-Sensoren (24.89mm / 4096 Pixel = 6.07µm, z.B. bei Canon C300/500, Sony F5/55, ...).
Das ist auch der Grund warum die meisten 36x24mm DSLR"s so bei ca. 22 Mpix (z.B. 5760x3840 - 3:2 - 5D MarkIII = 6.25µm) seit Jahren verharren, technisch ist ja viel mehr machbar, nur die Bildqualität (mehr Rauschen) leidet dann schon, siehe Beispiel RED-Dragon. Mal ganz abgesehen von den Linsen, die das ja auch noch schaffen müssen ...
2. Die Sensorgröße
Um nicht noch viel kleiner Pixel zu haben und damit noch mehr Rauschen im Bild, mußte man den Sensor vergrößern. Der ist nun leider größer als ein S35-Sensor und damit kann man nicht einmal mehr die üblichen Kinolinsen sicher verwenden, denn die sind doch zu 99% nur auf S35 gerechnet und geprüft. Das Problem hat sich auch schon im RED-Forum herumgesprochen, das wird der Grund sein warum RED auch plötzlich keine RED-Linsen mehr verkauft ...
3. Die Linsen
Wie hier schon geschrieben, muß man bei 4k ja schon teuerste Master Prime Linsen einsetzen, die diese Auflösung auch wirklich noch schaffen. Bin nicht aus der Kino-Welt, aber habe noch von keiner 6k-Freigabe bei Linsen gehört - immer nur maximal 4K.
Und das ist damit die sinnvolle physikalisch-technische Grenze momentan:
4k - sinnvoll für beste HD/2k Qualität ohne Farbwerte erfinden zu müssen und ohne obige Probleme. Wenn neue Linsen kommen mag das Spiel mit größeren Sensoren, aber dann auch immer weniger Tiefenschärfe, neu beginnen ...
... aber sind neue Master Prime Linsen angekündigt für Sensoren größer als S35 und mehr als 4k Auflösung ???
Und dann müssen wir ja auch noch alle den halben Abstand zum Fernseher haben oder gleich 80 Zoll Monster-Fernseher kaufen ...
Antwort von Frank Glencairn:
Gut daß ich noch einen Satz Mittelformat Optiken habe ;-)
By the way WoWu, welchen Einfluß hat denn der OLPF in dieser Rechnung?
Antwort von Paralkar:
Wie macht das dann die F65, mit 8k "Pixel"
Letzteres hatte ich bei nem Test vor Ewigkeiten nicht das Gefühl, das die F65 so rauscht, trotz der Pixeldichte
Und auf Blöd hier mal ein Video, das das selbe beweist
http://www.cinematography.net/edited-pa ... andle.html
Die Alexa und Epic MX rauschen in Beispiel 2 weitaus stärker,
Ist das jetzt ne effiziente Rauschunterdrückung von Sony, ist es das spezielle Bayer Pattern der F65?
Ich finde leider keine genaue Angabe zu der Sensorgröße, kann also nicht den einzelnen Subpixel durchrechnen.
Bei den Optiken muss ich sagen, konnte ich vor 2 Jahren auf der Cinec schon sehen, was es für ein Unterschied macht mit Leica Summilux-C (gegebenfalls Summicron C) zu drehen anstatt Master Primes. Letztere waren einfach deutlich unschärfer und konnten dem 8k F65 Sensor nicht die Auflösung geben.
Antwort von Frank Glencairn:
Ich finde leider keine genaue Angabe zu der Sensorgröße, kann also nicht den einzelnen Subpixel durchrechnen.
24.7 x 13.1 mm
Antwort von cantsin:
Es ist doch aber merkwürdig, dass beim digitalen Filmbild schon bei 4k nichts mehr zu holen sein soll, aber bei einer DSLR noch so viel mehr geht.
Die höchstauflösende DSLRs sind die Nikon D800/D810 sowie die Sony A7R mit 7360 × 4912 Pixel bzw. 32 Megapixel. (Sehr wahrscheinlich haben beide Kameras denselben Sony-Sensor.) Hier muss man noch berücksichtigen, dass durch das Debayering die echte Auflösung geringer ist. Falls dieser Artikel stimmt, kommt man bei 4K-Bayer-Sensoren auf effektive 2,5K, also käme man bei den o.g. Kameras auf effektive 20 MP bzw. 4,6K Horizontalauflösung.
Hier gibt es einen informativen Artikel von DxO Labs über die besten bzw. höchstauflösenden Objektive für die Kamera. Selbst das beste getestete Objektiv, das Nikkor 85mm/1.4, schafft nur eine effektive Auflösung von 22 MP, andere Topobjektive im Schnitt 'nur' 16 MP. Wenn wir bei 22 MP bleiben, ergibt das bei 3:2-Fotos eine optische Auflösung von ungefähr 5700x3800 Pixeln.
Alle o.g. Werte beziehen sich aber auf Sensoren mit 35mm-Kleinbildgrösse ("full frame") von 36x24mm. Bei Super 35-Filmkameras ist ein Frame 24.89x18.66mm gross. Dann blieben, bei dem Nikon 85mm/1.4, von den horizontalen 5.7K noch 3,94K übrig.
Mit anderen Worten, selbst das höchstauflösende Fotoobjektiv auf dem Markt schafft an einem Super 35-Sensor nur knapp 4K. Und der momentan höchstauflösende DSLR-Fotosensor am Markt würde, auf Super 35 beschnitten, nominell zwar 5K (5.088 Pixel) schaffen, Debayering-bedingt aber effektiv unter 4K landen.
Antwort von iasi:
nun gibt es im Cine-Bereich aber eben noch ein paar Gläser, bei denen noch weniger auf den Preis gesehen werden musste, als bei Foto-Linsen.
Wie auch immer: wenn die Objektive das Limit bilden, sollte die Kamera dieses Limit eben auch voll ausnutzen.
Für 8k wird man wohl in das 65mm-Format gehen müssen - aber nun steht erst einmal 4k an. Und bei 4k liefern auch die guten Fotolinsen noch soviel, dass man 2k von 4k unterscheiden kann.
Antwort von iasi:
Als abschreckendes Beispiel dazu dient doch die neue RED-Dragon:
Das sind doch nur 6k Marketingpixel für Blöde ...
1. Das Rauschverhalten
Die Epic rauscht auffällig im dunklen Bereich und hat bei 27.7mm Sensorbreite 5120 Pixel, das ergibt: 5.41µm Pixelpitch
Die Dragon rauscht mehr als die Epic und das gab einen schönen und berechtigten Shit-Storm der RED-Dragon Kunden im eigenen Forum, der Forum-Bereich wurde dann dicht gemacht um den Imageschaden zu begrenzen ...
Da kam einiges durcheinander und verschiedene Dinge wurden vermischt.
"Shit-Storm" war es dann auch nicht - als Reaktion brachte Red übrigens auch ein RedcineX-Update, in welchem das Problem mit den roten Klecksen gelöst wurde.
Der Dragon-Sensor ist zudem wirklich lichtempfindlicher als der MX - trotz kleinere Pixel.
Antwort von WoWu:
@Iasi
Das Limit bezieht sich entweder auf das Glas, wenn die Pixel ausreichen gross genug sind oder auf die Pixel, wenn die Diffraktion der limitierende Faktor ist.
Du must dich mal damit beschäftigen, dass die Anzahl der Pixel nicht mit der Bildauflösung gleichzusetzen ist.
@Frank
In der Softwareversion gibt es kein OLPF mehr, weil das Sensorbild ohnehin nicht direkt brauchber ist und die hochgrequenten Anteile darin für die Berechnung benötigt werden.
Daher sieht das Sensorbild so aus, wie oben gepostet, also incl. aller Aliasinganteile.
Antwort von Frank Glencairn:
@Frank
In der Softwareversion gibt es kein OLPF mehr, weil das Sensorbild ohnehin nicht direkt brauchber ist und die hochgrequenten Anteile darin für die Berechnung benötigt werden.
Daher sieht das Sensorbild so aus, wie oben gepostet, also incl. aller Aliasinganteile.
Ich meinte eigentlich in den aktuellen Kameras
Antwort von mediavideo:
@iasi
Es geht nur um das Rauschen der RED-Dragon gegenüber der alten RED-Epic, und das Problem ist natürlich immer noch erheblich für die RED-Dragon Kunden, siehe wieder neue kritische Threads im RED-Forum z.B. vom 27.08.2014:
http://www.reduser.net/forum/showthread ... se-fix-yet
Und dann wird immer mal wieder so getan also ob das nur ein "Bedienfehler" sein kann ...
Antwort von WoWu:
@Frank
Das OLPF wird von den meisten Firmen so gewählt, dass es rd. 10% unter der Nyquist Frequenz abschneidet.
Das würde bedeuten, dass die Bildauflösung -auch wenn der Sensor es zulässt- rd. 10 % darunter liegt.
Der Wert hängt aber sehr stark vom Fülfaktor ab. je höher er liegt ums besser ist der Wert, bei einem geringen Füllfaktor liegt er deutlich tiefer.
Antwort von cantsin:
Und bei 4k liefern auch die guten Fotolinsen noch soviel, dass man 2k von 4k unterscheiden kann.
Ja. Aber diese genannten Zahlen über die tatsächlich mögliche Realauflösung von Objektiven und Sensoren sollte die ursprüngliche Empörung hier in diesem Thread über die Pseudo-4K der Arri Amira doch etwas relativieren.
Antwort von WoWu:
Das ist doch sowieso alles relativ.
Bei PAL haben sie uns auch 576 Zeilen versprochen und auf dem TV gerät waren dann so um die 360.
Und das, was Mediainfo sagt, mit 4 K würden wir gerade mal HD kriegen ist auch nicht so ganz verkehrt.
Warum also sollten wir ausgerechnet jetzt nicht wieder angeschmiert werden.
Es rechnet doch offensichtlich sowieso niemand nach.
Alle haben bisher doch auch immer nur dem Aufkleber geglaubt, .... also bitte.
Wo ist das Problem ?
Antwort von otaku:
Es rechnet doch offensichtlich sowieso niemand nach.
Alle haben bisher doch auch immer nur dem Aufkleber geglaubt, .... also bitte.
Wo ist das Problem ?
naja, also z.b. red sagt hier gibts 6k, gut die zaehlen jetzt die pixel auf dem chip, wo wir wissen da kommt am ende durch das debeyer nicht wirklich 6k dabei raus, sondern etwas weniger.
da fühle ich mich aber nicht wirklich angeschmiert, und ehrlich gesagt, wenn ich hier irgend welche interpolations auflösungen in zukunft angesagt bekomme ist es sogar genau richtig was red macht nämlich zu sagen was die kamera unter der haube hat.
ich finde das ist so ein wenig wie din ps und sae ps, da gibts ne formel und dann kann man das umrechnen und gut ist. und wenn sich sae ps angaben fuer uns komisch anfühlen dann ist das vom marketing auch so gewollt, aber es ist kein beschiss. ich finde das ist mit den red angaben durchaus zu vergleichen, das ist kein fake sondern eigendlich genau angesagt was da als chip werkelt. die arri seite, wo ein 2,5k chip unter der haube sitzt und dann hab ich am ende 4k da hab ich das gefühl da ist "voodoo inside"
Antwort von WoWu:
Dann dürften die TV geräte Hersteller aber nicht die identische Auflösung angeben.
Ich fände es ehrlicher, wenn die Menge der Pixels, die ein TV gerät audlöst auch mit der adäquaten Anzahl an Bilddetails gefüllt würde.
Der Fernseher machte es .. aber die Kamera nicht, egal aus welchem Grund ?
Wer darf denn nun bescheissen und wer nicht ?
Aber Du hast natürlich Recht, wenn man Pixelzahl auf dem Chip mit Bildauflösung verwechselt, dann ist schon der Anwender selbst Schuld.
Das ist das, was ich oben mit dem Aufkleber gemeint habe.
Und um bei dem Autobeispiel zu bleiben .... wenn ein Auro 250 km/h lt Prospekt fahren soll, dann ist es mir ziemlich Wurscht, ob der das mit 4 oder mit 6 Zylindern macht. Die 250km/h erwarte ich als Leistung, die hinten raus kommt, also im Tv beispiel, als Detail-Bildpunkte einer Aufnahme als Wiedergabe einer optischen Abbildung, die durch das Objektiv aufgenommen wurde.
Und ich denke, das meinen die TV Geräte Herstelle auch so.
Dazu zählen keine "gefaketen" Pixelverdopplungen oder ähnliches.
Warum also nicht die Kamera Hersteller ?
Und was die 6K angehen .... hat die Kamera ein OLED ?
Antwort von otaku:
ja klar, stimme ich dir vollkommen zu, mit kamera angaben einen fernseher bezeichnen, dann hat jeder fernseher plötzlich infinite resolution so lange er nicht auf schwarz schaltet wenn das bild kommt.
die frage ist, welche massstäbe willste anlegen? wir haben hier ja auch mal über farbtiefen und datenmengen gesprochen und haben festgestellt, das 4k in full ress, ohne kompression und in 16bit fp ca. 1000mb/sec speicher verbraucht. wir wissen aber das ne red oder alexa oder sony unter 200mb/sec rumwerkelt. und wenn netflix jetzt mit 4k streaming um die kurve kommt dann haben wir plötzlich auf wundersame weise 4k mit 5mb/sec.
was ist denn da noch 4k? sind wir nicht alle ein wenig 4k?
Antwort von WoWu:
Das denke ich nicht. Wenn man damit optisch übertragene Bildpunkte definiert, ist die Sache ziemlich kalr und auch leicht feststellbar, wer sie nicht überträgt. Dabei spielt der Codec keine Rolle, denn der überträgt die Menge der Bilddetails schon. Ob er das gut oder schlecht macht, ist eine Frage der Parameter aber er kneift keine Pixels weg.
Nur finde ist sowas, von 4K oder 6K zu sprechen und gar keine Bildpunkte zu meinen sondern Pixels ziemlich übel.
Ich hatte nach dem OLED gefragt.
Wenn die Kamera einen hat hast Du dahinter sowieso nur noch die halbe Auflösung H und die halbe Auflösung V .
Und das weiss der Kamerahersteller ja auch. Nur offenbar die Anwender nicht, sonst würden sie nicht sagen, das Ding mache 4k oder 6K.
Diese ganzen Auflösungsangaben sind ein einziges "in die Tasche" Lügerei.
Deswegen gebe ich mediainfo da Recht, wenn er sagt, wir haben endlich HD.
Antwort von RolandP:
Aber diese genannten Zahlen über die tatsächlich mögliche Realauflösung von Objektiven und Sensoren sollte die ursprüngliche Empörung hier in diesem Thread über die Pseudo-4K der Arri Amira doch etwas relativieren.
Hä? Du schreibst aus 4k-bayer kommen effektive 2,5k raus. Nach Adam Ries kommen dann aus den 3,4k-bayer der Amira nur etwa 2,1k raus. Die werden dann etwa verdoppelt, also in der Datenrate grob vervierfacht, und das ist gut?
Antwort von WoWu:
Ich glaube, man muss da mal einwenig Ordnung in die Sache bringen.
Sofern vor dem Sensor kein OLED steht, kommen auch aus dem bayer die Luminanzwerte raus, wie Pixel vorhanden sind, vorausgesetzt, das Objektiv löst es auf.
Warum sollten aus einem Bayer weniger Werte kommen ?
Antwort von iasi:
@Iasi
Das Limit bezieht sich entweder auf das Glas, wenn die Pixel ausreichen gross genug sind oder auf die Pixel, wenn die Diffraktion der limitierende Faktor ist.
Du must dich mal damit beschäftigen, dass die Anzahl der Pixel nicht mit der Bildauflösung gleichzusetzen ist.
Ja - Herr Lehrer
So und wenn du nun mit Begrifflichkeiten beginnst, dann ist zunächst immer einer Definition voranzustellen.
Und schau mal, was man bei Wikipedia finden kann:
"Die Bildauflösung ist ein umgangssprachliches Maß für die Bildgröße einer Rastergrafik. Sie wird durch die Gesamtzahl der Bildpunkte oder durch die Anzahl der Spalten (Breite) und Zeilen (Höhe) einer Rastergrafik angegeben."
Willst du etwa wirklich einen Zusammenhang zwischen Anzahl der Pixel und der Bildausflösung bestreiten?
Ich wüßte jetzt vor allem auch nicht, auf welche meiner Aussagen sich deine Belehrung nun überhaupt bezieht.
Du wirfst auch mal immer gern Faktoren in den Raum, die du dann als eindeutig und fassbar hinstellst - z.B. Diffraktion - wobei es um komplexe Systeme geht.
Dir ist aber schon klar, dass moderne Objektive sich von Lochblendenkameras unterscheiden?
Und dass eben auch u.a. durch die höhere Rechenerleistung die Konstruktion von Objektiven sich von der vor 25 Jahren unterscheidet.
Antwort von iasi:
Ich glaube, man muss da mal einwenig Ordnung in die Sache bringen.
Sofern vor dem Sensor kein OLED steht, kommen auch aus dem bayer die Luminanzwerte raus, wie Pixel vorhanden sind, vorausgesetzt, das Objektiv löst es auf.
Warum sollten aus einem Bayer weniger Werte kommen ?
Die kleine Objektiv-Anmerkung konntest du dir nicht verkneifen. :)
Aber ein Bayer-Sensor ist nun mal wie ein Bayer-Sensor aufgebaut. Und mehr Pixel bedeuten eben erst mal mehr Werte, aus denen sich Bildpunkte berechnen lassen.
Das hat erst mal gar nichts mit dem Objektiv zu tun.
Antwort von WoWu:
@Iasi
Du schreibst manchmal ein zusammenhangloses Zeug, das Du, glaube ich, selbst nicht verstehst.
Wenn Du das mal genau nachliest, was ich vorher geschrieben habe, dann wirst Du darin die sehen, dass ich als Interpretation einer Auflösung (z.B. von 4K) verstehe, was auf dem Bildschirm des Anwenders ankommt.
Und ich denke, darin kann man allgemein Konsens herstellen:
Also ein Beispiel:
Ich habe einen Bildpunkt an einer Wand : Beispiel eine kleine Kachel von 2x2 cm an allen vier Ecken meines Objektes, die von den vier Eckpixels des Sensors aufgenommen werden.
Diese vier Kacheln möchte ich auf meinem 4K Bildschirm so sehen, das sie die LEDs in den jeweiligen Ecken leuchten lassen.
Soweit so gut. Ich denke, dagegen wirst Du nichts haben.
Nun weiter zur Darstellung der Auflösung:
Wenn wir uns einmal eine solche Kachel vorstellen, z.B. die kleinen Mosaik-kacheln, die man in Badezimmern verwendet, haben 2x2 cm dann wäre der Abstand der horizontalen Kacheln der beiden Ecken (2cm x 4000 Bildpunkte)= 8000 cm = 80 Meter. Dazwischen wären die fehlenden 3.998 Kacheln.
In der Höhe ebenso von oben nach unten hätte man 2.000 Kacheln a 2x2 cm, also eine Höhe von 40 Metern, also etwa ein 16 stöckiges Haus.
Jetzt hast Du Deine 4K, einmal objektiviert.
Nun kannst Du Dir ausrechnen, wie weit man mit einem Objektiv und entsprechend der Brennweite weggehen muss, um diese Fläche von 4K 2x2 cm grossen Mosaikkacheln überhaupt erfassen zu können und dann kannst Du Dir ausrechnen, wie klein die einzelnen Auflösungspunkte (Mosaiksteinen) dann auf der Projektionsfläche des Sensors landen.
Und diese 4000x2000 Bildpunkte möchte ich auf meinem TV Gerät in einem System sehen, das mit 4K verspricht.
Sind es weniger, habe ich kein 4K System, sondern meinetwegen 2K usw.
Und da ist es jetzt schnurtzegal, ob Du in Reihen oder Spalten definierst, es bleibt dieselbe Anforderung.
Es ist mir nämlich scheissegal, wieviele Pixel ein Hersteller auf den Sensor packt und wie er damit umgeht, solange ich bei einer Fläche von 80 x 40 m jede Kachel von 2x2 cm erkennen kann, sofern er ein 4K System in seinem Katalog verspricht.
Ich glaube, Du machst Dir überhaupt keine Vorstellung, was 4K eigentlich bedeutet. Du hantierst nur mit irgendwelchen Zahlen, die Dir irgend jemand vorsetzt und glaubst jeder Nummer, die irgendeine Marktingabteilung irgendwo draufgeklebt hat.
Das hat mit Professionalität herzlich wenig zu tun.
Also:
Du kannst ja vielleicht mal Deine Definition von 4K vorstellen.
Die kleine Objektiv-Anmerkung konntest du dir nicht verkneifen.
Wieder so eine Wissenslücke.
Es ist ein Fakt, dass kleine Objektive höhere Auflösungsleistung haben, dafür deutlich schlechtere Abbildungsleistungen über fast alle andern Parameter. Hier ging es aber um Auflösung.
Du solltest Dich einmal mit Objektiven beschäftigen, bevor Du solche Anmerkungen machst, die von wenig Sachverstand zeugen.
Antwort von otaku:
ufff, das beispiel mit dem haus ist klasse, hatte ich mir so noch nie ausgerechnet. aber wir wissen alle, das ein pixel nicht reicht um eine kleine kachel befridigend darzustellen, ich wuerde aus dem bauch sagen 128x128 pixel waehre eine gute auflösung fuer so eine kachel, das bedeutet so lange wir keine 512k kameras haben müssen wir alle diesen unscharfen 4k scheiss sehen? so ein mist und ich dachte immer hd ist schon recht scharf.
sorry wolfgang, das konnte ich mir nicht verkneifen ;-)
Antwort von WoWu:
Ich wollte nur mal die Sache objektivieren, worüber hier eigentlich gesprochen wird, weil einige schon bei 6K und solch einem Quatsch reden und gar nicht merken, dass sie nur über Pixels reden aber nicht über Auflösung.
aber wir wissen alle, das ein pixel nicht reicht um eine kleine kachel befridigend darzustellen
Doch, ein Pixel reicht denn das nachfolgende System stellt (wenn man einmal die Farbunterabtastung ausser Acht lässt) pro einzelnem Pixel auch einen Signalweg bis hin zum Monitor zur Verfügung.
Würde man als anstatt eines Sensors eine elektronisch erzeugte Rastermatrix anschalten, wäre die im Monitor Punkt für Punkt zu sehen.
Es ist also die Auflösung genau an der Stelle, die wir hier diskutieren.
Und wenn es nicht reicht, dann scheitert es eben daran.
Und, egal aus welchem Grund, es ist kein 4K mehr.
Übrigens könnte man genau dieses Beispiel auch noch mit Farbe machen und annehmen, jede Kachel hätte (random) eine unterschiedliche Farbe.
Dann würde Dir wahrscheinlich der Hut wegfliegen, was dabei herauskommt.
Aber hier geht es ja nur um die reine Auflösung.
Man kann das übrigens auch mal mit Schildern von Hausnummern machen, dann wären die beiden Häuser mit ihren Schildern von Hausnummern, 1,3 km horizontal auseinander und Du müsstest entsprechend weiter weggehen, um den Bildkreis überhaupt abbilden zu können.
Egal also, wie gross Du das Ausgangsobjekt wählst, das Verhältnis bleibt immer rehalten.
Antwort von iasi:
@Iasi
Du schreibst manchmal ein zusammenhangloses Zeug, das Du, glaube ich, selbst nicht verstehst.
Und du scheinst dich auf deinen mal beim Studium erlernten Theorien auszuruhen und kein Interesse an realem Bezug zu haben.
Ich glaube zudem eher, dass du schlicht nicht verstehen willst, was dir nicht in deinen Kram passt.
Aber deine herablassende Art kannst du dir wirklich sparen - gerade weil du ja z.B. gern deine Beiträge mit Fachbergriffen anreicherst, die nicht der Klarheit der Aussage dienen, sondern einen ganz anderen Zweck haben. Wer wirklich Ahnung hat, kann sich allgemeinverständlich ausdrücken und muss sich nicht hinter Akronymen und Begriffen verstecken bzw. schmücken.
Allein schon dein ständiges Gerede bzgl. der Objektiv ....
Lies mal im aktuellen Film&TV-Kameramann den Artikel zum Objektivtest - da gibt es gerade einige passende Zeilen:
"Schnell zeigte sich, dass die Auflösung des Charts hinter der Leistung einiger Optiken ... zurückblieb. Das Chart entspricht theoretisch ca. 250 Linienpaaren pro Millimeter. Die Kamera (Red Dragon) liegt theoretisch bei etwas über 500 L.p.mm."
Ein Sensor, der die Möglichkeiten des Objektives voll ausreizt, bringt eben ein besseres Resultat, als ein Sensor, der dies nicht vermag.
Und dabei hatten sie bei diesem Objektivtest meist mit Offenblende gearbeitet und die Objektive somit noch nicht einmal bei idealer Blende genutzt.
Dein Kachelbeispiel und dein "Fakt" bzgl. kleinen Objektiven zeigt dein Theorieproblem: Du denkst komplexe Systeme und Vorgänge auf simple Regeln herunterbrechen zu können.
Antwort von otaku:
ja aber du redest gerade mehr von der sinnhaltigkeit von 4k und mehr, deswegen ja auch mein flapsiger kommentar.
ich bin auch der meinung das 4k und mehr lediglich in der post sinn machen KANN (nicht zwingend sinn macht!). Aber es macht meiner meinung nach nur dann auch wirklich sinn wenn es eine "echte" optische auflösung ist, und nicht wenn es aus irgend welchen random interpolationen besteht.
ich will mal als beispiel film material nehmen, auch auf die gefahr hin das sich das nicht 100% vergleichen lässt.
wenn ich einen film streifen in hd/2k abtaste dann habe ich ein sehr geringes korn und relativ scharfe kanten, das lässt sich gut bearbeiten, weil ich saubere trennungen zwischen den details habe. wenn ich jetzt aber das gleiche material in 4k abtaste, dann gewinne ich eigendlich keine/fast keine detail information mehr, mein korn wird jetzt so gross (und scharf), das das zum echten stöhr faktor bei der bearbeitung wird. also nehme ich mein 4k plate erstmal und hämmer alles durch das denoise, jetzt werden mir auf wundersame weise details ins bild gerechnet, die eigendlich garnicht da sind.
jetzt bearbeite ich den ganzen scheiss und am ende mauschel ich mein korn wieder drauf. kann man natürlich alles machen, scheint auch erstmal total sinnvoll, erzeugt aber unter dem strich mehr probleme und die qualität ist ausser in ausnahmen auch nicht besser als haette man das ganze direkt in 2k gemacht, es hat alles nur 4x so lange gedauert.
jeder der mal 4k scans selbst bearbeitet hat wird mir zustimmen, deswegen macht hollywood das auch nicht mehr, weil es einfach nur geld verbrennen ist und sonst garnichts. ich weiss, christopher nolan, bla bla bla, der findet das natuerlich total toll, aber sprecht mal mit den jungs von dneg die das zusammen getakkert haben, die kotzen alle, weil sinnlos und extrem zäh.
ich will am anfang als footage was haben das maximale details hat die optisch erzeugt worden sind, hochrechnen kann ich es selber und versuche es zu vermeiden wo es geht. ich rechne auch kein grain raus, ich behalte das original, es raus zu rechnen ist bei mir eine verzweifelungs tat die ich nur benutze wenn es garnicht anders geht.
Antwort von iasi:
Aber dein Korn-Beispiel zeigt doch auch, dass die Sache sehr viel komplexer ist:
Filmkorn variiert von Bild zu Bild, was dazu führt, dass du eben nicht nur das Einzelbild betrachten darfst.
Natürlich ist ein Mittelformatnegativ etwas anderes als ein KB-Negativ.
Aber ein Kodakchrome 25 ist eben auch nochmal etwas anderes als ein Ektachrome 100 - einfach mal grob zu behaupten KB sei immer gleich KB stimmt eben nicht.
Und genauso, wie du mit einem Koakchrome 25 eben andere Bilder machen kannst, als mit einem Ektachrome, bietet eben ein Dragon oder eine F65 nochmal mehr als eine Alexa/Amira - und dies mit ein und demselben Objektiv.
Antwort von otaku:
@iasi
natürlich ändert sich das korn je nach film material, aber soweit ich weiss gibt es fuer 35mm film kameras gar kein 25asa material. ich glaube standart war damals immer 200asa bzw 400asa und da ist das korn schon in der grösse wie ein tennisball, ausserdem dreht ja keiner auf dia material und fuji haben die meisten auch nur unter schmerzen benutzt.
also 400er kodak negativ war der standart wenn ich nicht irre, aber selbst da hatte natürlich auch das kopierwerk noch erheblichen einfluss wie das negativ am ende ausgesehen hat. du hast also recht, das filmkorn an sich gab es nicht, dennoch war 4k scan immer korn wie bolle und im original nicht benutzbar wobei 2k scans eigendlich "out of the box brauchbar" waren.
der punkt ist, wir mussten daran herum interpolieren um es nutzen zu können, haben aber am ende keine besseren ergebnisse bekommen, genau weil es interpoliertes material war. deswegen macht es halt auch keiner mehr, ausser ein paar leuten in deutschland deren anzahl der zuschauer so gering ist, das die auch vhs kasetten verteilen könnten.
4k bringt mir was wenn die auflösung "echt" ist, wir haben festgestellt das der begriff sich aber leider sehr weit ausdehnen lässt.
der weg den red da geht, der macht fuer mich sinn, ich finde das footage echt geil, und wenn es irgend einen grund gibt zu 4k zurück zu gehen, dann ist es genau der das das red zeugs so klasse aussieht.
für mich ist 4k nicht neu und die zukunft, sondern eigendlich alter scheiss von dem man sich aus guten gründen längst verabschiedet hat.
Antwort von WoWu:
@iasi
Und du scheinst dich auf deinen mal beim Studium erlernten Theorien auszuruhen und kein Interesse an realem Bezug zu haben.
Ganz im Gegenteil. Ich habe eben nicht den Bezug verloren wenn ich das einfordere was auf der Verpackung steht. Und da stehen 4K drauf und nicht 4K Korn.
Ich glaube zudem eher, dass du schlicht nicht verstehen willst, was dir nicht in deinen Kram passt.
Ich möchte nur verstehen, warum uns 4K vorgemacht werden, die wir gar nicht bekommen.
Aber deine herablassende Art kannst du dir wirklich sparen - gerade weil du ja z.B. gern deine Beiträge mit Fachbergriffen anreicherst, die nicht der Klarheit der Aussage dienen, sondern einen ganz anderen Zweck haben. Wer wirklich Ahnung hat, kann sich allgemeinverständlich ausdrücken und muss sich nicht hinter Akronymen und Begriffen verstecken bzw. schmücken.
Reine Polemik weil es von Deiner Seite keine Argumente gibt.
Und wenn Du das angeführte Beispiel (mit dem Mosaik) nicht verstanden hast, dann erübrigt sich auch der Ruf nach Verständlichkeit.
Dan liegt es nämlich am Verständnis.
Allein schon dein ständiges Gerede bzgl. der Objektiv ....
Lies mal im aktuellen Film&TV-Kameramann den Artikel zum Objektivtest - da gibt es gerade einige passende Zeilen:
"Schnell zeigte sich, dass die Auflösung des Charts hinter der Leistung einiger Optiken ... zurückblieb. Das Chart entspricht theoretisch ca. 250 Linienpaaren pro Millimeter. Die Kamera (Red Dragon) liegt theoretisch bei etwas über 500 L.p.mm."
Das ist das Problem. Du glaubst jedem Blog-Geblubber, weil Du die Hintergründe nicht verstehst. Sonst würdest Du das einmal auf den Wahrheitsgehalt überprüfen denn sowohl ein Objektiv, als auch ein Prozessweg hat eine MTF, die sich im Gesamtsystem addieren.
Aber das ist jetzt wahrscheinlich schon wieder nicht verständlich genug.
Nur ein Mindestmass an KnowHow muss man nun mal bei dem Thema voraussetzen, aber wenn selbst das Mosaikbeispiel für Dich zu kompliziert ist, dann glaub mal lieber weiter dem Blog-Geschwafel.
Vielleicht reicht ja das kleine 1x1 bei Dir denn 500 Lp/mm das sind 1000 Lines, also bei einem 30mm Sensor wären das 30.000 lines, also 30K. Warum bietet RED denn die Kamera als 4K an, wenn sie doch 30K macht.
Siehst Du, was für ein Quatsch das ist, der Dir da geboten wird ?
Komm mal wieder von den Sprüchen runter und begreif endlich mal, wie Optik funktioniert.
Ein Sensor, der die Möglichkeiten des Objektives voll ausreizt, bringt eben ein besseres Resultat, als ein Sensor, der dies nicht vermag.
Solche umkonkretes Geseiber kannst Du Dir schenken.
Dein Kachelbeispiel und dein "Fakt" bzgl. kleinen Objektiven zeigt dein Theorieproblem: Du denkst komplexe Systeme und Vorgänge auf simple Regeln herunterbrechen zu können.
Ja, das stimmt aber ich habe auch begriffen, dass das nicht alle können und von optischen Gesetzen nicht wirklich etwas verstehen.
Halt nur weiter die Pixelzählerei für Auflösung und stimm Dich mit denen ab, die dieselben Blogs für bare Münze nahmen. Dann hast Du auch Deine 6k.
Ich halt mich da auch auch an das, was mediainfo sagt und wir sollten froh sein, dass wir jetzt halbwegs HD haben.
Wobei mich wirklich mal Deine Definition von "Auflösung" interessiert.
@otaku
Nochmal meine Frage:
Hat die RED denn nun ein OLPF oder nicht ?
Denn wenn sie ein OLPF hat, kann der Sensor nur noch die halbe Auflösung V und H, weil es 2 doppelbrechende Filter sind, die 1 Signalanteil auf je 4 Pixel verteilen.
Man kann also gar nicht mehr von 6K reden und auch nicht von 4K, weil jeweils 4 Pixel nur einen Auflösungsanteil des Objektives sehen.
Antwort von otaku:
@wowu
das kann ich dir ganz genau sagen, ich hab keine ahnung. ich habe leider noch nicht mal ne ahnung was OLPF ist. deswegen muss ich ja leider zu so halbgaren vergleichen wie film und korn greifen. was in einer kamera passiert, davon hab ich leiter absolut keine ahnung, deswegen stelle ich deine aussagen ja auch nicht in abrede sondern sag nur welche erfahrungen ich in der praxis mache und schliesse auch nicht aus das meine "erkenntnisse" manchmal psychosomatisch sein können ;-)
das red keine "echte" 6k sind, da bin ich ja voll bei dir. die haben echte 6k pixel auf dem sensor, was dann raus kommt ist was anderes, weil man ja durchs debeyer die pixel nicht 1:1 in auflösung umrechnen kann.
aber wie schon ein paar beiträge früher gesagt, wenn debeyer und hochrechnen jetzt plötzlich das gleiche ist, dann ist mir der "K" wert als chip angabe lieb, weil ich ja sonst sowieso schreiben kann was ich will. dann hat mein iphone4 auch 4k. dann brauche ich auch nicht mehr über optischen oder software zoom nachdenken, dann ist irgendwie ja alles das gleiche.
dann ist es genau wie du sagst, man macht ne umfrage wieviel k die käufer am liebsten hätten und das druckt man dann auf die verpackung, das hat dann mit dem inhalt aber nichts mehr zu tuen.
Antwort von Jan Reiff:
da die post gelöscht wurden und wahrscheinlich deshalb nicht gelesen:
ich werde nicht mehr in slashcam schreiben. diese ganzen besserwiser die noch vor 2 jahren eine gebrauchte DSLR als anfänger hier gesucht haben und sich heuer als experten in sachen DOP und kino-bildgestaltung aufpumpen braucht kein mensch. auch ist das anonyme in so einem forum auf dauer eher kindergarten.
auch posts die keine grundlage haben (dragon rauscht mehr als MX von "mediavideo" der 100% noch keinen einzigen job mit dragon gemacht hat) >> dazu siehe hier
http://www.reduser.net/forum/showthread ... mth-wrong-!
... sind zur bodenlose langeweile verkommen.
lustigerweise werden nur jene posts zitiert, die das gegenteil behaupten. und ja, die meisten "noisy" bilder sind bedienfehler. heute wieder von einem kollegen ein raw bekommen, das schlichtweg 2 blenden zuwenig auf der theke hatte. denke es dauert noch ne weile bis mehr und mehr die dragon richtig belichtet wird.
so oder so - wer interesse hat weiter an tests und ergebnissen kann mich anschreiben, wird dann aber eben seine maske fallen lassen müssen
aktuell auf dem tisch und getestet:
mitakon 0.95 an der 7S bzw 7R mit bokeh beispielen, viele viele neue grandiose dragon bilder die den massiven step forward zur MX zeigen, ...
oder sobald available haben wir die amira "4K" hier im studio im 1:1 vgl mit den dragons ... mit den beliebten 200% crops (!!)
wird spannend - und vieles andere ...
natürlich hat die Red einen OLPF, wie viele andere auch. demnext kann man auch ohne OLPF operieren, in der neuen firmware kann man schon wählen zwischen den diversen set ups die demnext kommen.
zu diesem ganzen thema was ihr hier habt solltet ihr euch mal die dragon monochrome reinziehen...
soweit so gut, weiterhin viel spass im seichten wasser der anonymität.
interessanten austausch mit wowu usw werde ich wie schon geschehen weiter auf email ebene hoffentlich fortsetzen, so fachchinesisch das alles für mich ist, so interessant ist es auch wieder. in einem hat otaku recht: das red bild ist eine wucht, daran ändern auch die ganzen falschen aussagen nichts. soweit ich weiss ist in der aktuellen DP auch ein bericht über die dragon, den ich aber noch nicht kenne, nur wurde von uli planck angekündigt, dass er sehr beeindruckt ist vom drachen. im final cut forum weiterhin unter der produktion "bar vinya" und in reduser unter REAL name am leben.
dreht"s gute stories, folks.
Antwort von otaku:
@Jan
ich verstehe deinen unmut was die anonymität angeht, und ich denke auch das klarnamen oft den umgangston erheblich verändern würden, aber mit klarnamen kann ich einige dönekkes aus verschiedenen produktionen nicht zum besten geben, ich kann auch nicht offen kritisieren, solange ich noch weiter im film arbeiten möchte. dazu ist ein forum unter anderem aber auch da, sowas zu tuen. wenn du sagt das du auf anonyme posts nicht mehr reagieren willst, dann verstehe ich das, und es ist auch dein gutes recht so zu verfahren, auch wenn ich das schade fänd, du solltest aber auch akzeptieren das es menschen gibt die das anders sehen.
Antwort von WoWu:
Moin Jan.
Wie auch OTAKU schon gesagt hat. Es ist absolut nichts dagegen einzuwenden, wenn man ein bestimmtes Kameraergebnis einem andern vorzieht und sich deswegen für die Kamera entscheidet.
Hier wurde aber mit Argumenten für Auflösung handtiert, die mit Auflösung absolut nichts zu tun haben.
Und ich mag ja ziemlich einsam mit der Auffassung dastehen, dass ich die Auflösung eines 4K Monitors von der Kamera gern so unterstützt hätte, dass ich auch 4K unterschiedliche Bilddetails sehe und nicht, das jedes 2. Bilddetail einfach die Wiederholung des anderen ist.
Dann kann ich gleich 2K behalten, weil mein Monitor mit LEDs ausgerüstet ist, die nicht weiter zur Bildauflösung beitragen.
Ich finde nur grundsätzlich, dass die die über solche Verarbeitungsthemen diskutieren wenigstens einmal so einen Prozessweg verstanden haben sollten und wenn sie über Optische Lösungen diskutieren, wenigstens die Basiskenntnisse der Optik haben sollten statt so hole Sprüche zu bringen ... es habe sich alles weiterentwickelt.
An der Gravitation hat sich auch nichts geändert.
Wir mailen bei Gelegenheit wieder.
Antwort von RolandP:
Also ein Beispiel:
Ich habe einen Bildpunkt an einer Wand : Beispiel eine kleine Kachel von 2x2 cm an allen vier Ecken meines Objektes(...)
In der Höhe ebenso von oben nach unten hätte man 2.000 Kacheln a 2x2 cm, also eine Höhe von 40 Metern, also etwa ein 16 stöckiges Haus.
Jetzt hast Du Deine 4K, einmal objektiviert.
Ein anderes Beispiel:
Eine gängige Kadrierung ist die Halbnahe, bei der die Person von knapp über der Hüfte bis knapp über dem Kopf gezeigt wird. Gehen wir mal von 65cm Oberkörper aus.
Ein Pixel entspricht bei 1080px Bildhöhe 0,6mm. Die Iris des Menschen ist im Durchschnitt 12mm groß, was etwa 20 Bildpunkten entspricht. Wenn die Möglichkeit besteht, eine Iris nicht in 400, sondern 1600 Punkten abzubilden, wäre das nicht schön? Ich liebe Augen :)
Wenn die ganze Person von Kopf bis Fuß zu sehen ist, schrumpft die Iris auf 7 x 7, also weniger als 50 Bildpunkten. Wären 200 nicht besser? Sagte ich schon, dass ich Augen liebe? ;)
Oder eine Totale mit 10,8 Meter hohen Bäumen. Wie groß ist ein Blatt? Sagen wir 2x2 cm. Wäre es nicht schön, wenn ein Blatt aus mehr als 4 Bildpunkten besteht?
Antwort von WoWu:
Der Wunsch ist schon ok. Die Frage bleibt aber, aus wieviel Punkten das Blatt dann wirklich auf dem Bildschirm besteht.
Du kannst eine 2x2 cm Kachel auch bildschirmfüllend darstellen. Frage ist nur ob sie dann in 8.294.400 (UHD) Bildpunkten aufgelöst ist oder vielleicht nur in 2 Millionen.
Es geht bei dem Vergleich ja um die Darstellung der angegebenen Auflösung.
Das jeder Zugewinn an Auflösung positiv ist, steht ausser Frage.
Die Frage ist, ob 4K ein Ettikettenschwindel ist.
Denn in diesem Thread ging es ja darum, dass die Amira Auflösung gar nicht für 4K ausreicht.
Die Frage stellt sich, ob andere Kameras überhaupt 4K machen oder ob sich der vergleich schon perse erübrigt.
Antwort von otaku:
Das jeder Zugewinn an Auflösung positiv ist, steht ausser Frage.
ne das stimmt so halt genau nicht, daher kommt ja auch der drang alles möglichst in 100k aufzunehmen und wiederzugeben.
auflösungen grösser hd machen in den meisten fällen keinen sinn, nichtmal ein bissel. nur in einigen (wenigen) fällen macht das sinn, und dann auch nicht auf der wiedergabe seite sondern nur auf der aufnahme seite.
schau dir die untersuchung von red zu dem thema an, haben wir hier ja schon oft zitiert. kino erstes drittel vor der leinwand hat überhaupt ne chance den unterschied zu sehen. das sagt red. wenn man arri fragt werden die wohl sagen nur die ersten 2 reihen sehen das ;-)
die standart anwendung ist aber noch nicht einmal kino sondern monitor,
ob tv oder computer ist erstmal egal. ich kenne niemanden, der mit durchschnittlicher sehstärke so dicht vor seinem monitor sitzt das der betrachtungsabstand runterskaliert dem des ersten 3tel im kino entspricht.
das bedeutet ob ich das auge nun in 20pixel auflöse oder in 80pixel ist total egal, weil ich den unterschied nicht sehen werde.
sinnvoll wird die hohe auflösung erst, wenn man in der post dann ins auge fahren möchte und dann in einer anderen welt landet, wie schon 1000 mal gesehen. wenn man aber für 5 mark ahnung hat wie post geht, dann braucht man die hohe auflösung selbst für sowas nicht. den effekt gibts ja auch nicht erst seit hd oder uhd, das haben wir ja zu pal zeiten auch schon gebaut.
also auflösungen über wiedergabe auflösungen sind sinnvoll wenn
a. der kameraman im rollstuhl sitzt und es ihm nicht zuzumuten ist die kamera zu bewegen
b. wenn ich detail händisch aus einem bild heraus arbeiten muss
c. wenn ich ein bild stabilisieren muss
d. wenn ich drehen will während der dop/regisseur beim catering ist
gibt bestimmt noch 2-3 gruende aber die fallen mir jetzt gerade nicht ein weil vermutlich unbedeutend.
4k ist fuer mich wirklich eine sicherheits option, mehr nicht.
farbtiefe z.b. finde ich aus vielen gründen wichtiger als pixel anzahl
Antwort von WoWu:
Farbtiefe finde ich auch wichtiger nur halte ich einen Auflösungsgewinn, sofern es sich um Szenenauflösung handelt, schon für erstrebenswert, solange wir es wahrnehmen können, da geb' ich RolandP schon recht.
Nur hätten -in seinem Beispiel- 4K das Blatt vielleicht nicht mit 4 sondern mit 16 Pixels aufgelöst, wenn es echtes 4K gewesen wäre.
Dann träfe seine Zustandsbeschreibung zu und wäre noch übertroffen gewesen.
Man muss nur die Sache eben objektivieren und nicht so nebulös sagen i"ist doch toll".
Eventuell habe wir ja wirklich gerade erst HD erreicht.
Die Wahrscheinlichkeit ist ebenso gross wie sie damals PAL für 562 verkauft haben und wir alle grosse Augen bekommen haben, welche Auflösung von einer DVD kommt, obwohl sie auch nur 5 MHz hatte.
Was mich nur nervt ist dieser Kadavergehorsam. Wenn 4K drauf steht ist auch 4K drin und wenn 6K draufsteht ist das besser als 4K (steht ja drauf).
Statt mal das Gehirn einzuschalten werden nur Kataloge gelesen.
Antwort von iasi:
Die Frage stellt sich, ob andere Kameras überhaupt 4K machen oder ob sich der vergleich schon perse erübrigt.
Das Problem ist doch, dass du meist die Antwort zu haben glaubst.
So simple und einfach ist es aber eben nicht.
Was mich nervt, ist dieses Runterbrechen auf grobe und mal eben postulierte "Fakten".
Niemand behauptet, dass ein 4k-Bayer-Sensor 4k liefert. Jedoch kann man eben davon ausgehen, dass ein Dragon oder eine F65 dies können.
Dabei ist das, was das Objektiv abzubilden vermag, noch einmal etwas anderes.
Wenn nun Arri aus einem 3,5k-Bayer-Sensor 4k zaubern will, ist dies eben doch noch weit entfernt von dem was Dragon und F65 bieten.
Sigma hatte es bei den Foveon-Kameras auch versucht, per Softwaretrick mit der Bayer-Konkurrenz in Sachen Pixelzahl mitzuhalten - da hieß es dann:
Auch unsere Foveon haben 3x4MPixel.
Was auch immer wieder intressant ist, sind die Grenzen, die mit theoretischen Fakten untermauert, immer wieder gezogen werden ... die dann aber doch immer wieder fallen oder verschoben werden.
Es ist mit dem Auflösungsvermögen des menschlichen Auges, wie mit dem des einzelnen Filmbildes - man betrachtet immer nur einen Bereich und unterschlägt andere wichtige Aspekte, wie z.B. die fließende Kornstruktur durch den Bildwechsel.
So einfach ist es eben nicht, mit der menschlichen Wahrnehmung, als dass man mal eben ein wenig mit Bilddiagonalen und Abständen rechnen könnte.
Arri wird eine Kamera bringen, die echte 4k liefert - davon bin ich überzeugt. Dieses 4k-Recording ist nur ein Ausreizen der existierenden Amira/Alexa-Hardware.
Antwort von WoWu:
Niemand behauptet, dass ein 4k-Bayer-Sensor 4k liefert.
Das ist auch wieder so ein Bloggelaber denn ein 4K Sensor mit Bayermaske liefert sehr wohl 4K weil hinter jeder Maske, egal ob grün, rot oder blau eine Fotozelle sitzt, die einen Luminanzwert abliefert.
Ein Bauersensor liefert also sehr wohl 4k
Nur der davor gesetzte LowPassFilter nicht, weil er über doppelbrechende Beschichtung arbeitet und die Auflösung so auf 1/4 herabsetzt.Dabei ist das, was das Objektiv abzubilden vermag, noch einmal etwas anderes.
Sehr richtig, nur spielt es keine "andere" Rolle sondern ist teil des Systems und bestimmt massgeblich welche Auflösung, also wieviele Bildpunkte, die durch das Objektiv aufgenommen sind, am TV gerät ankommen.
Wenn nun Arri aus einem 3,5k-Bayer-Sensor 4k zaubern will, ist dies eben doch noch weit entfernt von dem was Dragon und F65 bieten.
Begründe mal und sag worauf sich Deine Vermutung bezieht, denn "sieht man doch" is nich...
Mal ganz abgesehen davon, dass die F65 auch ein austauschbares OLED für 2 oder 4 k hat.
Aber Du machst schon wieder den Fehler, Sensorpixels mit Auflösung zu verwechseln.
Aber definier doch bitte mal, was für Dich Auflösung ist .
Danach können wir uns dann wahrscheinlich jede weitere Diskussion ersparen.
Sigma hatte es bei den Foveon-Kameras auch versucht, per Softwaretrick mit der Bayer-Konkurrenz in Sachen Pixelzahl mitzuhalten - da hieß es dann:
Auch unsere Foveon haben 3x4MPixel.
Was immer das auch heissen soll.
Was auch immer wieder intressant ist, sind die Grenzen, die mit theoretischen Fakten untermauert, immer wieder gezogen werden ... die dann aber doch immer wieder fallen oder verschoben werden.
Nichtssagend
So einfach ist es eben nicht, mit der menschlichen Wahrnehmung, als dass man mal eben ein wenig mit Bilddiagonalen und Abständen rechnen könnte.
Dann wünsch Dir mal lieber nicht, dass wir jetzt das Thema Motion Blur bei 4K aufmachen. Dann geht Dein Argument nämlich nach hinten los.
Arri wird eine Kamera bringen, die echte 4k liefert - davon bin ich überzeugt. Dieses 4k-Recording ist nur ein Ausreizen der existierenden Amira/Alexa-Hardware.
Arri wird mit der Hardware dieselben Sichtergebnisse erbringen, wie alle andern sogenannten 4K Kameras auch. Weil die andern auch keine 4k machen.
Und den eigentlichen Unterschied zum ARRI Bild wiest Du im Vergleich.
Antwort von mediavideo:
Damit der Videofilmer Jan das vielleicht doch noch versteht:
EPIC MX Noise - S/N Ratio laut RED-Datenblatt: 66 dB
DRAGON Noise - S/N Ratio laut RED-Datenblatt: 80 dB (Noise/Rauschen sollte also wesentlich besser sein als bei einer EPIC MX)
Schon die ersten DRAGON Kunden haben wegen dem schlimmen Rauschen der DRAGON gegenüber der EPIC MX rebelliert:
08.06.2014 - DRAGON vs EPIC MX Noise - NOT GOOD
http://www.reduser.net/forum/showthread ... e-NOT-GOOD
Nach 41 Seiten Shit-Storm in nur wenigen Tagen wurde der Thread am 12.06.2014 von RED geschlossen mit dem Versprechen: neue Firmware und OLPF würde beim Noise helfen
http://www.reduser.net/forum/showthread ... ost1377831
Also gibt RED das schlimme Rauschproblem der DRAGON gegenüber der EPIC MX zu !!!
... und fast 3 Monate später immer noch die Beschwerden über den zu stark rauschenden DRAGON Sensor und keine Lösung:
http://www.reduser.net/forum/showthread ... se-fix-yet
Sowas ist doch nur noch eine Lachnummer !!!
Lies meinen technischen Post nochmals:
http://forum.slashcam.de/re-arri-amira- ... ht=#740671
Wer meinen Post technisch verstanden hat, der weiß: Das Problem liegt wohl an der kleineren Pixelpitch der DRAGON gegenüber der EPIC MX und ist eben nicht mit einem kleinen Firmwareupdate oder OLPF zu lösen - das Kameradesign ist einfach grottenschlecht und nur auf Auflösungsmarketing angelegt !
Soll ich mal deine Posts raussuchen ? - da hast Du z.B. von ca. 2 Wochen gesprochen, dann wird das Problem sicher behoben sein !
Wie kann jemand der zugibt von der Kameratechnik nicht genügend zu verstehen und gerne bei WOWU lernen würde so etwas behaupten ???
Und dann gibst Du auch noch zu den RED-Kram über Nacht zu Denoisen (Zitat: ... das ist dann mein Bier.), dass die Kunden das nicht merken wie schlecht die Originalqualität war - soll ich den Post auch raussuchen ?
Das ist richtig peinlich !!!
ARRI mag keine 6k haben, wer immer das braucht und auch 6k Linsen hat, aber ARRI steht seit über 50 Jahren für solide Top-Technik und macht eben kein lächerliches Auflösungsmarketing! - Hollywood hat in den letzten Jahren immer öfters ARRI geholt und dafür RED rausgeworfen, nenne mir doch mal Gründe dafür ? - Auflösung hatte die RED immer schon mehr als die ARRI - merkst Du was ?
Antwort von perrostar:
Irgendwie glaube ich zu wissen wie man diese "Diskussion" schnell und einfach beenden kann.
Lieber Iasi
Deine RED Dragon ist super und die Amira nicht ganz so. Ich glaube das haben jetzt alle gecheckt :-)
lg und schlaf gut
Antwort von WoWu:
Nur mal so zur Info eingeworfen.
Mit dem OLED kann man schon am Rauschen was machen, indem man Aufdampfenden benutzt, die andere Stärken und andere Reflektionseigenschaften haben denn hinter dem OLED sitzen ja Pixels und wenn die aus der Doppel Brechung wenig Photonen kriegen, rutscht die Effizienz des Pixels natürlich in den Keller und der "Farbkanal" muss mit Verstärkung aufgeholt werden.
Benutzt man Aufdampfungen, die das Licht effizienter brechen, hat man bessere Photonenwerte und damit weniger Verstärkung bzw. ein besseres SNR Verhältnis.
Aber zu den beiden konkreten Fällen weiss ich nichts. Nur allgemein als Info.
Antwort von Thunderblade:
das Kameradesign ist einfach grottenschlecht und nur auf Auflösungsmarketing angelegt !
Das Rausch/OLPF Problem ist ja noch nicht die einzige peinliche Angelegenheit.
Das nächste Problem:
http://www.reduser.net/forum/showthread ... LPF1-amp-2
Gate Shadows!!! Offenbar ist der gesamte optische Weg zwischen Optik und Sensor eine komplette Fehlkonstruktion!!!
Antwort von Jan Reiff:
soviel Gülle wie hier abgeladen wird schafft ein Bauer nicht in seinem ganzen Leben -
Pappnasen ohne jegliche Erfahrung mit einer Kamera posten irgendwelche anderen falschen Einschätzungen (Stichwort Cal Map / Black Shading / right / left goal histogram) aus anderen Foren ... Das nennt man dann Fachwissen. Kamera brauche ich nicht mehr testen, ich hole mir die Infos aus dem Web. Was für eine armselige Generation die da nachkommt.
Christian ala Mediavideo postete hier anfangs solche glorreichen Posts:
"Habe eine Problem mit der EOS 5D Mk II auf meinem Videostativ"
Andere nennt er "Videofilmer" - heuer ist er DER Fachmann für Dragon und sonstige Kameras - ohne jemals damit gedreht zu haben.
Und wieder das Problem des Anonymen: Kinder können zwar ab einem gewissen Alter lesen - und sogar copy and paste anwenden. Glückwunsch.
"Die bei Reduser haben aber gesagt ..." Fast schon süss. Frage ist , wer ist "die" - von tausenden Dragon Usern ca 10, ... is klar ...
Thema Rauschen: es ging um die red sparkles. nicht um "noise"
Man sollte schon englisch können wenn man hier seine Cojones aufpumpt.
Und wenn wir schon beim "Zitieren" sind, ...
"Videofilmer" wie Shane Hurlbut halten die Dragon übrigens auch für eine vollendete Fehlkonstruktion ...
Da man SEHR einfach aber hinter die Identität aller Anonymen kommt, und sich dann schlapp lacht wer das alles ist, ist es wie gesagt dann auch eher amüsant - mein Tipp an andere: glaubt den ganzen Schwachsinn einfach nicht.
Last one. Really.
Antwort von perrostar:
Pappnasen ohne jegliche Erfahrung mit einer Kamera posten irgendwelche anderen falschen Einschätzungen (Stichwort Cal Map / Black Shading / right / left goal histogram) aus anderen Foren ... Das nennt man dann Fachwissen. Kamera brauche ich nicht mehr testen, ich hole mir die Infos aus dem Web. Was für eine armselige Generation die da nachkommt.
Guter Kommentar. Ist das Grundproblem fast aller Foren. Wenn Wikipedia dann als Quelle hergenommen wird wo ebenfalls jeder schreiben kann was ihm oder ihr gerade als Hirnexkrement rauskommt wirds kritisch.
Ich habe in er Zeitung gelesen in der Doku gesehen usw. und schon wird es als wissenschaftlich fundamental zitiert.
Viel bedauerlicher finde ich den Umstand das sobald ein Thread mit RED oder ARRI eröffnet wird immer die gleichen Personen fast schon reflexartig das Gespräch in einer derart emotionale bzw. beleidigende Richtung bringen das es kaum mehr Sinn macht die Postings zu lesen.
Antwort von Jan Reiff:
wie gesagt...
Ein Kameramann der Academy / ASC ist begeistert von der Dragon ... siehe Attach oben.
ein Christian ala Mediavideo (dessen setup vor 3 Jahren noch 5D und Videostativ war) und andere, die noch nie damit gearbeitet haben, erzählen von einer "peinlichen" Kamera (auf der Emmerich dreht, Fincher usw).
Jeder kann für sich entscheiden, welcher Meinung er mehr Glauben schenkt.
Eine bessere Vorlage für den Schlusspunkt hier hätten mir Christian und Donnermesser nicht zuspielen können, weil:
ihr habt keine Ahnung, und gebt das auch noch offen zu, weil ihr nichts anderes beitragen könnt, als von einem anderen Forum Inhalte hier reinzustellen. Inhalte von Footage, das teilweise 4 Blenden unterbelichtet war, weil die Leute auf RG4 belichtet haben anstatt das Histogram zu lesen bzw ein gescheites BS zu machen und auf die Cal Map zu achten.
Aber wo sind Eure wirklichen Belege ? Ist das wirklich Euer ernst : "In dem Forum kann man lesen, dass ..." Das ist Eure Messlatte für die Beurteilung einer Kamera ? Ernsthaft ? Jeder Hobby-Filmer ist da besser aufgestellt.
Der einzige, den ich ich hier sehe, der sogar Dragon Raws gepostet hat, bin ich - und ihr ? Kaut irgendwelchen Quatsch nach, während ihr wahrscheinlich danach loszieht, Hochzeitsfilmchen auf der DSLR auf dem "Videostativ" zu drehen.
Großartig.
Antwort von alibaba:
hahaha sehr schön
Antwort von otaku:
Damit der Videofilmer Jan das vielleicht doch noch versteht:
Hollywood hat in den letzten Jahren immer öfters ARRI geholt und dafür RED rausgeworfen, nenne mir doch mal Gründe dafür ? - Auflösung hatte die RED immer schon mehr als die ARRI - merkst Du was ?
aus welchem blog kommt denn diese weisheit? der letzte film der auf alexa gedreht wurde den ich bearbeitet habe war 2011. ALLES andere danach war red. jetzt bin ich natürlich statistisch nicht relevant, aber das hollywood nicht mehr auf red dreht halte ich für ne klo parole.
wenn man sowas schreibt sollte man evtl auch mal eine quellenangabe hinzufügen.
Antwort von mediavideo:
Zum RED-Dragon Rauschproblem:
Da brauche ich nicht einmal das RED-Forum mit der Lösungsankündigumng von RED zu zitieren, denn Jan Reiff selbst gibt das Rauschproblem bei RED zu und bestätigt eine nötige Lösung dazu:
12.06.2014 von Jan Reiff - Für RED ist schon ein ADD-Denoiser für kundenakzeptable Bildqualität nötig:
Zitat: "... die Szenen denen es guttut laufen dann z.B. nachts an einem Mac Pro direkt von der internen oder tb2 Platte durch, klar, dauert, ist aber dann auch morgens fertig ..." - und dann weiter unten imText: "... ist dann mein Bierchen ... soll am Ende gut aussehen, das Wie ist nicht Kundensache."
https://www.slashcam.de/forum/viewtopic.php?p=724979#724979
By the way: Was glaubst Du denken die Kunden von Dir, wenn Du nur mit digitalen Tricks die versprochene Kameraqualität bekommst und nicht von der Kamera ?
12.06.2014 von Jan Reiff - In ca. 2 Wochen
Zitat: "... bin echt gespannt was in den nächsten 1-2 Wochen von Red kommt diesbezüglich ... ein gutes Beispiel eines dann eben doch lebhaften und guten Forums wie reduser, wo recht offensiv die Dinge angesprochen werden von den Usern und dann auch in recht kurzer Zeit angenommen werden ... "
https://www.slashcam.de/forum/viewtopic.php?p=724941#724941
... und fast 3 Monate später immer noch die Beschwerden über den zu stark rauschenden DRAGON Sensor und keine Lösung:
http://www.reduser.net/forum/showthread ... se-fix-yet
Damit das mal klar wird mit der Pixelpitch, z.B. bei Sony:
Alles Exmor Technologie:
1. S35 4k Sensor (z.B. F5/F55): - ca. 24,9 mm Breite bei 4096 Pixeln = 6,07 µm Pixelpitch (ab ca. 6 µm gilt als "rauschfrei" bzw. ist langzeit-schwarzstabil)
2. 2/3 Zoll HD Sensor (z.B. PMW-400) - ca. 9,5 mm Breite bei 1920 Pixeln = 4,94 µm Pixelpitch
3. 1/2 Zoll HD Sensor (z.B. EX1) - ca. 7,0 mm Breite bei 1920 Pixeln = 3,64 µm Pixelpitch
4. 1/3 Zoll HD Sensor (z.B. NX5) - ca. 5,2 mm Breite bei 1920 Pixeln = 2,70 µm Pixelpitch
Anmerkung: Die 6 µm "rauschfrei-Grenze" gilt aber nur für Firmen wie z.B. Sony und Canon die diese Chiptechnologie auch besitzen. Andere Sensorhersteller können bei 6 µm durchaus auch rauschende Sensoren liefern.
Kamerainteressierte wissen, dass die Rauschreihenfolge der Sony Kameras in dunklen Bildteilen vom 1. bis 4. Sensortyp zunehmend ist (ist ja nicht schlimm, ist ja auch die Preisreihenfolge - u.a. weniger Rauschen = teurer).
Die Ursache liegt an der Pixelpitchgröße bzw. damit im Chip bei der Wandlung Licht zu elektrischen Ladungen, der Sensorauslese/Vorverstärkung und der Analog/Digital Wandlung. Wo genau spielt bei der prinzipiellen Zunahme keine Rolle, denn das ist bei allen Kameraherstellern so zu beobachten. Niemand von uns wird auch jemals wissen können wie sich das Rauschen genau auf diese drei Chipbereiche des Herstellers verteilt, denn das sind absolute Firmengeheimnisse aus dem Hochsicherheitsbereich der Technologieentwicklungsabteilung.
Also RED hatte eine Pixelpitch von 5,41 µm bei dem EPIC MX Sensor und hat nun bei dem DRAGON auf 4,99 µm gesenkt um mehr Auflösung zu haben - dann muss man von Anfang an auch von einer Rauschzunahme ausgehen. Das ist ja auch passiert, wie die Kundenbeschwerden belegen. Das Problem dabei ist, dass RED in den Ankündigungen so getan hat als ob der DRAGON-Sensor in allen Bereichen besser sei, insbesondere im EPIC MX problematischen Rauschbereich (jetzt neu: cleaneres Bild bzw. bessere S/N Ratio Rauschwerte).
Und das mit dem OLPF-Lösung mit Firmwareupdate ist für mich auch nur ein Märchen, denn ein OLPF verteilt maximal das Licht etwas anders, aber das ist bei einem Flächenrauschen sowieso egal, das bleibt dabei gleich, da auch die Lichtverteilung nach dem OLPF im Bild gleich beleiben muss. Anderenfalls würde mann Helligkeitflecken bzw. Dunkelflecken im Bild bekommen wo früher alles gleich hell war - das wäre schlimme Bildveränderung. Bei OLPF und Firmware kann man da eher was machen, aber dann macht z.B. der OLPF das Bild weicher/unschärfer und in der Firmware würde man eine Rauschunterdrückung aktivieren, aber dabei leidet die Schärfe deutlich, dann darf ich keine 6k-Kamera mehr verkaufen ... - ist leider so wie die Wahl zwischen Pest und Cholera, nur das Problem ist bei RED hausgemacht.
Deswegen halte ich das RED-Dragon Kamerakonzept mit dem schlechteren Pixelpitch und der nicht mehr S35-Linsen kompatiblen Chipgröße für grottenschlecht und nur auf Auflösungsmarketing ausgelegt. Denn bei entsprechend weniger Auflösung als 6k wäre der Chip bei ca. 6 µm "rauschfrei" und wäre auch S35 kompatibel - alles nur wegen ein paar Marketingpixeln.
12.06.2014 von Frank Glencairn - Kommentar zum ADD-Denoisen und OLPF hat in der Praxis keine sichtbaren Rauschauswirkungen
https://www.slashcam.de/forum/viewtopic.php?p=724974#724974
Und das sollte jetzt genügen ...
@otaku
Was ich geschrieben habe ist richtig:
"Hollywood hat in den letzten Jahren immer öfters ARRI geholt und dafür RED rausgeworfen" - Das ist der reale Trend in Hollywood und da steht nicht: Es gibt nur noch ARRI und kein RED mehr!
Antwort von otaku:
@media
ich sag ja nicht das das nicht stimmt, ich sage nur es deckt sich nicht mit meinen erfahrungen, daher nochmal, wo ist die quelle das du so eine aussage machen kannst. ist das jemand der irgend wo arbeitet wo auch hollywood filme bearbeitet werden und der einfach nur die gegenteilige erfahrung gemacht hat wie ich? dann ist es halt genau wie bei mir ein einzelfall und sagt rein garnichts aus, oder gibt es eine studie wo alle grossen verleiher befragt worden sind?
was ist die quelle der aussage?
Antwort von cantsin:
Als neutraler Mitleser vermute ich, Ihr bezieht Euch auf die Oscar-nominierten Filme 2014, bei denen Arri ziemlich deutlich ggü. Red dominierte.
Inwieweit das repräsentativ für die gesamte Industrie ist, steht aber auf einem völlig anderem Blatt. Arri wird ja vor allem in Produktionen eingesetzt, die klassischen Filmlook haben wollen - und darunter fallen dann auch die eher gediegenen Filme, die für Oscars nominiert werden. Red dominiert bei VFX- und Greenscreen-intensiven Produktionen (was vermutlich auch dazu führt, dass Otaku als VFXler hauptsächlich RED-Material geliefert bekommt), darunter eben auch viele Popcorn-Blockbuster.
Ist doch interessant, dass auf diesem Forum, das früher mal von DV-Amateuren dominiert wurde, sich die Flamewars von Sony vs. Panasonic-Camcordern über Canon- vs. Panasonic-DSLRs nun zu Arri vs. Red verschoben haben...
Antwort von Jan Reiff:
weil der gute Christian immer noch nicht die Dragon selber getestet hat und wieder in den Zitate und copy und paste Wahn verfallen ist:
1. Die Diskussion MX-Dragon: einfach den Mund halten. Du hast beide Kameras nicht 1:1 getestet. Hast Du? Zeig mal Beispiele.
2. Bei dem Noise "Hype" ging es um die 2 OLPF"s.
Wer immer noch MX und Dragon vergleicht kann z.B. meine Resultate ignorieren, aber nicht die Fakten ändern.
3. Was Frank Glencairn sagt, ob für ihn ADD ihn Frage kommt oder nicht, ist mir, ganz ehrlich, sch... egal.
Was ist das für eine lachhafte Argumentation ? Weil Person X nicht Pasta mag, esse ich nie mehr Pasta oder wie ? Digitale Tricks ? Bei der Entwicklung von Raw ? Du machst Dich lächerlich, weil Du keine Ahnung hast.
4. Es gibt nur noch Arri. Genau: Emmerich, Fincher, Jackson, Ridley Scott, Michael Bay, Cameron, Zemeckis, Soderbergh ... is klar. Red is raus aus Hollywood. Komplett. Merkt unser Christian eigentlich bei diesen belegbaren Namen, wieviel unendlichen Bullshit er labbert ? Zumal u.a. auch oft gemischt wird wie bei Luc Besson"s Lucy
p://www.imdb.com/title/tt2872732/technical?ref_=tt_dt_spec
5. Die neue Bibel ist "shot on what" --- leider a) unvollständig und b) wenn man die Kameras auf digital "reduziert" auch mit einer anderen Aussage
Soviel Comedy wie Christian Mr CMS Lösung hier geschrieben hat ohne jemals eine dieser Kameras in der Hand gehalten zu haben hat selbst Monty Python in den besten Zeiten nicht erreicht. Es ist zu bezweifeln ob er überhaupt schonmal in Hollywood / L.A. war, und die Kameras dort gezählt hat an den Sets. Lächerlich. Bevor Christian nicht mal was konkretes aus seinem Schaffen zeigt, ist jeder Kommentar von ihm so aussagekräftig wie ein Mückenfurz.
Antwort von mediavideo:
@otaku
Schau mal z.B. hier:
www.shotonwhat.com
Seit 2008 - auf allen RED-Typen inkl. RED One: 279 Titel
Seit 2010 - auf ARRI Alexa: 416 Titel
Also ARRI Alexa hat mehr Titel seit 2010 als RED seit sogar 2008 und dabei muss man wohl RED aus einer bestehenden alleinigen Marktstellung seit 2008 verdrängt haben.
... und auffällig, dass in High-End Produktionen bei Oscar-Nominierungen nur noch auf ARRI Alexa gedreht wurde und gar keine RED mehr in Betracht gezogen wurde. Noch schlimmer ist die Tatsache, dass eine C300 (8-bit - kein RAW) als B-Kamera noch einer RED vorgezogen wird.
https://www.slashcam.de/news/single/Mit- ... 11153.html
Antwort von Jan Reiff:
Als neutraler Mitleser vermute ich, Ihr bezieht Euch auf die Oscar-nominierten Filme 2014, bei denen Arri ziemlich deutlich ggü. Red dominierte.
Inwieweit das repräsentativ für die gesamte Industrie ist, steht aber auf einem völlig anderem Blatt. Arri wird ja vor allem in Produktionen eingesetzt, die klassischen Filmlook haben wollen - und darunter fallen dann auch die eher gediegenen Filme, die für Oscars nominiert werden. Red dominiert bei VFX- und Greenscreen-intensiven Produktionen (was vermutlich auch dazu führt, dass Otaku als VFXler hauptsächlich RED-Material geliefert bekommt), darunter eben auch viele Popcorn-Blockbuster.
Ist doch interessant, dass auf diesem Forum, das früher mal von DV-Amateuren dominiert wurde, sich die Flamewars von Sony vs. Panasonic-Camcordern über Canon- vs. Panasonic-DSLRs nun zu Arri vs. Red verschoben haben...
muss Dich korrigieren: es wird noch von Amateuren dominiert - die Profis haben kein Problem damit, auch konkret ihre Arbeiten vorzuzeigen ... die Amateure hier, blasen sich zu den Profithemen nur auf, ohne mit den Devices zu arbeiten. Deswegen ist dieses Forum, leider, sehr sinnfrei dank Leuten wie mediavideo (die vielleicht mehr Applaus bekommen). Aus anderen Foren copy und paste zu machen, kann auch mein Hund trotz seiner Arthrose. Die Frage ist, was Interessierten zum Thema mehr bringt: Erfahrungsberichte inkl. Upload von konkreten Raws wie von den profis, oder leere Hülsen wie von mediavideo und Co, die man 1:1 auch bei reduser lesen könnte. Der Charme einer grauen Kopiermaschine. Wem"s gefällt ...
Antwort von Jan Reiff:
@otaku
Schau mal z.B. hier:
www.shotonwhat.com
Seit 2008 - auf allen RED-Typen inkl. RED One: 279 Titel
Seit 2010 - auf ARRI Alexa: 416 Titel
Also ARRI Alexa hat mehr Titel seit 2010 als RED seit sogar 2008 und dabei muss man wohl RED aus einer bestehenden alleinigen Marktstellung seit 2008 verdrängt haben.
... und auffällig, dass in High-End Produktionen nur noch auf ARRI Alexa gedreht wurde und gar keine RED mehr in Betracht gezogen wurde. Noch schlimmer ist die Tatsache, dass eine C300 (8-bit - kein RAW) als B-Kamera noch einer RED vorgezogen wird.
https://www.slashcam.de/news/single/Mit- ... 11153.html
JAU !! ich wusste dass er diese Seite wieder und wieder zitiert.
Ich lach mich schlapp über den Typ. Arri hat tatsächlich, als 100jährige Firma, ca. 130 Filme mehr auf ihrer Mühle. WOW !!! nur noch Arri in High End. Was lernen wir: Cameron, Bay, Fincher, Scott, Jackson, Soderbergh, Emmerich : ALLES die B-Liga, low Budget
Was lernen wir daraus: die Wahl + Kamera einer Kamera fällt in Zukunft anhand einer Website ... SUPER professionell. Ich verneige mich.
Unfassbar wie man sich so lächerlich machen kann wie der Typ. Ich muss hier ganz schnell weg. Zweistellige Eigentore jeden Tag. Und tschüss.
Antwort von otaku:
hmmm.... hab mir die seite mal angesehen, den direkten vergleich sehe ich jetzt nicht, ich hab auch den eindruck das das nicht representativ ist, sondern nur ein auszug von filmen von denen sie random die informationen bekommen haben, aber egal, ich suche mal weiter evtl finde ich ja was verbindliches.
wie auch immer, zum einen stellt ja keiner in abrede, das arri eine grosse fan gemeinde hat. zum anderen denke ich auch es gibt halt einfach ne menge filme, die eine erzählweise haben, wo es schlicht nicht darum geht ein möglichst crispes bild zu bekommen oder das maximale aus den aufnahmen, sondern wo es ehr um licht, schauspiel, geschichte etc geht. das da auch ne arri ne gute wahl ist, ja klar, bestreitet keiner.
ich glaube nicht das woody allen auf ner red dreht, und seine filme finde ich echt mega klasse, bin ein grosser fan, aber was ne red ausmacht ist ihm vermutlich total egal, ist verständlich.
der durchschnittliche kameraman in hollywood ist auch glaube ich keine 30 sondern ehr richtung 50 und die haben alle hunderte von stunden auf ner 435 gedreht, die wollen was das sich genau so anfühlt, finde ich auch verständlich. es gibt sehr viele, sehr gute gründe auf ner arri zu drehen.
es gibt auch sehr viele gute gründe einen alten mustang aus den 60ern zu fahren, nur wenn dann einer kommt und mir ernsthaft erzählt so ein ding ist in irgend einer disziplin besser als ein aktueller bmw m3, dann muss ich halt lachen.
und den vergleich mit der 2nd unit ne canon zu benutzen anstatt ne red, naja also das benutzen die sicher nicht weil die 8bit so geil finden, aber z.b. als crash cam würde ich auch keine red oder arri benutzen.
Antwort von Jott:
Bin kürzlich beim Zappen über Crank 2 (High Voltage) gestolpert. Erinnert daran, dass vor ein paar Jahren (2009) sogar mal HDV für's Action-Kino okay war. Hat was. HDV! Canon A1 und noch darunter!
Ich find's lustig, wie egal eine Kamera sein kann.
Antwort von RolandP:
Warum ist es eigentlich so wichtig, wie oft eine Kamera in Hollywood verwendet wird?
Im Weltraum wird häufig mit Nikon fotografiert. Das mache ich auch. Leider sind meine Fotos im Vergleich langweiliger und schwerelos bin ich auch noch nicht.
Antwort von RolandP:
Der Wunsch ist schon ok. Die Frage bleibt aber, aus wieviel Punkten das Blatt dann wirklich auf dem Bildschirm besteht.
Du kannst eine 2x2 cm Kachel auch bildschirmfüllend darstellen. Frage ist nur ob sie dann in 8.294.400 (UHD) Bildpunkten aufgelöst ist oder vielleicht nur in 2 Millionen.
Es geht bei dem Vergleich ja um die Darstellung der angegebenen Auflösung.
Das jeder Zugewinn an Auflösung positiv ist, steht ausser Frage.
Die Frage ist, ob 4K ein Ettikettenschwindel ist.
Denn in diesem Thread ging es ja darum, dass die Amira Auflösung gar nicht für 4K ausreicht.
Die Frage stellt sich, ob andere Kameras überhaupt 4K machen oder ob sich der vergleich schon perse erübrigt.
Jedes Element im Strahlengang verringert die Qualität. Die MTF des Gesamtsystems wird vor allem durch das schlechtes Glied und nicht das beste definiert.
Daher macht es Sinn, jedes Glied bis zum Maximum zu verbessern. Ob dann am Ende die "Letzte-Reiher-Sitzer" die Bemühungen nicht sehen, ist mir egal. Fineart hat seiner Berechtigung, auch wenn mehr Bilder im 72er Raster gedruckt werden.
Antwort von WoWu:
Ich weiss, was Du sagen willst aber wenn man die MTF einer bereits halben Auflösung nimmt, ist das nur noch ein Viertel.
Und so gross müssen die Kinos heutzutage ohnehin nicht mehr sein. da fällt es dann gar nicht auf, wenn ohnehin nur SD projiziert wird, weil sowieso nur die ersten zwei reihen besetzt sind.
Nee, nee. Beschiss bleibt Beschiss. Aber, um es mit mediainfo zu sagen- freuen wir uns, endlich HD zu haben.
Antwort von Angry_C:
Ab 3,1k wird aufgerundet:-) der Abstand zu UHD/4k ist geringer als der zu HD. Man profitiert also sehr vom Update. Wieviele Bildpunkte letztendlich wirklich zu sehen sind, interessiert doch niemanden, besser wird's definitiv aussehen.
Das ausgerechnet immer diejenigen das Haar in der 4k Suppe suchen, die noch ne 32er Röhre stehen haben...
Antwort von otaku:
Warum ist es eigentlich so wichtig, wie oft eine Kamera in Hollywood verwendet wird?
Im Weltraum wird häufig mit Nikon fotografiert. Das mache ich auch. Leider sind meine Fotos im Vergleich langweiliger und schwerelos bin ich auch noch nicht.
daumen hoch, genau so ist es.
hollywood macht viele sachen richtig, viele entscheidungen haben da aber weder gestalterische noch technische gründe, daher kann es auch nur oft aber nicht immer als massstab genutzt werden. ausserdem ist das ja genau der unterschied zwischen kopieren und weiterentwickeln. es geht nicht darum hollywood zu kopieren sondern von hollywood zu lernen, das ist ein unterschied.
Antwort von WoWu:
und schwerelos bin ich auch noch nicht.
Das kommt noch .... einige sind ja schon ziemlich abgehoben. ;-)
Antwort von Jott:
Mal was anderes:
Wie kommt's eigentlich, daß Sony mit "Lucy" von Luc Besson trommelt (F65), der gleiche Film sich aber auf red.com unter "shot on RED" findet? Dort sind auch noch mehr Filme gelistet, die sonst anderen zugeschrieben werden.
Wer flunkert? Alle? Reicht's schon für lautes "gedreht auf x", wenn "x" nur für einige Second Unit-Shots am Start war?
Und wenn - wer würde es jemals merken? "Hey, hast du gesehen, da hatten sie gerade "x"-Footage reingeschnitten!" Grotesk.
Antwort von Frank Glencairn:
Oft gibt es halt einen Grund zusätzlich andere Kameras einzusetzen. So wurden zum Beispiel Teile von Hobbit auf GoPro gedreht ( und ja, das hat man auch eindeutig gesehen).
Bei Lucy waren es halt Alexa, Red und F65 - deshalb können alle drei Lucy auf ihrer Webseite erwähnen ohne zu flunkern.
Antwort von Jan Reiff:
back for some seconds zur Aufklärung:
LUCY: Main Camera: F65
da aber oft mehrere Kamera gebraucht wurden und die F65 nicht in unzähligen Mengen in Paris rumsteht:
Epic + Alexa , Epics oft mit 3-5 Cams (z.B. Actionszenen)
Wer mehr Infos will geht doch einfach am 18.9. in den Schwarzwald und trifft Luc Besson persönlich auf der PK im Europa-Park, da sieht man auch nochmal unseren Commercial für Luc Besson"s "Arthur".
Ich bin auch da, und würde gerne mal viele der (nicht ganz so) Anonymen hier begrüssen zum fröhlichen Ausstausch, gerne auch am selben Tag mit 1:1 Vergleichen Dragon (der sooooo rauscht), Alexa (vorhanden), F55 (vorhanden) und F65 auf Wunsch organisierbar, wie auch eine Amira, GH4, sämtliche Black Magics, ... usw
Wen man als "Videofilmer" so alles kennenlernt ...
Also, wer kommen will: emailen ... Servus. ...
Antwort von Valentino:
War letztes Jahr zufällig in Paris und habe das Set vor dem Louvre von Lucy etwas bestaunen können und auch ein paar Worte mit einem der 2. AC gewechselt.
Beim Setup für diese Auto Szene waren es zwei F65 auf einem Rusiancrane, die mit einem deutlichen "A" bzw. "B" gekennzeichnet waren.
http://cdn.cinescopophilia.com/wp-conte ... -Truck.jpg
Die vier bis fünf EPICs waren auf einem Golf-Auto ohne jegliches Stabilisierung oder gar Stativkopf montiert und war laut 2 AC ein Platecar.
Eine dieser EPICs funktioniere noch als HDRi Kamera in dem sie von der Seite auf die bekannte Weihnachtskugel gerichtet war.
Die Alexas der XT Serie (Teilweise auch sogar Studio) wurden als Handkamera im Auto und auf diverse Fahrzeuge gerigt.
Die Buchstaben der EPICs, Alexa, VDSLRs und GoPros haben irgendwo bei "M" aufgehört und das war wahrscheinlich nur die 2. Unit ;-)
Antwort von sgywalka:
Es geht darum, seinen Style zu erarbeiten!
Und die ganze witzlose wer hat was warum wo in welches
A-loch rein gehalten, is interessant, wenne s eine endoskopische
Gastroskopie ist, was wir ja noch ( noch) nicht tun.
ja warum pickt halt gross, WIR HABEN DIE UND DIE UND DIE
SCHÜSSEL VERWENDET?
Antwort: $$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$.....
und noch ein bissi mehr.
( Kass klingel oh its a Sony oh it s..zb Intependedetpublikum a Pany
oh its a red oh its Arri ohh..)leck mich am..verz.
Das ist ja genauso, wie diese ständige in der Unterhose des Films
zu tauchen, damit die ganze Geschichte bis zum abkotzen gespoliert
wird ( weil das Publikum derzeit dazu erzogen wird und diesen
mechas net mehr entkommt- guck schau-was sagt der Tom a-was iist
er was cruist er was- meine Fresse- was is mir des wurscht)
Der nächste Punkt ist- verscheidene Senoren ( thoretisch-wenn se denn
net doch dann von eier--pst--leise--Sonyfabrik in Laos gebaut werden...
:)( leise, wie fleigen da nicht hin mit der air a..:)-die ansich je nach Set
und Lichtagnostik und so weiter mit sorgsam gewählten Linsen ( woismoney$$$??) mit allen Beteiligten abgesprochen werden.
Oder is des jetz net mehr so?
Fällt diese Kurve von gross viel mher am meisten--und is die Produktion
am REALRAND des BUTGETS ( und wiedermal der Komponist die Putzfrau
der Koch..) dann hören wir plötzlich nix mher von..
oh its a..und so weiter.
Zeitenwende ist klar.
Aber dieses Hyp-radel dreht sich immer schneller und es sind immer die
profanen Dinge an die sich das gemeine Gewissen erinner und sicher nie
an das andere.... sollten wir es wieder mal zu gesicht bekommen.
Und staunen.
..da hat mich glatt ein kleiner Film zum... Wasser in den Augen...
na.
HARRY WIR BRAUCHEN JETZT 450 LITER BENZIN
50 LITER DIESEL
45 KILO LYKOPODIUM und 45000 KILO KLKWEISS und 30 LKW Ladungen
ASCHE...
P+S läuft... achtung- fire in se hole..... 3..2.. 10000000000 wat gehn an
1... zündung..
ich hab Watte in meinene AKG-man schwitzt aber dafür hör ich es später..
:=) :)
Antwort von Jan Reiff:
Timetable für alle in den Schwarzwald Reisenden:
14.45 Uhr: Akkreditierung am Haupteingang
15.15 Uhr: Making Of "ARTHUR – Im Königreich der Minimoys" im Magic Cinema 4D
16.00 Uhr: Fototermin mit Luc Besson, Glasperlenspiel und Familie Mack bei "ARTHUR – Im Königreich der Minimoys"
16.15 Uhr: Exklusive Fahrt mit "ARTHUR"
.
Antwort von Jan Reiff:
Kollege Valentino
ich verachte niemanden. Du hast seinerzeit den ersten Stein geworfen mit Behauptungen die am Rande der üblen Nachrede waren - und auch nur auf Basis "ich habe gehört"
Das Problem ist doch v.a. in diesem Forum, dass 90% aller Posts auf Spekulationen beruhen bzw Fakten zum Teil lächerlich gemacht werden.
Beispiel:
ich lade für Kollegen hier Dragon Raws hoch. KEINER reagiert drauf, nur otaku, der dann sagt: beste digitale Bild, das er je gesehen hat.
Dann kommen andere Profis wie Christian Mediavideo und Co und behaupten felsenfest anhand eines anderen Forums: Dragon ist TOTAL verrauscht.
Die Frage muss erlaubt sein: wer dient denjenigen, die sich tatsächlich für so eine Kamera oder Vergleiche interessieren, mehr ? Die, die faktisch was vorzeigen können (mit 1:1 Praxistests + Erfahrungen = weil Besitzer der jeweiligen Kamera), oder die, die es nur lächerlich machen - aus unerforschbaren Gründen (Neid, Missgunst, scheiss Kindheit, ... keine Ahnung).
Und: geht man mal den Namen hinterher und findet ihre wahre Existenz raus (was brutal einfach) sieht man deren Kommentare zu Themen von Profiequipment nur noch mit einem müden Lächeln.
Qualitätskriterien sind Webseiten wie "shotonwhat", wähend die A-Liga mit dieser "unbrauchbaren" Kamera dreht. Das Bedauerliche ist, dass manche diesen Posts dann auch noch glauben, ...
Also, lese erstmal Deine eigenen Beiträge bzgl meiner Person, bevor Du von Kreuzzügen anfängst.
Denn ALL das Fachwissen ändert nichts an einer Tatsache:
dass Sony, Arri und Red auf demselben Qualitäts-Level sind. Und gerade beim Thema Red sehen manche eben rot , weil sie schlichtweg die Firma nicht mögen - wenn es einen Kreuzzug gibt, dann ganz offensichtlich gegen die Firma Red - was aber eher ein Kompliment für deren Arbeit ist in den letzten 7 Jahren.
Amen.
Antwort von Valentino:
Wenn schon zu Off-Topic verschoben wird, dann bitte alles.
Antwort von tom:
Hallo Jan und Valentino,
Ich hab den persönlichen (und für die Allgemeinheit uninteressanten) Teil eurer Diskussion ins Offtopic verschoben:
https://www.slashcam.de/forum/viewtopic.php?t=119271
Antwort von tom:
Wenn schon zu Off-Topic verschoben wird, dann bitte alles.
Es ist etwas schwer in Euren Beiträgen persönliches (und nur Euch interessierendes) vom sachlichen (und für Alle interessanten) zu trennen....und eine etwas mühselige Arbeit....
Antwort von Jott:
ein technisches Detail scheint noch niemandem aufgefallen zu sein: dass die Amira zwar einen 3,4K-Sensor besitzt, aber in ProRes aufzeichnet. ProRes wiederum unterstützt keine krummen Auflösungen zwischen 2K und 4K, so dass da nur die Wahl zwischen zwei suboptimalen Optionen - Downscaling oder Upscaling - bleibt.
(Das Problem gibt's ja auch bei den 2,5K-Kameras von Blackmagic.)
Das ist natürlich Unfug. ProRes ist und war schon immer auflösungsunabhängig. Da hast du irgendwo etwas Falsches aufgeschnappt und geglaubt.
Antwort von Frank Glencairn:
Was ich geschrieben habe ist richtig:
"Hollywood hat in den letzten Jahren immer öfters ARRI geholt und dafür RED rausgeworfen" - Das ist der reale Trend in Hollywood und da steht nicht: Es gibt nur noch ARRI und kein RED mehr!
Wenn ich momentan überhaupt einen "Trend" in Hollywood erkennen kann, dann ist es der, daß bei Produktionen die das etsprechende Budget haben, und die nicht aus 90% CGI animierten Superhelden und dergleichen bestehen, wieder vermehrt auf Film gedreht wird.
Antwort von iasi:
der einzige Trend ist 4k
Die Studios wollen schließlich ihre Filme erneut verwerten ... zunächst hatten sie mit VHS, dann DVD und nun BD schöne Gewinne mit ihrem Filmstock erzielt - Weihnachten 2015 soll es mit der 4k-BD losgehen.
Das Filmnegativ ist dabei natürlich ein Medium, das alle Auflösungen bietet und als "True-4k" vermarktet werden kann. Das geht natürlich mit Arri-Material nicht.
Antwort von Jott:
3,2K ProRes für die Alexa:
https://www.arri.de/news/news/new-alexa ... or-uhd-tv/
Wieder was zum Aufregen!
"The camera's stellar overall image quality in combination with ProRes 3.2K (due for release as a software update in early 2015) and ARRIRAW Open Gate (released earlier this year) allows for simple up-sampling to UHD or 4K in a quality at least as good as other contenders."
Der Markt wird entscheiden, ob dem so ist.
Antwort von iasi:
3,2K ProRes für die Alexa:
https://www.arri.de/news/news/new-alexa ... or-uhd-tv/
Wieder was zum Aufregen!
"The camera's stellar overall image quality in combination with ProRes 3.2K (due for release as a software update in early 2015) and ARRIRAW Open Gate (released earlier this year) allows for simple up-sampling to UHD or 4K in a quality at least as good as other contenders."
Der Markt wird entscheiden, ob dem so ist.
Aufregen?
Achselzucken.
Schaden kann es jedenfalls nichts, wenn man statt 1080p nun eben 3,2k bekommt.
Antwort von iasi:
aber das sei auch nochmal gesagt:
Bei Red erhält man die Bildqualität einer Alexa bei x-facher Auflösung.
Es ist ja alles ganz nett, was Arri da als Übergangsschmankerl präsentiert, aber eine echte 4k-Arri ersetzt dies alles eben nicht.
Antwort von Abercrombie:
Hier ein Interview mit Arri: https://www.youtube.com/watch?v=sgs4kKDtS_k
Der verbesserte Debayer-Algorithmus soll UHD möglich machen.
Antwort von iasi:
Hier ein Interview mit Arri: https://www.youtube.com/watch?v=sgs4kKDtS_k
Der verbesserte Debayer-Algorithmus soll UHD möglich machen.
interessante Aussagen ... aber von Arri habe ich eben auch noch die Aussage im Kopf, dass 4k/UHD nicht benötigt und nachgefragt würde ...
Immerhin:
Arri gehört eben auch zu den Firmen, die auf Kundenwünsche hören und reagieren ... und sie arbeiten ebenfalls daran, ihre Kameras bestmöglich auszureizen.
Antwort von WoWu:
Wenigstens sagen sie, wie sie es machen.
Die meisten andern machen es ja auch so, trauen sich nur nicht, es so klar zu sagen.
Es gibt nur noch ganz wenige, die es wirklich optisch versuchen und sich ohnehin die Frage stellt: wie lange noch ?
Antwort von iasi:
Wenigstens sagen sie, wie sie es machen.
Die meisten andern machen es ja auch so, trauen sich nur nicht, es so klar zu sagen.
Es gibt nur noch ganz wenige, die es wirklich optisch versuchen und sich ohnehin die Frage stellt: wie lange noch ?
und wer soll das sein?
die Arri-Konkurrenten machen es optisch
Antwort von WoWu:
Woher weisst Du das und von welchen Konkurrenten sprichst Du.
RED macht das noch optisch ... noch ... und sind nun auch an den Grenzen angekommen, trotz grossen Sensors.
Auf der IBC werden von den Broadcastern mittlerweile die Deals in Millionengrössenordnung über ganze Systemausstattungen für 4k in der 2/3" Grösse gemacht, weil es einfach zuviel Objektive im Bestand gibt und die eigentliche Bildqualität am Sensor von immer weniger Relevanz ist.
Aber das sind nunmal die Geschäfte, mit denen Firmen Umsätze machen. Nicht der Privatkunde.
http://news.cision.com/gearhouse-broadc ... 4,c9644627
"Time & Changes"
Antwort von iasi:
Woher weisst Du das und von welchen Konkurrenten sprichst Du.
RED macht das noch optisch ... noch ... und sind nun auch an den Grenzen angekommen, trotz grossen Sensors.
Auf der IBC werden von den Broadcastern mittlerweile die Deals in Millionengrössenordnung über ganze Systemausstattungen für 4k in der 2/3" Grösse gemacht, weil es einfach zuviel Objektive im Bestand gibt und die eigentliche Bildqualität am Sensor von immer weniger Relevanz ist.
"Time & Changes"
Sony macht es auch ...
na ja - dass man seine Objektivbestände noch mit ins UHD-Zeitalter hinüberretten versucht, ist verständlich - die wollen abgeschrieben und eben nach und nach ersetzt werden - klar dass dann eben in passende 4k-Kameras investiert wird, die im Verhältnis eine geringe Investition bedeuten.
Kleine Sensoren haben zudem eben auch Vorteile in manchen Einsatzbereichen.
Sie stellen aber eben auf einen 4k/UHD-Workflow um - und das ist das Zeichen der Zeit.
Arri lässt nun eben Alexa und Amira in der Produktionskette, indem hochgerechnetes UHD aus der Kamera kommt.
Aber Premium-Produktionen werden dies wohl nicht akzeptieren, da es eben Alternativen gibt.
Ach ja - und die Mittelformat-Fotokameras zeigen doch, wohin der Film-Zug fährt - nächster Halt ... rate mal ... technisch ist es bald möglich und dann kommt es auch ...
Antwort von WoWu:
Welche ?
Antwort von iasi:
Welche ?
F65
Antwort von WoWu:
Verwechsle PixelShift in einem 8K Grid nicht mit einer 4K Auflösung.
Antwort von iasi:
Verwechsle PixelShift in einem 8K Grid nicht mit einer 4K Auflösung.
nein - verwechsele ich nicht ... wie der Arri-Mann schon sagt: die DeBayer entwickeln sich auch weiter - und die Rechnenleistung, die zur Verfügung steht eben auch.
Die 20-25% Faustregel soll laut dem Arri-Mann heute so nicht mehr gelten.
Jedenfalls erzeugt die F65 aus dem "8k-Sensor" ein Bild, welches UHD/4k "angemessen" ist ... und es liegt eben "optisch" über dem der Alexa ...
Antwort von WoWu:
Eben nicht, weil durch den PixelShift auf dem Sensor nur das halbe Pixel-Pitch zur Verfügung steht und damit die Diffraktion sich halbiert (bzw. verdoppelt-ja nachdem von wo aus man es betrachtet-.
Es muss also gerechnet werden.
Aber das hatten wir ja schonmal. schau Dir lieber mal an, wie der sensor aufgebaut ist denn das weicht deutlich von dem ab, was Du so als sensor gewohnt bis.
Und auf seine anschauliche Weise vorgerechnet hat das ja neulich mal MediaInfo in seinem Posting.
Und was die "Weiterentwicklung" des De-bayerings betrifft.... was glaubst Du denn, wo das Up-Skaling gerechnet wird ?
Antwort von iasi:
Eben nicht, weil durch den PixelShift auf dem Sensor nur das halbe Pixel-Pitch zur Verfügung steht und damit die Diffraktion sich halbiert (bzw. verdoppelt-ja nachdem von wo aus man es betrachtet-.
Es muss also gerechnet werden.
Aber das hatten wir ja schonmal. schau Dir lieber mal an, wie der sensor aufgebaut ist denn das weicht deutlich von dem ab, was Du so als sensor gewohnt bis.
Und auf seine anschauliche Weise vorgerechnet hat das ja neulich mal MediaInfo in seinem Posting.
Und was die "Weiterentwicklung" des De-bayerings betrifft.... was glaubst Du denn, wo das Up-Skaling gerechnet wird ?
na - wenn ich die Helligkeitswerte von 4k zur 4k-Berechnung nutzen kann, ist das eben doch nochmal was anders, als wenn ich aus 3k hochrechne ...
Wenn ich eben aus einer kleineren Basis an Werten etwas hochrechnen muss, ist das Ergebnis eben nun einmal weniger gut.
Und Sony hat mit der F65 nun mal eine Kamera, die in Sachen Auflösung die Alexa aussticht ... Mich wundert, dass du den Sony-Konstrukteuren so wenig zutraust - als ob sie sich nicht dabei gedacht hätten, als sie den 8k-Sensor für 4k gewählt hatten.
Mir sind auch hier wieder mal deine Rechnungen und Betrachtungen zu grob - als ob sich alle Sensoren derart einfach fassen lassen ...
Das ist irgendwie so, wie wenn alle Benzinmotoren gleich funktionieren würden und sich nicht unterscheiden.
Antwort von WoWu:
Iasi schau Dir den Sensor der F65 mal an und vergleich ihn mal mit einem "konventionellen" Sensor, wie ihn beispielsweise RED benutzt.
Dann projizier auf beide Sensoren mal ein Bild und betrachte, was mit den Deffraktionsscheibchen über den Pixels geschieht ... und vergleich dann wieder die beiden Sensoren miteinander, dann wirst Du den Unterschied sehen.
Und noch eins ... Sensoren, also die lichtempfindlichen FETs funktionieren, was die Abtastung betrifft alle gleich.
selbst der Speicher in deinem Computer funktioniert so, weil es nichts anderes ist, nur dass er kein Licht aufnehmen kann.
Bitte komm mir also nicht mit so einem Quatsch, man könne solche Teile nicht miteinander vergleichen.
Das ist undifferenziertes Blog-Gequatsche.
Und wenn Du sagst "zu grob" dann spezifizier das mal, was Dir zu grob erscheint und warum.
Ich wäre ja gern bereit, Dir das "feiner" aufzubereiten, befürchte aber, dass Du Dich dann wieder beschwerst und statt zu "grob" zu "kompliziert" sagst.
Was also ?
Dieses ganze Thema ist bestens dokumentiert und kann überall im Internet nachgelesen werden. -Nur eben nicht in den Stammtischblogs-.
Wenn Du aber hergehst und einfach, ohne jeden Grund behauptest, die optischen Gesetze treffen nicht mehr zu, nur weil Du Dir nicht erklären kannst, warum eine Feder langsamer zu Boden fällt als ein Stein, dann weiss ich nicht, ob es sich überhaupt lohnt, sich auf solche Diskussionen einzulassen.
Wenn Du also solche Sprüche in den raum stellst, spezifizier sie bitte oder falsifizier, was ich gesagt habe.
Sonst haben wir ein Strassen-(Blog)-nieveau erreicht, auf dem es sich nicht lohnt, weiter zu diskutieren und das auch mit dem eigentlichen Sachthema nichts mehr zu tun hat.
Also- schau Dir den Sensor an, um den es hier geht und versuch wenigstens einmal, solche Gesetzmässigkeiten auch nur halbwegs nachzuvollziehen.
Es wäre schon schön, wenn wir über dieselben Dinge reden und auf derselben wissenschaftlich nun wirklich unangefochtenen Basis.
Antwort von otaku:
es sind nicht alle Motoren gleich, aber alle unterliegen der gleichen Physik.
Man kann nicht geliebig hoch drehen weil sinst die Kolben abreissen, man kann nicht beliebig hoch verdichten, weil das Gemisch dann selbst zündet etc.
Natürlich kann man die Grenzen ausloten, aber irgendwann muss man dann was neues erfinden und es grundlegend anders machen, sonst wird man von der Physik gebremst.
Die Motoren mögen leicht unterschiedlich sein, aber die Physik ist für alle gleich.
Antwort von WoWu:
Genau so ist es.
Es liegt nur daran, dass Iasi sich nie den Sensor der F65 angeschaut hat sondern nur die 2 Ziffern 8K ; 4K miteinander vergleicht.
Das ist wohl das, was man Halbwissen nennt.
Antwort von iasi:
es sind nicht alle Motoren gleich, aber alle unterliegen der gleichen Physik.
Man kann nicht geliebig hoch drehen weil sinst die Kolben abreissen, man kann nicht beliebig hoch verdichten, weil das Gemisch dann selbst zündet etc.
Natürlich kann man die Grenzen ausloten, aber irgendwann muss man dann was neues erfinden und es grundlegend anders machen, sonst wird man von der Physik gebremst.
Die Motoren mögen leicht unterschiedlich sein, aber die Physik ist für alle gleich.
Nun - es gibt Hersteller, die nun z.B. einen Selbstzünder-Benzin-Motor auf den Markt bringen wollen - früher kaum denkbar.
Von der Physik, die etwas begrenzt, habe ich schon früher immer wieder etwas gehört - was die Computertechnik betraf - und dann stellte sich schließlich eben heraus, dass es eben doch noch kleiner ging, als manche Theoretiker postuliert hatten.
WoWu meint, ich solle mir den F65-Sensor ansehen - als ob ich oder er dies überhaupt könnten.
Wie wollen wir denn dann die Sensortechnik, die Sony hier verwendet, überhaupt beurteilen.
Etwa nach dem Motto: Das ist ein ein Benzin-Motor, also hat er dieses Drehmoment und diese Leistung? Ach ja - und dies anhand der Zylinderzahl und dem Hubraum.
Oder nimm Objektive: Allein schon die Beschichtung einer Linse kann die optischen Eigenschaften erheblich ändern - da kommt man mit der Theorie eben nicht mehr weit, sofern man nicht alle Infomationen über diese Beschichtung hat und die daraus folgenden komplexen Berechnungen anstellt.
Antwort von iasi:
Genau so ist es.
Es liegt nur daran, dass Iasi sich nie den Sensor der F65 angeschaut hat sondern nur die 2 Ziffern 8K ; 4K miteinander vergleicht.
Das ist wohl das, was man Halbwissen nennt.
Halbwissen - da hast du recht.
Denn deine Annahmen basieren auf Halbwissen - du hast doch gar keinen Einblick in die F65, der dir eine theoretische Beurteilung überhaupt erlauben würde.
Ich vergleiche die praktischen Ergebnisse, die mit dem F65 erzielt wurden, und setze sie in Relation zu den Angaben, die mir über den Sensor zur Verfügung stehen.
Du hingegen spekulierst, wie Sony es wohl technisch macht und stülpst dann deine groben physikalsichen Gesetzmäßigkeiten drüber.
Eben: Das ist ein Benzin-Motor, der folgt diesen und jenen Gesetzmäßigketen, also fährt das Auto schnell - oder langsam. Alles ohne Kenntis technischer Details - das ist Magie.
Antwort von cantsin:
Na, jetzt ist die Katze aus dem Sack:
http://www.newsshooter.com/2014/09/21/a ... n-super35/
"New Amira 65 shoots 6.5K with a sensor about three times bigger than Super35".
Die Schlussfolgerungen in diesem Thread, dass man für "echte" höhere Auflösungen größere Sensoren als s35/APS-C braucht, waren also nicht ganz verkehrt.
Antwort von iasi:
Na, jetzt ist die Katze aus dem Sack:
http://www.newsshooter.com/2014/09/21/a ... n-super35/
"New Amira 65 shoots 6.5K with a sensor about three times bigger than Super35".
Die Schlussfolgerungen in diesem Thread, dass man für "echte" höhere Auflösungen größere Sensoren als s35/APS-C braucht, waren also nicht ganz verkehrt.
ja - hab ich auch gerade gesehen - beeindruckend.
http://www.fdtimes.com/pdfs/issues/65FD ... .0-150.pdf
Nun darf man mal gespannt sein, was der Sensor abgesehen von Größe und Auflösung bietet.
Da dürfte Arri wohl keine halben Sachen gemacht und das Potentail, das das Größen-Auflösung-Verhältnis bietet, auch genutzt haben.