Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // Erste Bilder der Sony NEX-FS100 (NXCAM 35)



Newsmeldung von slashCAM:


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten


Space


Antwort von Bernd E.:

Weitere Fotos mit einem Blick unter anderem auf die Oberseite, wo auch die Audio-Einstellungen vorgenommen werden, hier: http://www.hdwarrior.co.uk/2011/03/23/t ... first-look

Space


Antwort von abrar:

Was noch niemanden aufgefallen ist: Die Kamera wird zusätzlich zu AVCHD auch in MPEG2 aufnehmen können. Dies ist auf der Beschriftung der Kamera auf diesem Foto ersichtlich:

http://www.hdwarrior.co.uk/wp-content/u ... 0-pic4.jpg

Allzu schön (aber nicht allzu wahrscheinlich) wäre es, wenn Sony - wie Canon in einigen seiner neuen Videokameras - einen MPEG-2, 50 Mbps, 4:2:2-Codec, verwenden würde. Das wäre der absolute Panasonic AF101 Killer.

Ich denke übrigens, dass sich der vermeintliche Preis von unter 4730 € leider nicht bewahrheiten wird und sich eher der vorher kursierende Preis von ca. 7500 € herausstellen wird.

Space


Antwort von JossJoss5000:

Na die sieht ja mal.... anders... aus.
Aber gut, wenn's ihren Job macht.
aber leider kein interner ND-Filter....

Space


Antwort von abrar:

Ein weiteres sehr nützliches Features der neuen NEX-FS100 gegenüber der Panasonic AF101:

Die NEX-FS100 hat einen eingebauten GPS-Sensor, wie auf diesem Foto ersichtlich:

http://www.hdwarrior.co.uk/wp-content/u ... 0-pic3.jpg

Vielen Dank an Bernd E. für den Link zu den weiteren Fotos auf HD Warrior.

Space


Antwort von xandix:

Was noch niemanden aufgefallen ist: Die Kamera wird zusätzlich zu AVCHD auch in MPEG2 aufnehmen können. Dies ist auf der Beschriftung der Kamera auf diesem Foto ersichtlich:

Das ist nur MPEG2 SD.
Also Standard Definition.
Wie andere NXCAM's auch....

ALso kein Grund zur Freude....

Space


Antwort von abrar:

Danke für Info, schade - nur SD!

Space


Antwort von krokymovie:

Die Kamera wird zusätzlich zu AVCHD auch in MPEG2 aufnehmen können. Dies ist auf der Beschriftung der Kamera auf diesem Foto ersichtlich: wenn du genau hinschaust, stehen hinter der bezeihnung MPEG2, die zwei unscheinbaren buchstaben "SD".
diese dürften wohl deinen traum vom xdcam hd 422 format zerplatzen lassen.
sony wird keine so preiswerte cam mit einem echten profiformat in den markt werfen.
eine "Panasonic AF101 Killer" ist sie trotzdem.
schon des doppelt so großen 35mm sensors mit seinen nur ca. 3,5 megapixel wegen.
dieser stammt nicht aus einer foto-knipse, so wie der AF 101 4/3 chip,
der intern heruntergerechnet werden muß.
ich hoffe nur, dass die nex einen hd-sdi ausgang an bord haben wird.

gruß krokymovie

Space


Antwort von headroom:

Mit und ohne Optik lieferbar:

SONY
http://pro.sony.com/bbsc/ssr/product-NEXFS100U/

http://pro.sony.com/bbsc/ssr/product-NEXFS100UK/

Nur 1 Cardslot dafür mit dem Flashrecorder dockbar

http://pro.sony.com/bbsc/ssr/micro-nxca ... HXRFMU128/

Camera Section Specifications Detail:
Minimum Illumination 0.28 lx (1/30 shutter, IRIS F1.4, Auto GAIN)
USA Auto: 1/60-1/2000, 30p: 1/30-1/2000, 24p: 1/48-1/2400 Manual:60i/30p/60p: 1/3 - 1/10000, 24p: 1/3 - 1/10000/ Europa 50p möglich

LANC type 2.5mm

Built-in LCD Monitor 3.5 inch-type, XtraFine LCD, approx. 921,600 dots(1920 x 480), 16:9 aspect
Viewfinder Suppliied VF tube for LCD

Space



Space


Antwort von Filmo:

hat das Ding keinen ND-Filter eingebaut,wie die Pana 101?

Space


Antwort von headroom:

hat das Ding keinen ND-Filter eingebaut,wie die Pana 101? Keinen ND Filter

Space


Antwort von Filmo:

schade...eigentlich ein no go...

Space


Antwort von ThomasKluge:

Noch mehr Infos:

http://www.sony.co.uk/biz/content/id/12 ... 9199101117


NEX-FS100E/EK und auch HXR-NX70E werden hier genannt.
Lieferbar ab Juli/September.


Und hier der Flyer:
http://www.sony.co.uk/res/attachment/fi ... 643259.pdf

Space


Antwort von Bernd E.:

Sony PR-Video: ... ideo_title
Und hier der erste Praxistest eines Vorserienmodells der FS100: http://www.dvuser.co.uk/content.php?CID=268 . Allzu gut kommt die neue Sony dabei nicht weg.

Space


Antwort von handiro:

uninteressant....kein ND Filter, nur HDMI....dann schon lieber 8 bit 4.2.2 mit SDI

Space


Antwort von NEEL:

Ist zwar nebensächlich, aber ich finde sie hässlich!

Erinnert irgendwie daran:
http://www.mvsvideo.co.uk/equipment_infocanonex1.htm

Space


Antwort von Frank Glencairn:

Sieht auf der einen Seite ganz interessant aus, allerdings merkt man deutlich, daß Sony die Nachfrage nach der F3 nicht gefährden will. Kein HD-SDI nur HDMI, keine 24 FPS usw - auf der anderen Seite...

...für 4500 Öcken immer noch ein besserer Deal als die Panasonic Af-100.

Das mit den HD Filtern ist zwar nicht schön, aber zu verschmerzen, da ich sowieso immer mit ner Mattebox arbeite und jede menge Filter habe.

Das GPS hätten sie sich schenken können, ich hab doch kein Alzheimer, dafür hätte ich lieber 24 FPS.

Mal sehen was man aus dem Komponentenausgang rauskitzeln kann, aber wahrscheinlich auch nur 4:2.2. 8-bit.

Ich hab noch ein bisschen was dazu geschrieben.
http://frankglencairn.wordpress.com/201 ... nex-fs100/

Frank

Space


Antwort von ThomasKluge:

Cozi: 'Vertigo' Music Video mit einem Prototypen der Sony NEX FS 100 gedreht:
http://vimeo.com/groups/fs100/videos/21366307

und zugehöriges Videoblog:


Space



Space


Antwort von ruessel:

...für 4500 Öcken immer noch ein besserer Deal als die Panasonic Af-100. Mein Dealer aus DE hat mir heute morgen gemailt: Sony NEX-FS100 Preis: ca. € 6.000,- (zzgl. MwSt.) ab Ende Mai

Space


Antwort von Frank Glencairn:

Whoops! 6000 + MwSt. is zu viel, da warte ich lieber auf Red.

Space


Antwort von domain:

Allzu schön (aber nicht allzu wahrscheinlich) wäre es, wenn Sony - wie Canon in einigen seiner neuen Videokameras - einen MPEG-2, 50 Mbps, 4:2:2-Codec, verwenden würde. Das wäre der absolute Panasonic AF101 Killer. Interessant, dass mpeg2 mit höheren Bitraten jetzt plötzlich wieder als soo bemerkenswert angesehen wird. Köstlich. Mit diesem Codec hätte man sich in der vergänglichen AVCHD-Zeit viel Hirnschmalz bei der Entwicklung der nativen Schnittfähigkeit eines NLE, viele zusätzliche Cores und auch Energiekosten ersparen können.
AVCHD ist eine tolle Sache, aber im Aufnahmebereich unnötig wie ein Kropf, das habe ich schon immer gesagt.
Im Thread über die neuen Canons habe ich berichtet, dass selbst mit dem alten Liquid noch ein Schnitt mit diesem Material sehr gut möglich ist, das gilt natürlich auch für alle anderen Editoren auf älteren PCs.
Allerdings liest man vereinzelt, dass z.B. Magix gar nicht mehr gut mit mpeg2 umgehen kann. Soweit ist es also schon gekommen, dass dort anscheinend AVHD besser läuft als das alte Mpeg2 ;-)

Space


Antwort von Valentino:

Sony versucht gerade völlig Planlos ein Konkurrenz Modell zur kommenden EPIC und Scarlet Serie von RED aufzubauen, aber kastriert ihre Consumerkameras mit AVCHD um weiter ihre völlig überteuerten HDCAM-SR Müllen an den Mann zu bringen.
Spätestens ende des Jahres wenn einige ihre EPIC haben werden, wird man eine gebrauchte R1 für unter 10.000 Dollar gebraucht kaufen können und eine Scarlet für die Hälfte.

Warum hängt Sony eigentlich immer noch an diesen grauenhaften 8bit 4.2.0?
Sogar Panasonic und Canon hat seinen 1/3" Müllen bessere Codecs wie, AVC-I, DVCProHD oder halt ein 8bit 4.2.2 MPEP2 Codec verpasst.

Space


Antwort von nordheide:

Sony PR-Video: ... ideo_title
Und hier der erste Praxistest eines Vorserienmodells der FS100: http://www.dvuser.co.uk/content.php?CID=268 . Allzu gut kommt die neue Sony dabei nicht weg. "....The only thing it has going for it is image quality, which is marginally better than the AF101, but still not as good as Sony’s own EX1/3."

Was spricht dann noch für die NEX-FS100 für 6.000 netto?

Space


Antwort von domain:

Ja im nachhinein betrachtet sind einige Video-Mühlen tatsächlich nur mehr Müllen :-)

Space


Antwort von Frank B.:

Hm, 6000,- Euro ohne Optik und Mehrwertsteuer, das werde ich wohl finanziell nicht packen. Vielleicht überlegt sich Sony das nochmal und senkt den Preis um mindestens 1000,- Euro und legt die Sony-Optik mit dazu. Dann wäre die Kamera für mich interessant.

Space


Antwort von Tiefflieger:

Hallo Zusammen,

Sicher eine interessante Kamera mit vielen Möglichkeiten.
Es ist einfach zu kritisieren, wer Freude an dieser Art von Kamera hat nicht weiterlesen.

1) Wenn ich mir das Foto auf http://www.dvuser.co.uk/images/img/revi ... 0/cafe.jpg anschaue.
- Es ist ein Standbild, dass während eines leichten schwenks herausgeschnitten wurde (verwischt).
- Die Scheiben an den Autos haben das selbe Grau (mangelnde Farbauflösung).
- Der Himmel ist bewölkt ohne Struktur und überbelichtet
- An den Bäumen im Hintergrund sind keine Blätter aufgelöst.

Bei einer "echten" Videokamera mit 1080p50 ist die Aufnahme nicht so verwischt.

2) Hat die Kamera ein ultraschall Sensorreinigungssystem?
Oder werden Staub (Graupixel in der Aufnahme) rausgerechnet?

3) Das Standbild auf Granitplatte mit rotem Joghurt.
Sieht auf den ersten Blick gut aus.
Aber bei Vergrösserung sind deutlich MPEG Artefakte (Quadrate) sichtbar.

So muss ich den Codec in Frage stellen.


========

1. An den Bildern zu Urteilen hat die Kamera bezüglich Farbspektrum keine Chance gegen eine 3 Chip. Insofern macht auch 4:2:2 keinen Sinn.

2. Je nach Objektiv ist die Kamera Front- oder Schulterlastig.
Somit hat man nur mit (Schulter-)Stativ eine Chance saubere Bilder zu bekommen, was bei den Einstellmöglichkeiten und der Position des Recordknopfes sicher gewollt ist.


Gruss Tiefflieger

Space


Antwort von headroom:

1) Wenn ich mir das Foto auf http://www.dvuser.co.uk/images/img/revi ... 0/cafe.jpg anschaue.
- Es ist ein Standbild, dass während eines leichten schwenks herausgeschnitten wurde (verwischt).
- Die Scheiben an den Autos haben das selbe Grau (mangelnde Farbauflösung).
- Der Himmel ist bewölkt ohne Struktur und überbelichtet
- An den Bäumen im Hintergrund sind keine Blätter aufgelöst.


Ui Ui Ui so schlecht....
Die Schärfe liegt ja vorne bei der Dachantenne des Autos kein Wunder sind die Bäume nicht mehr in der Schärfezone. Graue Fenster sehe kein Problem darin, wenig Rauschen.Himmel ist auch immer heller als die Häuser. JPEG Artifakte sind wahrscheinlich durch niedrige Kompressionsrate aus Photoshopsicherung xmp:CreatorTool>Adobe Photoshop CS4 Macintosh</xmp>

Space



Space


Antwort von rush:

Ich finde GPS schon in meinem Fotoapparat total lächerlich... :D Habe das Feature noch nicht einmal verwendet... naja wer's brauch?!

Aber in einem "Semi-Pro-Camcorder"?!

Dann doch lieber gegen einen ND Filter tauschen... der fehlt doch nicht wirklich, oder??

Manchmal muss ich Sonys Produktpolitik nicht verstehen... Und sonderlich ergonomisch scheint das Teil auch nicht. Wo hält man die denn fest wenn man mal aus der Hand drehen möchte? Kein Henkel zum begrabbeln? mhh

Ich bleibe vorerst bei der Variante Camcorder für den normalen Alltag und seperate DSLR für szenische Sachen.

Überzeugt mich auf den ersten Blick genauso wenig wie die Nex-VG10 vor einiger Zeit...

Space


Antwort von Jott:

Schwierig, 6.000 EUR wäre zu teuer. Halte ich aber für einen Fehler, andere Quellen hatten 4.500 EUR geschrieben, geht schon eher.

Sich über GPS zu echauffieren, ist doch albern, einfach abschalten. Ich bin mir überhaupt nicht im Klaren darüber, ob es sich um eine ergonomische Katastrophe oder ein gar nicht so dummes Konzept handelt. Man muss das Ding wohl erst mal selber in die Hand nehmen.

Das mit dem fehlenden ND-Filter liegt laut Sony darin begründet, dass wegen des extrem kurzen Auflagemaßes keiner zwischen Mount und Sensor passt. Im Gegenzug könne man genau aus diesem Grund problemlos praktisch jede Fotooptik anschließen. Dennoch: Mattebox plus ND-Filter-Set ist Pflicht. Hmnja.

Space


Antwort von domain:

...plus ND-Filter-Set ist Pflicht. Hmnja. Das "Hmnja" gilt m.E. ein wenig auch für Wechselobjektive auf dem Videosektor generell, nämlich wegen dem permanenten Staubeintrag beim Objektivwechsel. Man braucht sich nur mal den Umlenkspiegel einer gebrauchten SLR anschauen, was da für ein Dreck drauf ist. Eine wirkliche Lösung durch Ultraschallabschüttelung erwarte ich mir eigentlich nicht wirklich.
Beim Silberfilm gab es mit jedem Bild eine neue frische "Sensoroberfläche".
Ich denke daher, dass eigentlich ein gutes Zoomobjektiv, das man höchst selten wechselt, das erreichbare Optimum hinsichtlich der Sensorverschmutzung darstellt und ich glaube auch, dass Profis in der Video-Praxis eher sehr selten das Objektiv wechseln, sofern sie ein tolles Zoomobjektiv zur Verfügung haben.
Im Gegensatz zur Fotografie bedarf es bei der Videografie nämlich schon einiger Kunstgriffe um einen Staubpartikel aus dem laufenden Bild nachhaltig zu eliminieren.

Space


Antwort von Tiefflieger:

1) Wenn ich mir das Foto auf http://Ui Ui Ui so schlecht....
Die Schärfe liegt ja vorne bei der Dachantenne des Autos kein Wunder sind die Bäume nicht mehr in der Schärfezone. Graue Fenster sehe kein Problem darin, wenig Rauschen.Himmel ist auch immer heller als die Häuser. JPEG Artifakte sind wahrscheinlich durch niedrige Kompressionsrate aus Photoshopsicherung xmp:CreatorTool>Adobe Photoshop CS4 Macintosh</xmp> Die Spiegelung in der Seitenscheibe sieht auch nicht wesentlich schärfer aus.
Grundsätzlich würde bei anderer Blenden und Zeiteinstellung, die hellen Autos und der helle Asphalt (inkl. Himmel) besser dargestellt werden.
Bei meiner Kamera habe ich in ähnlichen Situationen besseren Kontrast (Schwarzwerte und Kontrastanpassung)

Aber die genauen Umstände sind ja nicht bekannt.

Bezüglich JPEG Artefakte könntest Du recht haben.
Eigentlich sollten zur Beurteilung nur TIFF als Download angeboten werden.

Viele Autos haben grüne Wärmeschutzverglasungen oder Infrarotbeschichtungen.
Der blaue Golf hat sicher eine grüne Verglasung, die sieht man normalerweise.

Positiv, Schwarzrauschen ist in keinem Bild zu erkennen.

Space


Antwort von ThomasKluge:

EOSHD.com: Sony FS100 - a kick up the arse
Eine Betrachtung aus dem Blickwinkel der DSLRS
http://www.eoshd.com/content/584


Sony Professional - NEX FS100E: Affordable Super 35mm
http://vimeo.com/groups/fs100/videos/21389883

Space


Antwort von headroom:

Der Sensor ist derselbe wie in der F3 und schaut euch das mal an. Panasonic AF 101 und Canon 5 MK II und F3 bei 18 db 3200 ISO. Auch der Dynamikumfang und Vergleich bei +1 f Überbelichtung sprechen Bände. Auf SDI und ND intern kann ich bei dem Rauschgenerator von Panasonic gerne verzichten..

http://provideocoalition.com/index.php/ ... 100_vs_5d/

Space


Antwort von Axel:

Wie einer der Kommentatoren auf Vimeo griffig schrieb: Die 5DMII hat im Vergleich zu ihren Konkurrenten keine nennenswerte Auflösung, die Pana kann weder mit Unter- noch mit Überbelichtung gut umgehen, die Sony siegt in allen Disziplinen.

Und, Fazit weiter oben: Wenn es um den Preis geht, muss man nach unten gucken, um den Herausforderer zu sehen: Lumix.

Space


Antwort von NEEL:

Fazit: Alle Indy-Cams unterhalb der Red/Alexa haben irgendein No-Go. Das bedeutet wohl mieten und abwarten. Im Herbst kommt die Scarlet...:-)

Edit: Pana scheint auf der NAB eine Antwort vorzubereiten:
http://www.eoshd.com/content/587-AF100- ... led-at-NAB

Space


Antwort von vfxhansi:

Das GPS hätten sie sich schenken können, ich hab doch kein Alzheimer, Ich finde GPS schon in meinem Fotoapparat total lächerlich Wer nicht kapiert wie genial GPS-Daten in einem Foto oder Film zu haben ist, der tut mir einfach nur leid. Wenn man keine halbwegs vernünftige Software besitzt die überhaupt was mit den Daten anzufangen weiß kann es auch gar nicht raffen. Offensichtlich sind diejenigen auch keine Mac Besitzer, da die die GPS und Mac haben (und kapieren was es bedeutet) es SEHR zu schätzen wissen. Abgesehen davon was ich mit den Daten jetzt schon in iPhoto, Aperture, iMovie und andere Apps kann, es wird auch in der nächsten Inkarnation von Final Cut Pro sein.

Man schaue sich allein HIER http://bit.ly/h9eakA] den "Orte" Film (unter der Rubrik "Neue Diashows.") an... Aber lasst mich raten, das will/brauch ja natürlich wieder keiner oder man könnte es ratz-fatz schon anderweitig, gell? Und das ist wohlgemerkt die Variante für Fotos. Auf der iMovie Seite sieht man was MAL EBEN mit den Daten und Videos zu machen ist, auch wenn es "nur eine "Consumer-Spielerei" ist, es lässt m.E. einiges erahnen.

Ich sag nur: METADATEN. Als ob man davon ZU VIELE haben könnte, oder wie?? Klar, Shots einfach per Knopfdruck nach Location filtern zu können, das wäre echt scheisse, nich?

Und: wer allen ernstes ein Long GOP Codec wie AVCHD als Speicherformat auch nur im entferntesten GUT findet, das ist mir ein völliges Rätsel. Wenn schon, dann hätte man sich DAS gerne schenken können und ich finde es auch lächerlich bei einer Möchtegern "Profi" Kamera. Mit so einem Müll muss ich irgendwie einen EXTERNEN Weg finden um an ein professionelles Format wie z.B. ProRes zu kommen. Super. Kost' ja nix. Da bin ich mit einer guten DSLR mit der ich extern auf z.B. eine Ki Pro gehen kann sowohl preislich als auch qualitativ um Lichtjahre besser bedient.

Space



Space


Antwort von NEEL:

Ich finde AVCHD bzw AVCCAM sehr gut. Hab mit der HMC 151 jetzt meinen zweiten 90-minütigen Dokfilm abgedreht und bin immer wieder erstaunt wie robust das Material im Avid ist und wie wenig (billiger!) Speicherplatz benötigt wird. Ein Laptop und eine externe Sicherheitsplatte reichen völlig aus... auf der Leinwand sieht das übrigens top aus und der Sender denkt, das sei DVCProHD aus der HPX 171.

Space


Antwort von rush:

Das GPS hätten sie sich schenken können, ich hab doch kein Alzheimer, Ich finde GPS schon in meinem Fotoapparat total lächerlich Wer nicht kapiert wie genial GPS-Daten in einem Foto oder Film zu haben ist, der tut mir einfach nur leid. Wenn man keine halbwegs vernünftige Software besitzt die überhaupt was mit den Daten anzufangen weiß kann es auch gar nicht raffen. Offensichtlich sind diejenigen auch keine Mac Besitzer, da die die GPS und Mac haben (und kapieren was es bedeutet) es SEHR zu schätzen wissen. Abgesehen davon was ich mit den Daten jetzt schon in iPhoto, Aperture, iMovie und andere Apps kann, es wird auch in der nächsten Inkarnation von Final Cut Pro sein. Ahja... naja ist doch prima wenn GPS in einer Kamera für dich von Relevanz ist... Es gibt aber eben auch Menschen die dieses Feature nicht benötigen und dennoch mitbezahlen (müssen)... Mir wäre einfach ein ND-Filterrad in einer Kamera viel wichtiger als eine GPS-Funktion. So hat eben jeder seine Vorlieben...

Und ich wüsste auch nicht wozu ich hier GPS-Daten benötigen sollte... In den Gefilden in denen ich drehe kenne ich mich aus, kenne die Locations usw... Mag sein das Apple das alles ganz toll weiterverarbeiten kann. Wer's brauch soll es doch auch bitte nutzen :) Ich für meinen Teil sehe da jedoch keinen Vorteil.

Space


Antwort von vfxhansi:

und der Sender denkt, das sei DVCProHD aus der HPX 171. KIKA oder das OK oder wie?? Wohl nur statische Aufnahmen. :-))))

Sorry, aber allein die Tatsache, dass keiner mit auch nur einem halben Plan das Zeug NATIV schneiden würde, wäre es messtechnisch in 0,3 Sek. als den Müll zu entblößen das es ist. Keine Ahnung mit was für Leuten du zu tun hast, aber vielleicht ist man ja im Dokubereich VIEL gnädiger/nachsichtiger.

Für's FAZen ist es mit Sicherheit nix und jegliche Art von Color-Grading kann man sowieso knicken.

Space


Antwort von Axel:

Deswegen würde mich mal interessieren, ob schon jemand mit Atomos Ninja oder einer ähnlichen Kiste ProRes von der Lumix (oder meinetwegen von der AG Dingenskirchen) gecapturet hat. Ich weiß nur, dass das HDMI-Signal der EOS 7D, obwohl FullHD, schlecht ist.

Space


Antwort von vfxhansi:

Genau. So ein GPS kostet auch UNmengen. Wäre das nicht drin, dann läge das ganze nicht bei $3200 sondern weitaus erschwinglichere $3194! Iss'n Argument! :-)))

Es ist vor allem selbstredend, dass wenn sie den GPS Quatsch rausgelassen hätten, dann wäre logischerweise Platz und Geld für ein ND-Filter gewesen, da beide technisch nicht miteinander zu vereinbaren sind. Könnte ja keine andere Erklärung für geben! Ganz klare Nummer und wie gesagt, ein wirklich sinnschwangeres Argument, ja.

ND-Filter gibt es ja auch NUR "in-camera".
Und ich wüsste auch nicht wozu ich hier GPS-Daten benötigen sollte... In den Gefilden in denen ich drehe kenne ich mich aus, kenne die Locations usw... Muss schon Kacke sein wenn man sein Lebtag immer nur an EINER Location arbeitet. Du bist nicht zu beneiden.

Dummerweise habe ICH es mit ekelhaft abwechslungsreichen Filmen und Inhalten zu tun wo wir tatsächlich z.T. an mehrere Locations UND Kameras an ein und demselben Tag drehen. Hört sich komisch an, iss aber so. Und da solche Kameras ja so wahnsinnig brauchbare und alles verratende Namen wie "IMG_0573_a" u. Ä. benutzen, wäre die Möglichkeit einfach mit einem Klick alle für mich relevanten Clips nach Location filtern zu lassen echt nervig, da haste Recht. Oder solche Infos völlig automatisch z.B. in einer Shotlist-Datenbank einfließen zu lassen ist auch überflüssig, ja. Es könnte ja auch niemals vorkommen, dass jemand anderes die Information nachschauen möchte/braucht oder gar ich nach Jahren oder gar Jahrzehnten... und oder und oder und...

Timecode ist ja auch so eine unsinnige Erfindung, oder? Ich hab doch 'ne Uhr!! Oder Multicam-Schnitt! Brauch ich nicht, kapier ich nicht, macht es weg!

Ich erzähl dir auch am besten gar nicht erst von der Personensuche die dein Video nach Gesichtern analysiert und die Teile erkennt, die Personen enthalten. Außerdem sagt sie dir, wie viele Personen in jeder Szene sind oder findet sie in Groß-, Halbtotal- und Weitwinkelaufnahmen... wo das doch genauso schwachsinnig ist... da du es ja nicht brauchst. So war ja die Logik, oder?

:facepalm:
Mag sein das Apple das alles ganz toll weiterverarbeiten kann. Stell dir vor, es gibt sogar andere die den Schuss gehört haben und erkennen, dass inzwischen fast jede neue Kamera auf dem Markt, sei es "Pro" oder nicht, Geo-Tagging hat, da sie AUCH wissen wie wichtig jegliche Art von Metadaten sind, ob ich sie immer und jedes mal brauche oder nicht. Aber Apple hat mit Abstand die längste Liste an intelligenten, sinnvollen und einfach nur cleveren Nutzen der Daten aufgezeigt, ja, wohl wahr.
Wer's brauch soll es doch auch bitte nutzen Stell dir vor, die die es können und es kapieren tun es. Ich kenne auch keinen der noch eine Kamera OHNE kaufen würde.
Ich für meinen Teil sehe da jedoch keinen Vorteil. Hä? LOL... Woher auch? Wenn du es gar nicht erst eine entsprechende Software hast die entsprechend intelligent und sinnvoll damit umgehen kann. Ansonsten: einfach nicht kaufen oder ausschalten. Clever, gell? :-)))))

Wie hier schon gesagt wurde: gerade bei DER Kamera sich DARÜBER zu echauffieren ist einfach nur albern. Erst recht wenn man es offensichtlich nicht mal versteht.

Space


Antwort von vfxhansi:

Ich weiß nur, dass das HDMI-Signal der EOS 7D, obwohl FullHD, schlecht ist. Da weißt du leider falsch, da es eben nicht Full-HD ist.

Space


Antwort von headroom:

Post Repost und DAB"s
Die Mutter der Dummheit ist immer Schwanger

Space


Antwort von vfxhansi:

Post Repost und DAB"s
Die Mutter der Dummheit ist immer Schwanger Na, solange du dich verstehst.

Schon mal das "#" Zeichen auf deiner Tastatur entdeckt? Und das Zeichen darüber auf der gleichen Taste? Super, gell?

Deppen-Apostrophe wollen schließlich gelernt sein.

Space


Antwort von headroom:

Post Repost und DAB"s
Die Mutter der Dummheit ist immer Schwanger Na, solange du dich verstehst.

Schon mal das "#" Zeichen auf deiner Tastatur entdeckt? Und das Zeichen darüber auf der gleichen Taste? Super, gell?

Deppen-Apostrophe wollen schließlich gelernt sein. habe leider eine Mäck Compudder nix Zeichen"#" wo ich musse guggge dafür. Du wolle fahre Memphis?

Das mit dem DAB war übertrieben, aber mir fällt auf es wird in Deutschen Foren so verbissen und humorlos gepostet. Aus dem DSLR Forum bin ich raus schon vor Monaten deswegen.

Space



Space


Antwort von vfxhansi:

Wie süß. 'N Dummtroll.

*plonk*

Space


Antwort von headroom:

...noch süsser aus der Schweiz

http://redders.wordpress.com/2009/06/11 ... tubel-gsi/

Space


Antwort von NEEL:

Wie süß. 'N Dummtroll.

*plonk* Weißt Du eigentlich überhaupt selbst wovon Du schreibst?... Bei mir hält AVCCAM sehr wohl einiges an Grading aus! Und von wegen, niemand schneidet nativ... Gerade unterwegs hat es sich als prima Workflow erwiesen, mit Edius auf einem Laptop vorzuschneiden und den Rohschnitt als DNxHD in den Avid zu importieren. Das ist zeitsparend wie auch praktisch. Ein Mäppchen voller SDHC-Karten zum Preis einer P2 -Card reicht sogar ohne Laptop für einige Drehtage... Wer auf AVCCAM schimpft, hat es daher vermutlich meist selbst noch nicht ausprobiert oder hat - mein Beileid! - einen Mac mit veraltetem FCP.

Und zu Deiner Info: Ich fände es im Gegensatz zu Dir nicht herabwürdigend für den Kika zu arbeiten... und gehe mal davon aus, daß Du allenfalls Werbung machst bzw. Deinem Nick entsprechend in einer Postprobude verschimmelst. Und da würde ich eh in einer anderen Mietpreisklasse einsteigen und direkt auf ner Alexa drehen...

Space


Antwort von vfxhansi:

Bei mir hält AVCCAM sehr wohl einiges an Grading aus!
Au ja. Bei 4:2:0 ist das bestimmt ein Traum, doch! :-D

Es gibt halt Anspruch und es gibt Anspruch.
Und von wegen, niemand schneidet nativ... Du etwa?
als DNxHD in den Avid zu importieren Hupps... scheinbar nicht. Was war noch mal der Punkt?
oder hat - mein Beileid! - einen Mac mit veraltetem FCP. LOL... iss klar. Und das von einem Edius-User. Herrlich. :-D Hat ja nur was mit dem NLE zu tun und nicht dem eigentlichen (Long GOP) Format... logisch.

Was dir wohl als unsachlicher Polemik in ein paar Monaten einfallen wird? Hmmm...
... und gehe mal davon aus, daß Du allenfalls Werbung machst bzw. Deinem Nick entsprechend in einer Postprobude verschimmelst.
:-))))... jo. Dass du was von Anspruch und Professionalität verstehst wissen wir ja nun. Bin super unglücklich mit dem planlosen Pille-Palle den ich mache.
Und da würde ich eh in einer anderen Mietpreisklasse einsteigen und direkt auf ner Alexa drehen... Du wohl weniger.

Space


Antwort von Axel:

als DNxHD in den Avid zu importieren Hupps... scheinbar nicht. Was war noch mal der Punkt? Natürlich ist das nativer Schnitt. Schneiden im komprimierten Format (dafür sofort, evtl. sogar von der Speicherkarte), rendern in "gut". Welche Argumente gibt es dafür, vor dem Schnitt in ein besseres Format zu wandeln? Da muss FCP aufholen.
Bei mir hält AVCCAM sehr wohl einiges an Grading aus! Natürlich dann "als" DNxHD. Es sei denn, man versteht unter Grading einen Sepia-Filter. Und selbst dann ...
Ich weiß nur, dass das HDMI-Signal der EOS 7D, obwohl FullHD, schlecht ist. Da weißt du leider falsch, da es eben nicht Full-HD ist. Okay, der Hansi hat es nicht kapiert. Ich habe mich falsch ausgedrückt. Ich möchte wissen, ob die HDMI-Ausgabe z.B. der Lumix oder der AG AF 101 ebenfalls nur nominell HD ist (abgesehen von der Display-Anzeige). Und ob das jemand aus eigener Erfahrung weiß.

Space


Antwort von vfxhansi:

Natürlich ist das nativer Schnitt. Welche Argumente gibt es dafür, vor dem Schnitt in ein besseres Format zu wandeln? Da muss FCP aufholen. :-))))) Alles klar. Magste dir evtl. die Beiträge nochmals ganz langsam durchlesen? Oder darf ich einfach annehmen, dass du keine Ahnung hast was mit "nativ" überhaupt gemeint ist?

Ach ja... und da haste mich ja VOLL erwischt!! Ich hab völlig vergessen, dass ich WEDER nativ mit FCP schneiden kann NOCH beim Import (z.B. in ProRes) transkodieren kann!! Mist...

:-D

Auch nur 'n Ansatz von Plan wovon du da redest, oder geht's grad nur um's kontern, merkbefreit oder nicht?
Natürlich dann "als" DNxHD. S.o.

Puh.

Space


Antwort von DWUA:

Puh. Puh wird ohne h geschrieben! Siehe:


oder


;))

Space


Antwort von ThomasKluge:

Wer mag: Den Lennie redet gerade über seine Erfahrungen mit der FS100 auf Planet 5D.

Edit: Ich habe den inzwischen ungültigen Link entfernt und lege dafür den Link zum Podcast an:
http://blog.planet5d.com/2011/03/podcas ... mm-camera/

Space


Antwort von NEEL:

@Axel: Danke für Deinen Beistand:-) Für mich bedeutet "graden" allerdings hauptsächlich im dokumentarischen Bereich natürliche Farben wiederzugeben, vor allem Hauttöne, da die Cams meistens etwas daneben liegen. Mit AVCCAM-Material im Edius hatte ich da fast nie ernsthafte Probleme, lediglich bei sehr anspruchsvollen Korrekturen, z.B. abgesoffenen Bildern, mache ich das dann im Avid, da geht alles nochmals etwas feiner. Edius hat den großen Vorteil, daß das Originalmaterial unangetastet bleibt. Daher ist es wirklich möglich, von der Karte zu schneiden und als DNxHD auszuspielen. Ich sehe bezüglich des Wandelns aber ehrlichgesagt keinen großen Vorteil von Avid gegenüber Final Cut. Gewandelt werden muß AVCCAM bei beiden. Deshalb warte ich gespannt auf das neue FCS und werde es mir zulegen, sobald es AVCCAM nativ und hoffentlich auch echtes Smartrendering versteht...

Space



Space


Antwort von Taunus:

Hallo VFXhansi,
was wolltest Du uns jetzt eigentlich mit Deinen seitenlagen Angriffen unter die Gürtellienie mitteilen??
Das es neben Dir keinen größeren, besseren Hansi gibt u. sich bitte alle Deiner unmaßgeblichen Meinung unterzuordnen haben??? Oder was sonst.

Space


Antwort von Frank Glencairn:

Wer nicht kapiert wie genial GPS-Daten in einem Foto oder Film zu haben ist, der tut mir einfach nur leid. ...
Man schaue sich allein HIER http://bit.ly/h9eakA] den "Orte" Film (unter der Rubrik "Neue Diashows.") an... Aber lasst mich raten, das will/brauch ja natürlich wieder keiner ..... Das ist halt was für Hobbyfilmer und für den Privatgebrauch im Urlaub..

Bei einer normalen Produktion hatte ich noch nie Zweifel wo ich die Bilder gedreht habe.

Ein professioneller Rallywagen hat ja auch keinen Parksensor - um einen weiteren Autovergleich zu bemühen ;-)

Frank

Space


Antwort von rush:

@vfx...

Du kannst doch gern jegliche GPS-Auswertung verwenden.

Ich für meinen Teil habe da einfach keinen Bedarf dran und kann auch ohne sehr gut arbeiten. Das kannst du so hinnehmen oder eben auch nicht... Mehr habe ich nicht geschrieben - einzigst das ich auf GPS verzichten kann.

Warum du deswegen jedoch einen ellenlangen Vortrag halten musst und auch noch persönlich wirst bleibt mir ein Rätsel.

Wenns dich denn glücklich macht und dich bestätigt... viel Spaß dabei.

Ich bin raus aus dem Thread...

Space


Antwort von Axel:

Edius hat den großen Vorteil, daß das Originalmaterial unangetastet bleibt. Daher ist es wirklich möglich, von der Karte zu schneiden und als DNxHD auszuspielen. Ich sehe bezüglich des Wandelns aber ehrlichgesagt keinen großen Vorteil von Avid gegenüber Final Cut. Gewandelt werden muß AVCCAM bei beiden. Deshalb warte ich gespannt auf das neue FCS und werde es mir zulegen, sobald es AVCCAM nativ und hoffentlich auch echtes Smartrendering versteht... Nach meinem Verständnis ist Smartrendering ein Buzzword, um zu suggerieren, dass nicht nur Schnitt, sondern auch die finale Ausgabe nativ, also in AVCHD/AVCCAM erfolgen kann. Relevant für Urlaubsfilmer ...

Ich selbst mache zwar so gut wie keine Aufnahmen, würde aber eine Aufnahme in 422 und Intraframe lieber bearbeiten. Das geht mit allen bestehenden Suiten, und der Qualitätszuwachs - wenn es in den preislichen Gewässern, in denen wir hier paddeln, einen gibt (was meine Frage war, Stichwort HDMI-Ausgabe) - wäre deutlich, während ich bei rekomprimiertem Mpeg4 sehr schnell einen Qualitätsverlust sehe, nicht messtechnisch, sondern auf dem Monitor.

Space


Antwort von Axel:

(was meine Frage war, Stichwort HDMI-Ausgabe) Bin noch nicht durch, hab aber beim Googeln Phillip Blooms Versuche mit der Lumix und Nanoflash gefunden, die bei 24p wohl als 60i ausgibt. (Bloom: Looks progressive to me). Das wäre eine ähnliche Geschichte wie mit der EX3 über SDI.

Dabei auch ein Lowlight-Test mit der AG 101. Das wurde in einem anderen Forum mit einem Red One Test verglichen, in dem Leonardo di Caprio Bloom schamlos imitiert (Guttenberg ist überall), hier. Wer Bock hat, das mal mit einer ProRes-Version zu vergleichen, kann dies (vermutlich mit Rechtsklick Laden unter, kann ich auf dem Bürorechner hier nicht mit 700MB machen) dafür nehmen. Der ProRes-Decoder für Windows hier. Möglich, dass der Einsteller im anderen Forum Recht hat, dass man mit 422 von einer Pana, resp. einer NEX-FS100, dann nicht nur mehr Details, sondern auch mehr Rauschen sehen würde, das sonst der Codec glättet. Wär doch gut zu wissen, oder?

Space


Antwort von Horace83:

Puuuh könnt ihr auch Geflame nicht sparen oder irgendwo privat austragen.
Die ständigen "Ich-bin-professioneller-als-du" Penisvergleiche gehen einem hier echt auf den Sack. Dachte auf Seite 2 gibts evtl noch ein paar Infos zur NEX-FS100....

Hans findet GPS halt toll, wenn das alles so funzt wie beschrieben ist das bestimmt auch praktisch.
So wie ich aber meine Erfahrungen mit jeder Automation habe, geht man am Ende des Tages halt doch nochmal alles von Hand durch (mir hilft das Sortieren von Hand z.B. schon mal beim Sichten und ich krieg alles schon mal in den Kopf) - aber wurst. Geschmäcker sind verschieden und darüber lässt sich wie man sieht, ja vorzüglich streiten....

Space


Antwort von vfxhansi:

Edius hat den großen Vorteil, daß das Originalmaterial unangetastet bleibt. Daher ist es wirklich möglich, von der Karte zu schneiden und als DNxHD auszuspielen. Vor allem ist es auch super wichtig das Material ERST mit jeder noch so kleinen Veränderung im "nativen-Modus" mit grottigen Generationsverlusten zu behaften BEVOR man in ein vernünftiges Format wandelt anstatt das unvermeidliche GLEICH zu tun. Aber Hauptsache so getan als wäre es ein supi-tolles PROFI-Feature und es allen ernstes als MANKO sehen wenn andere NLEs es nicht können, oder? :-))))
Gewandelt werden muß AVCCAM bei beiden. Deshalb warte ich gespannt auf das neue FCS und werde es mir zulegen, sobald es AVCCAM nativ und hoffentlich auch echtes Smartrendering versteht... Uh... immer schön die bedeutungslosen Buzzwords reinflechten um seine "Expertise" zu untermauern. :-D Das native schneiden bei Long-GOP Formaten ist halt ganz dolle wichtig, ja. Die Vorteile sind so mannigfaltig! Allein die Tatsache, dass alle AVC, HDV etc. -Cutter bekanntermaßen unbedingt wieder auf ihr AVD, HDV etc. -format wieder RAUS müssen und wollen (wie NEEL halt auch) untermauert zusätzlich den unverkennbaren Sinn darin ERST (wie oben beschrieben) das Material mit Verlusten zu behaften, bei 4:2:0 "vorzubehandeln" und DANN zu transkodieren! Wer ist schon so blöd und macht es bereits beim importieren??! Also so viel (extra) Zeit muss schon sein! Denn am Ende können wir wenigstens voller Stolz "NATIV!" schreien und mit einem herzhaften "njeh njeh njeh!!" auf andere zeigen die mit diesem unverzichtbaren Feature nicht aufwarten können! :-))))

*applaus*

Space


Antwort von Axel:

Puuuh könnt ihr auch Geflame nicht sparen oder irgendwo privat austragen.
Die ständigen "Ich-bin-professioneller-als-du" Penisvergleiche gehen einem hier echt auf den Sack. Dachte auf Seite 2 gibts evtl noch ein paar Infos zur NEX-FS100.... Zu wem sprichst du? Der Preis der NEX mit (wahrscheinlich, wenn man sieht, dass auch die AG101 in Europa teurer ist:) 6000 Krachern ohne Optik soll einen nicht überlegen lassen, ob nicht der Codec hier etwas schwach ist?

Sind das denn vom Preis her reine Amateurgeräte? Oder sollen/müssen die sich für die Käufer wieder amortisieren? Ist es vielleicht so, dass diese Dinger für das eine oder andere 500 € Musikvideo oder schlechte Webpräsenz von Kleinbetrieben in Frage kommen, aber eigentlich aus Penisneid angeschafft werden? Ernsthafte Fragen. Aber wären die nicht noch mehr OT?

EDIT, @vfxhansi: Wer das Material erst sichten und ordnen muss, weil er es nicht selbst gedreht hat (aber auch dann ...), kann es nicht nur genauso gut, sondern besser, nämlich schneller, "Loggen und Übertragen".
Und es gibt ein Argument, Mpeg4 vor dem Schnitt zu wandeln (zumindest vor jeder Veränderung am Bild selbst): Mit ProRes oder DNxHD ist die Vorschau zuverlässig, bei der beschleunigten Echtzeit-Vorschau von behandeltem AVCHD sieht man irgendeine Proxy-Phantasie, und das Ergebnis nach dem Export ist für eine Überraschung gut ...

Space


Antwort von NEEL:

Uh... immer schön die bedeutungslosen Buzzwords reinflechten um seine "Expertise" zu untermauern. :-D Das native schneiden bei Long-GOP Formaten ist halt ganz dolle wichtig, ja. Die Vorteile sind so mannigfaltig! Allein die Tatsache, dass alle AVC, HDV etc. -Cutter bekanntermaßen unbedingt wieder auf ihr AVD, HDV etc. -format wieder RAUS müssen und wollen (wie NEEL halt auch) untermauert zusätzlich den unverkennbaren Sinn darin ERST (wie oben beschrieben) das Material mit Verlusten zu behaften, bei 4:2:0 "vorzubehandeln" und DANN zu transkodieren! Wer ist schon so blöd und macht es bereits beim importieren??! Also so viel (extra) Zeit muss schon sein! Denn am Ende können wir wenigstens voller Stolz "NATIV!" schreien und mit einem herzhaften "njeh njeh njeh!!" auf andere zeigen die mit diesem unverzichtbaren Feature nicht aufwarten können! :-))))

*applaus* Bei einem Dokdreh ist ein Drehverhältnis von 1:20 und mehr normal. Und nein, ich will nicht 30-40 Stunden Rohmaterial transkodieren und womöglich noch mit mir rumschleppen. Das ist zu zeitaufwändig und wäre auch in vielerlei Hinsicht zu teuer. Der native Schnitt bietet mir die Möglichkeit, das Material zeitnah vorzusortieren, auch schon mal grob einzelne Blöcke zu schneiden und daran zu sehen, ob die gewünschte Dramaturgie bzw. das Konzept aufgeht. Hierbei wird nichts verändert, vor allem wenn ich einzelnen Szenen oder Material entsprechend vorsortiere und meine Marker von..bis setze... Es macht also keinen Unterschied bzw. das Material ist einfach nur markiert beim nativen Schnitt, in keinem Fall jedoch transkodiert. Das passiert erst einen Schritt weiter...

Das von mir herbeigesehnte Smartrendering im weiteren Verlauf bedeutet, daß beim Rendern nichts nichts verändert wird, die Datei bei harten Schnitten also nur aus vorhandenen Blöcken zusammengesetetzt, aber nicht umgerechnet wird. Ich würde gerne ganze Timelines smartrendern (zu einer unveränderten AVCCAM -Datei zusammenfassen) um sie a) platzsparend zu archivieren (vor allem unterwegs) und b) hinterher bequem in den Avid einziehen zu können. Erst bei diesem Schritt fallen dann die eigentlichen Transkodiervorgänge an. Einziger Unterschied: Wenn ich die Datei verändere, z.B. durch Grading oder Effekte, ist sie auch mit Smartrendering vor dem Transkodieren verändert. Ansonsten ist der Workflow mit Smartrendering von Timelines besser und zeitsparender als das einzelne transkodieren jedes Schnipsels. All das lernt man aber erst in der Praxis zu wünschen bzw. zu schätzen...

Wenn Apple so versnobt ist, wird das wohl leider nichts mit der Smartrender-Implementierung. Vielleicht zieht ja Premiere nach... ich für meinen Teil werde jedenfalls weiter Ausschau nach vernünftiger Schnittsoftware mit dieser Funktion halten.

Space



Space


Antwort von nicecam:

Im Gegensatz zur Fotografie bedarf es bei der Videografie nämlich schon einiger Kunstgriffe um einen Staubpartikel aus dem laufenden Bild nachhaltig zu eliminieren. Wenns nicht mehr ist als einer, zwei, drei... kümmert sich LogoAway ganz gründlich um deren Tarnkappe.

Aber natürlich gilt: 'Vorbeugen ist besser als heilen.'

Space


Antwort von Axel:

Das von mir herbeigesehnte Smartrendering im weiteren Verlauf bedeutet, daß beim Rendern nichts nichts verändert wird, die Datei bei harten Schnitten also nur aus vorhandenen Blöcken zusammengesetetzt, aber nicht umgerechnet wird. Ein willkürlicher Schnitt in ein AVCHD-Video mit seiner komplizierten GOP-Struktur bedeutet, dass Informationen vor und nach der Schnittstelle in die neue Datei gemappt werden müssen, damit sie nicht permanent weg sind. Also muss neu gerechnet werden. Wieso nicht?, wirst du sagen. Es wird so in der Praxis gemacht, es gibt keine Probleme, die neue Datei enthält ja alle Beschreibungen, es wurde gerendert, aber eben smart.

Du wirst mir sicher recht geben, dass AVCHD ein besonders verlustbehafteter Codec ist. Die Komprimierung in-camera hat die meisten (aber nicht alle) sichtbaren Pixel gefriergetrocknet, aber dabei bereits die erste De-Generation, die erste Stufe des Datenverlusts eingeleitet: Eine gefällige Rundung.

Wiederhole dein Smartrendern noch zweimal, und auch du wirst die Rundungsfehler sehen.

Warum übrigens kannst du in Edius "ungestraft" noch einen nachträglichen Weißabgleich machen (dies, obwohl spätestens hier ja alle Pixel neu berechnet werden müssten, selbst wenn es - seufz! - intraframe-codiert wäre) aber:... bei sehr anspruchsvollen Korrekturen, z.B. abgesoffenen Bildern ...nicht mehr? Wird doch mit allen Informationen gerechnet die da waren, wie beim Smartrendern, also warum geht das Zeug aus dem Leim? Weil es alles dasselbe Prinzip ist. Ein weiterer Schritt Rekompression kann für's gnädige Auge noch okay sein, aber grundsätzlich findet er immer statt, und immer mit Verlusten. Smartrendern ist vielleicht besser als Sillyrendern, aber Rendern von AVCHD ist nicht smart.

Allgemein: Kein aggro, jeder muss selbst seinen Workflow finden ...

Space


Antwort von Jott:

2004, als HDV kam, gab es auf der IBC am Sony-Stand Demos an fcp-Systemen. Damals hiess es allgemein noch, MPEG 2 Long-GOP könne man gar nicht schneiden, was für ein Unfug. Apple zeigte gleich zwei Lösungen als Preview: nativ und via Intermediate Codec - und der Apple-Mensch sagte, es sei noch nicht entschieden, welcher Weg im kommenden fcp-Update eingeschlagen werden würde.

Es kam dann Anfang 2005 beides: HDV nativ für Leute mit fetten, schnellsten Rechnern und der Intermediate-Weg für die anderen. HDV nativ war möglich, aber zäh. Für viele ein Aufreger. Man konnte so arbeiten oder anders, freie Wahl beim Workflow. Später würde das optimiert, und zusammen mit flotten Rechnern ist nativer HDV-Schnitt (und auch XDCAM, gleiches Prinzip) heute pillepalle.

Und jetzt eine Theorie:

Vielleicht wollte Apple das Gemaule diesmal nicht noch mal haben (wobei ernsthafte Anwender eigentlich gar nicht maulen und ProRes lieben) und hat sich jetzt, bei AVCHD in fcp, absichtlich erst mal die native Option verkniffen? Die Technologie für H.264-Schnitt ganz ohne Hardwareschlacht haben sie ja längst (sh. Filmbearbeitung mit dem lächerlichen Prozessor im iPhone).

Vielleicht müssen die Verfechter des nativen Schnitts nur etwas Geduld haben, bis die nächste fcp-Version zusammen mit neuem Betriebssystem und einer noch mal flotteren Rechnergeneration dann endgültig alle happy macht, ohne Gemaule.

Den Abschied von fcp aus der Profiwelt sehe ich übrigens nicht. Wieso tauchen plötzlich so viele ProRes-Recorder auf? Firmen wie Atomos, AJA oder auch Arri werden schon bei Apple nachfragt haben, was Sache ist.

Space


Antwort von Frank Glencairn:

Ehrlich gesagt ist es völlig lächerlich, in Zeiten von Festplattenpreisen im freien Fall, noch komprimiert aufzunehmen.
In 2-3 Jahren wird long GOP Codecs nur noch für billige Consumer-Kameras und Handys geben.

Ich hab ende der 90er schon unkomprimiert in SD geschnitten als Avid noch mit Proxies arbeiten mußte, und beim Umstieg auf HD (2002 glaub ich) hab ich erst gar nicht mit Kompression angefangen. Wavelet Codecs wie RED Raw oder Cineform gehen grade noch, aber unkomprimiert ist einfach zackiger in der Timeline. Als Delivery Codec ist ein Wavelet Codec hervorragend (z.B. JPEG2000).

Ich könnte kotzen, wenn ich sehe, wie die ganzen Sender ihre Qualitätsanforderungen immer weiter runter schrauben. Mittlerweile sendet sogar der BBC ganz ungeniert zig mal umtranscodiertes 5D Material - entsprechend toll sieht es dann auch aus.

Frank

Space


Antwort von Jott:

Nun ja - da bin ich nicht so sicher, dass der Speicherplatz egal ist. In letzter Zeit gab es ja zumindest hierzulande bei Sendern eine Massenflucht von P2 hin zu XDCAM - jetzt die Preisfrage: hat es auch eine Rolle gespielt, dass bei Sony zwei bis dreimal mehr auf eine Karte passt? Und den Hobbyfilmern sind ein paar Stunden Kapazität auf einem 15 Euro-Kärtchen immer noch zu teuer ...

Es wird aber auch keiner daran gehindert, einen Umcompressed-Recorder an den SDI-Ausgang der Kamera zu hängen, wenn er Lust hat. Jeden das Seine!

Space


Antwort von Frank Glencairn:

Bei einer normalen Produktion, egal ob Film oder TV, wie hoch ist der prozentuale Anteil an den Kosten (below the line Kosten) am jeweiligen Medium?

Film: je nach Budget und obszönen Gagen für Stars = unter 5% Dafür kann ich jede Menge Festplatten kaufen.

TV: Selbst bei unkomprimierter Aufnahme ist eine Festplatte mit gleicher Kapazität kaum teurer als ein HDSR Band. Allerdings kann man die Festplatte öfter löschen und neu bespielen.

Also von welche "Kosten" reden wir hier eigentlich?

Von P2 mit seinem extrem miesen Preis/Leistungs-Verhältnis, möchte ich gar nicht anfangen. Ich hab noch nie verstanden wie man auf P2 setzen kann. Vor allem für so ein mittelprächtiges Format wie DVCProHd.



Frank

Space


Antwort von Axel:

Nun ja - da bin ich nicht so sicher, dass der Speicherplatz egal ist. In letzter Zeit gab es ja zumindest hierzulande bei Sendern eine Massenflucht von P2 hin zu XDCAM - jetzt die Preisfrage: hat es auch eine Rolle gespielt, dass bei Sony zwei bis dreimal mehr auf eine Karte passt? Und den Hobbyfilmern sind ein paar Stunden Kapazität auf einem 15 Euro-Kärtchen immer noch zu teuer ... Bei NEEL geht es um die schiere Materialfülle. Sendern fehlt bei aktueller Berichterstattung evtl. auch der Geduldsfaden, bei vorhandenen Karten heute noch auf eine ~ Echtzeit beanspruchende Einverleibung durch FCP zu warten. Sind Argumente, finde ich.

Alle Karten in ein Thunderbolt-Lesegerät stecken, schneiden (nativ). Verwendete Auswahlen innerhalb der Clips werden als Hintergrundprozess automatisch in ProRes umgewandelt, mit etwas Fleisch vorn und hinten. Automatisches Hintergrundrendern, das bei Verwerfen (Änderung) beim nächsten Öffnen des Programms auch automatisch gelöscht wird. Der Schnitt wird immer schneller. Zum Finalisieren gibt es eine Taste "Go", die die Heinzelmännchen-Arbeit der Hintergrundprozesse eigentlich nur noch bestätigt. Drei, zwo, eins, es macht "Bing!" wie bei der Mikrowelle, der Film ist fertig. Wär schön, oder? Für mich logisch, dass das das nächste FCP wird. Aber Smartrendern wird es nicht bewerben, darauf wette ich.

Space


Antwort von Frank Glencairn:

EB is halt auch was anderes als eine Filmproduktion.

Frank

Space


Antwort von ighor:

Ähem...
filmt ihr schon
oder redet ihr noch?

Space



Space


Antwort von Jott:

Also von welche "Kosten" reden wir hier eigentlich? Weltfremd. Sender suchen sich DigiBeta-EB-Teams zuweilen unter anderem danach aus, was sie für die Cassette abrechnen. Es gibt seltsame Bereiche in dieser noch seltsameren Branche - manche wollen unbedingt knackiges 4:2:2-HD, es ist ihnen aber egal, wenn hinter der Kamera ein Azubi steht. Ach, lassen wir das.

Ich bin sicher, die AVCHD-Qualität der kleinen FS 100 wird trotz aller prophetischer Unkenrufe absolut brauchbar sein, und irgend jemand wird auch damit einen Kinofilm drehen. Der Weg ist das Ziel. EPIC kann jeder, langweilig! :-)

Space


Antwort von NEEL:

EB is halt auch was anderes als eine Filmproduktion.

Frank Ganz meine Rede. Habe vor ein paar Jahren in Frankreich bei einem DV-Kinodreh mitgemacht, zu einer Zeit, als es HDV bereits gab. Das war dem Team sowas von nebensächlich. Der Film kam beim Festival-Publikum gut an, fand einen Verleih und lief in den wichtigsten französischen Städten im Kino. Das Material war fürs Publikum hübsch genug um emotional in der Story drin sein zu können und das war die Hauptsache...

Ein deutscher EB-Dreh wär auf DV zur gleichen Zeit vermutlich nicht gegangen. Kino ist frei... EB unterliegt dem technischen Zwang von senderredaktionellen Zwergen.

Überhaupt: Ich finde die ganze Technik-Diskussion ab einem bestimmten Punkt nicht mehr sinnvoll. AVCCAM ist - gemessen an DV oder Beta oder einfach dem menschlichen Auge - ein mächtig geiler Codec, mit dem sich leicht gutes Material belichten lässt. Würde ich an die Cam einen 4:2:2 Recorder anflanschen, dazu noch eine Batterie und das Ganze auf ein Schultergestell schrauben, so würde der Zuschauer beim Dokfilm den Unterschied vor allem an einem Faktor merken: Am verpassten Material!

Space


Antwort von ighor:

Überhaupt: Ich finde die ganze Technik-Diskussion ab einem bestimmten Punkt nicht mehr sinnvoll. AVCCAM ist - gemessen an DV oder Beta oder einfach dem menschlichen Auge - ein mächtig geiler Codec, mit dem sich leicht gutes Material belichten lässt. Würde ich an die Cam einen 4:2:2 Recorder anflanschen, dazu noch eine Batterie und das Ganze auf ein Schultergestell schrauben, so würde der Zuschauer beim Dokfilm den Unterschied vor allem an einem Faktor merken: Am verpassten Material!

Danke!
Auch eine Schreibmaschine hat noch nie einen Schriftsteller gemacht.

Space


Antwort von Horsti:

Habe heute gehört: Deutschland-Premiere der Sony FS-100 auf der Hausmesse bei NEWi in Ostbevern, am 30.3. !

Wer die Kamera also mal live sehen möchte....

Space


Antwort von NEEL:

Edit: @Axel: Habe Dein Posting völlig überlesen, sorry.
Ich denke, Deinen Ausführungen nach zu urteilen hast Du Recht und Smartrendering wäre eventuell doch nicht so gut, es sei denn es gäbe keine "Rundungsfehler".

Interessant in diesem Zusammenhang finde ich, daß die Transcodierung von AVCCAM-Material nach AVCIntra, obwohl verwandt, augenscheinlich verlustbehafteter ist, als nach DNxHD. Zumindest mit Edius gibt es hier schon im Vorschaufenster sichtbare Unterschiede, vermutlich wäre Ähnliches unter Smartrendering zu beobachten.

DNxHD.mov leidet leider unter dem Quicktime-Gammashift-Bug (Milchglaseffekt) und ich habe noch keinen praktikablen Workflow herausgefunden, mit dem der Quicktimewrapper durch einen .mxf Wrapper ersetzt werden kann. Kauflösungen sind leider enorm teuer...

Space


Antwort von Axel:

DNxHD.mov leidet leider unter dem Quicktime-Gammashift-Bug (Milchglaseffekt) und ich habe noch keinen praktikablen Workflow herausgefunden, mit dem der Quicktimewrapper durch einen .mxf Wrapper ersetzt werden kann. Kauflösungen sind leider enorm teuer... Irgendwo, ich glaube hier im Forum, stand mal was darüber, wie man Quicktime verbietet, eine überflüssige Gammakorrektur durchzuführen, finde ich aber nicht mehr. Es ist zwar "nur" eine Frage der Anzeige, vergleichbar mit der Pixel-AR, aber wenn man nach dieser Anzeige z.B. Farbkorrekturen machen muss, ist das schlecht. Wenn möglich würde ich Quicktime vermeiden.

Hat Edius nicht den CanopusHQ?

Space


Antwort von edewolf:

mich hätte eigentlich die kamera interessiert. leider hatte sie noch keiner im test.
hier aber streiten die vielschreiber wieder um des kaisers bart. schade!
themaverfehlung!

nix für ungut

hajo

Space


Antwort von Tiefflieger:

Hallo Zusammen,

Mit professionellem Material bin ich noch nicht in Berührung gekommen.
Ich nutze als Amateur einen AVCHD Codec mit 28MBit/s VBR und 1080p50 Auflösung.

Die Auflösung ist so gut, dass ich parallele Schraffuren die Pixelbreite haben, darstellen kann.
D.h wenn ich ein Standbild herauskopiere und in einem Bildbetrachter vergrössere, sehe ich die Detailqualität.

Mein Videoplayer kann in Echtzeit Auschnitte vergrössern, z.B. 4x oder 9x, und ich kann daraus weitere 1920x1080 Bilder ziehen.
In diesem sehe ich im Bildbetrachter weitere (mehr) Details.

Als Laie schliesse ich daraus, dass meine Kamera mit AVCHD schärfere Bilder als FullHD generiert.
Mit TSMuxer AVCHD Level 4.2 (2048 x 1080 / 60) ist leider keine Bearbeitung mehr möglich (SmartRendering, bedeutet native ohne re-enconding),
aber mit Aunsoft FinalMate.

Bis jetzt habe ich, ausser in schwachlichtsitutionen (Gain >6dB), als Amateur immer Full HD Bilder generiert.
Und die ist besser als Digitales Material von Fernsehanstalten am heimischen Fernseher.

Ich muss dabei betonen, dass bei 42" Fernseher und 1.8m Abstand (1080) wenig Unterschied zu sehen ist.

Die Wirkung ergibt sich eher aus Kontrast und Farbe und einem sauberen plastischen Bild, dass durch guten Surround-Ton noch verstärkt wird.
(man ist mitten drin)

Mir ist klar, dass nun einige sagen, dass parallele Linien und Kanten optimiert gespeichert werden.
Die Detailauflösung ist auch bei Blättern im Wind oder Wasser sichtbar.
Und Wasser ist nicht eine grauweisse Fläche sondern grün/blau mit tiefe, je nach Lichtsitution und Untergrund.

Das eigentliche Problem an FullHD ist die "schlechte" Displayqualität und Kantenschärfung mit Moiere effekten bei echtem FullHD Material.
Zum Glück habe ich zuhause alles optimal eingestellt und freue mich an natürlichen Bildern, ob TV oder AVCHD
(Auch SD kann bei 42" / 2.5m Abstand scharf aussehen, Farben und Kontrast nja)

Nachtrag 28.01.2011¨, Die Angaben beziehen sich auf
Kamera Panasonic SD 700 mit Firmware Jan 2011 -> FF000145 002164 26 F4D0 8ED1

Space


Antwort von Axel:

@Tiefflieger
Solange du, außer einer Kreuzblende oder ein paar Titeln und sowas nichts am Material änderst und halt den fertigen Film einmal ausgibst, als AVCHD mit denselben Einstellungen ("as smart as it gets"), hast du nichts falsch gemacht, und das Ergebnis ist das beste für dich erreichbare. Man kann schon seinen Augen trauen.

Space



Space


Antwort von NEEL:

Hat Edius nicht den CanopusHQ? Ja, hat es, auch Canopus Lossless. Beides wird aber nur von FCP und Premiere gelesen...

Quicktime bleibt immer milchig, leider auch, wenn das vorläufige Endprodukt ein Quicktimefilm ist. Das ist vor allem bei Festval Online-Einreichungen problematisch. Lediglich beim wandeln z.B. nach MPEG II wird das Bild wieder "klar".

Die Wahl eines NLEs richtet sich irgendwie immer mehr nach der jeweiligen Kamera... oder man findet den sagenumwobenen Workaraound heraus, mit dem Quicktime der Gammashift verboten werden kann. Das alles wird langsam immer mehr zu echter Alchemie...

Space


Antwort von Jalue:

Alles in allem bin ich irritiert und enttäuscht von der Produktpolitik nicht nur Sonys, sondern aller großen Hersteller. Für wen bitte ist diese Art von Kamera gedacht? Für den großen EB- , Reportage- und Eventbereich ist sie m.E. untauglich. Für echte High End Produktionen nicht gut genug. Und für ambitionierte Amateure viel zu teuer. Als Videojournalist wünsche ich mir ein robustes, kompaktes, kostengünstiges Gerät, das die HD-Normen von ARD/ ZDF erfüllt, inklusive 2/3 Zoll Chip und eines lichtstarken 18fach Zooms. Das Ganze bitte ‚all in one’, also ohne die Notwendigkeit, irgendwelches Rig-Geraffel oder einen externen Recorder anflanschen zu müssen. Klingt simpel. Brauchen viele. Ist aber weit und breit nicht in Sicht. Also muss ich wohl mit meiner angejahrten XH A1 weiterkurbeln, bis sie auseinanderfällt.

Space


Antwort von Axel:

@Jalue
Yeah, scheint in die Kategorie High End Penis Enl*rger zu gehören.

@NEEL
In einem Avid-Forum steht dieses. Quicktime misinterpretiert YUV als RGB? Oder umgekehrt? Ich hoffe, es ist noch jemand hier irritiert, aber ich finde, einen Versuch ist es wert, oder?
WoWu schrieb eine andere Lösung, hier. Hab nie darauf geachtet, ob es diese Menus gibt, aber wenn, scheint man es Clip für Clip umstellen zu müssen (?), die Engländer würden das cumbersome nennen.

Space


Antwort von dienstag_01:

WoWu schrieb eine andere Lösung, hier. Hab nie darauf geachtet, ob es diese Menus gibt, aber wenn, scheint man es Clip für Clip umstellen zu müssen (?), die Engländer würden das cumbersome nennen. Diese Lösung funktioniert nur mit Qicktime Pro und wirklich nur mit jedem Clip einzeln.
Eine andere Lösung ist, wenn man im VLC Player den Videorenderer der Ausgabe von Standard auf z.B. OpenGL setzt. Was das aber für zusätzliche Auwirkungen haben könnte, keine Ahnung.

Space


Antwort von Axel:

Du exportierst Videos mit dem VLC? Wusste nicht, dass das geht. Ich hatte den DNxHD auch mal (Trial von MC5), ebenfalls mit Milcheffekt. Beim QT-Export von DNxHD gibt es irgendwo doch wirklich die YUV-Auswahl. Sollten das alle falsch machen?

Space


Antwort von dienstag_01:

Du exportierst Videos mit dem VLC? Wusste nicht, dass das geht. Es geht hier nicht um Export, der Effekt ist ein Anzeigeproblem. D.h., wenn du das exportierte Video z.B. auf einem Mac anschaust oder in ein anderes Programm importierst, siehst du, das da nichts falsch ist.

Space


Antwort von Axel:

Du exportierst Videos mit dem VLC? Wusste nicht, dass das geht. Es geht hier nicht um Export, der Effekt ist ein Anzeigeproblem. D.h., wenn du das exportierte Video z.B. auf einem Mac anschaust oder in ein anderes Programm importierst, siehst du, das da nichts falsch ist. Das hilft wahrscheinlich nicht. Die Bilder müssen in AVID korrekt angezeigt werden, es ist schon die Frage, ob der QT-Pro-Player da überhaupt was zu quaken hat.

Das Gammashift-Problem scheint eine Geheim-Gemeinheit irgendwelcher Spinner zu sein. In tausend Threads wird deswegen nachgefragt, und in ein Promille aller Fälle kommt eine Antwort, und zwar immer eine andere. Warum es überhaupt auf Macs früher Gamma 1,8 gab (Ich schwöre, es sah und sieht bei vielen auf Macs immer noch genauso milchig aus), wird immer damit erklärt, dass im letzten Jahrtausend Druckvorlagen damit erstellt wurden und CMYK sich irgendwie besser bei 1,8 übersetzen ließ. Aus demselben Grund müss man sich, wenn einen eine schwarze Katze kreuzt, auf den großen Zeh treten und dreimal rückwärts um den Block laufen.

Space


Antwort von dienstag_01:

Die Bilder müssen in AVID korrekt angezeigt werden, es ist schon die Frage, ob der QT-Pro-Player da überhaupt was zu quaken hat. Natürlich nicht!
Es geht doch auch darum, das ein (in Avid) bearbeitetes Video exportiert wird und auf einem Computer wiedergegeben wird. Das Video in der Vorschau des Schnittprogramms und das exportierte Video sollten gleich aussehen (wie und wofür soll ich sonst eine Farbkorrektur machen).
Das ist aber bei bestimmten Codecs, die auf Quicktime zugreifen, nicht der Fall (bei manchen schon, ich glaube Quicktime Animation). Das heisst aber nicht, das das Schnittprogramm (Avid) das Video "falsch" ausgibt, sondern das die Player das Video "falsch" anzeigen.
Ich denke, das ist wichtig zu wissen, sonst weiss man ja gar nicht, wie man seinen Workflow gestalten muss.

Space


Antwort von Frank Glencairn:

Als Videojournalist wünsche ich mir ein robustes, kompaktes, kostengünstiges Gerät, das die HD-Normen von ARD/ ZDF erfüllt, inklusive 2/3 Zoll Chip ..... Da bleibt dir als Bandformat nur HDCAM-SR, HDCAM (noch übergangsweise).

Als Dateiformat: - AVC-Intra 112 Mbps (4.2.2, 1920 x 1080, 10 Bit)
und XDCAM „Long GOP“ 50 Mbps (4.2.2, 1920 x 1080, 8 Bit).

Frank

Space


Antwort von Bernd E.:

...Als Videojournalist wünsche ich mir ein robustes, kompaktes, kostengünstiges Gerät, das die HD-Normen von ARD/ ZDF erfüllt, inklusive 2/3 Zoll Chip...Ist aber weit und breit nicht in Sicht... In dieser Form wird's wohl wirklich ein Wunsch bleiben, aber man gibt ja die Hoffnung nicht auf, dass Panasonic seine vernachlässigten Henkelkameras endlich wieder aufpoliert (und vielleicht sogar endlich eine Alternative zu P2 anbietet?). Mit 2/3-Zoll-Chip(s) zwar sicher nicht, aber zumindest AVC-Intra läge nahe, zumal man unter der Hand eine solche Kamera schon vor mehr als zwei Jahren angekündigt hatte - dabei ist es dann allerdings auch geblieben. Mal sehen, was die NAB bringt.

Space


Antwort von koji:

ich will eine leistbare Red mit Wechseloptik oder eine Mark 3.

Space


Antwort von NEEL:

Hab zum Thema Quicktime-Gammashift Milchglasproblem mal einen eigenen Thread eröffent, in den wir unsere Lösungsansätze werfen können:

viewtopic.php?p=481507#481507

Space


Antwort von ThomasKluge:

SONY and the FS100 “Exclusive interview with Bill Drummond”
http://www.hdwarrior.co.uk/2011/03/29/s ... ming-soon/

Studio Daily's round-up on Sony cameras showing at NAB
http://www.studiodaily.com/main/technol ... 13027.html

Space


Antwort von ThomasKluge:

Ein witzig gemachtes Pseudointerview von videocobra mit vielen wertvollen Einblicken und Informationen zu Cam:
http://vimeo.com/groups/fs100/videos/21711135

Space


Antwort von ThomasKluge:

Sony Nex-FS100 NXCAM Super35mm
Low Light Killer
http://vimeo.com/groups/fs100/videos/21969472

Ein simpler low light Test mit Feuerzeug-Beleuchtung.

Space


Antwort von ThomasKluge:

Unbedingt sehenswert. Viel wissenswertes über die Internas der Kamera. Vergleiche mit µ4/3 und Nex VG10. Interessant auch die Aussage von Sony, das die Nex VG10 eine repacked Nex 5 sei. Habe viele vermutet aber so deutlich habe ich das bislang nicht gehört.

Sony TidBits (NEX-FS100 presentation video)
http://www.sonyalpharumors.com/sony-tid ... ion-video/

Space


Antwort von ThomasKluge:

Sony FS100 auf der NAB mit Juan Martinez von Sony


Space


Antwort von B.DeKid:

Sony FS100 auf der NAB mit Juan Martinez von Sony
Also wenn der Jung jetzt noch das Mikro richtig halten wuerde ... aber am geilsten ist ja wenn er den E Mount erklärt, so wie das da drin schon aussieht kommt die Cam nach der Messe direkt zum Service zum reinigen , was bei dem ständig ab und dran und hey lassen wir doch mal die linse für nen bissel Zeit einfach ab .

OHNE WORTE!

..............

Coole Cam aber das Video ich weiss nicht. ;-(

MfG
B.Dekid

Space


Antwort von Tiefflieger:

Darum kaufe ich auch nie Austellungsmodelle.
Es ist immer schön zu sehen wenn mit Fingern ....

Space


Antwort von caren:

Alle reden von SDI 4.2.2 usw. Was ist eigentlich mit dem Sensor? Wird dieser zu 100% genutzt, oder wieder beschnitten, sodass aus den 18mm Weitwinkel wieder nur ca. 30mm werden?
Die Cam. ist mittlerweile auf der Sony Webseite, aber keine detail hierüber sind zu finden!
Weis jemand, ob das hier genau so ist wie bei der VG10 un Co.?

MfG.
Caren

Space


Antwort von Jott:

Natürlich wird der Sensor voll genutzt, genauso wie bei der FG10, der 7D etc. - er ist lediglich kleiner als z.B. bei einer 5D, deren Sensor dem alten Kleinbildformat entspricht. Das aber wiederum hat nichts mit dem bei Kinokameras üblichen kleineren Bildfenster zu tun, an dem sich die FS100 wie auch die F3 orientieren. Nur deswegen kann man ja PL-Kinooptiken an diesen Kameras verwenden.

Auf der Sony-Seite steht sehr wohl, wie sich das darstellt:

"18-200 mm F3.5-6.3 OSS
Entspricht Brennweite des 35-mm-Formats
16:9 28,8-320 mm
4:3 36-400 mm"

Space


Antwort von caren:

Natürlich wird der Sensor voll genutzt, genauso wie bei der FG10, der 7D etc. - er ist lediglich kleiner als z.B. bei einer 5D, deren Sensor dem alten Kleinbildformat entspricht. Das aber wiederum hat nichts mit dem bei Kinokameras üblichen kleineren Bildfenster zu tun, an dem sich die FS100 wie auch die F3 orientieren. Nur deswegen kann man ja PL-Kinooptiken an diesen Kameras verwenden.

Auf der Sony-Seite steht sehr wohl, wie sich das darstellt:

"18-200 mm F3.5-6.3 OSS
Entspricht Brennweite des 35-mm-Formats
16:9 28,8-320 mm
4:3 36-400 mm" Das ist schon mal ein Vorteil gegenüber der VG10. Da bleiben nur noch noch 32,5mm Weitwinkel übrig. Und zudem sind es nicht 14 Mio Pixel sonden nur noch 3,5! Da scheint es so, als würde die Technik der F3 drin stecken, nur wird hier auf AVCHD aufgezeichnet. das macht aber ein 4.2.2 Recorder wieder Wett! Auch doe 1080-50P gefallen mir gut, kenne ich schon von der SD707. Benutze es hier nur für Zeitlupe. Bei den XDCAM's ist das nur bei 720-50P möglich. Hier bin ich echt gespannt auf den Test von SlashCAM.

Gruß
Caren

Space


Antwort von Predator:

Es ist leider nur 8-bit über HDMI, nicht 10. Das wäre aber auch zu gut und würde die F3 entwerten.

Vielleicht kann man die FS100 ja hacken, sodass sie REDLOGFILM ausgibt^^

Space


Antwort von handiro:

Als Videojournalist wünsche ich mir ein robustes, kompaktes, kostengünstiges Gerät, das die HD-Normen von ARD/ ZDF erfüllt, inklusive 2/3 Zoll Chip und eines lichtstarken 18fach Zooms. Das Ganze bitte ‚all in one’, also ohne die Notwendigkeit, irgendwelches Rig-Geraffel oder einen externen Recorder anflanschen zu müssen. Klingt simpel. Brauchen viele. Ist aber weit und breit nicht in Sicht. Da geb ich Dir Recht! Keiner machts richtig oder zu teuer:-) Mir würde so ein JVC body gefallen aber mit vernünftigem chip drin. Diese ganze shoulder rig Grütze und diese ewigen Henkelmänner mit dem Sucher hinten....ein Elend ohne Ende.

Space


Antwort von Jott:

Als Videojournalist wünsche ich mir ein robustes, kompaktes, kostengünstiges Gerät, das die HD-Normen von ARD/ ZDF erfüllt, inklusive 2/3 Zoll Chip und eines lichtstarken 18fach Zooms. Das Ganze bitte ‚all in one’, also ohne die Notwendigkeit, irgendwelches Rig-Geraffel oder einen externen Recorder anflanschen zu müssen. Klingt simpel. Brauchen viele. Ist aber weit und breit nicht in Sicht. Wieso? 2/3"- TV-Schultercams gibt und gab es schon immer. Nur halt teurer, weil die Stückzahlen dafür viel geringer sind - sooo viele brauchen das nicht. Ein paar tausend Examplare sind für die Hersteller schon ein Erfolg.

Die Stückzahlen der "Kleinen" unter 10.000 Euro sind dagegen gewaltig.

Space


Antwort von caren:

Es ist leider nur 8-bit über HDMI, nicht 10. Das wäre aber auch zu gut und würde die F3 entwerten.

Vielleicht kann man die FS100 ja hacken, sodass sie REDLOGFILM ausgibt^^ Hallo Predator,

muss dir Wiedersprechen! Die NEX- FS100 kan sehr wohl 4:2:2!
Schau mal auf die Sony Webseite:

http://www.sony.de/biz/product/nxcamcor ... k/features

Die kopierte Textpasage:
Unkomprimierte Ausgabe in 4:2:2 mit Embedded Timecode

Die NEX-FS100EK kann unkomprimiertes 4:2:2-Material über HDMI (mit einem embedded SMPTE-Timecode) ausgeben,
das auf externen Medien, etwa HDD, gespeichert werden kann.

Space


Antwort von Jott:

Vorsicht, die Sony-Unterlagen sind voll mit Fehlern, überall steht was anderes. Es wurde auch schon veröffentlicht, dass 4:4:4/8-Bit anliegen soll. Es kann ja durchaus solche Unterschiede geben zwischen den bisher rumschwirrenden Prototypen und der finalen Version.

Mich persönlich interessiert nur, wie sich die Kamera mit Bordmittel-Aufzeichnung schlägt, sonst lösen sich die Vorteile der Mini-Abmessungen ja gleich wieder in Luft auf. Für 1080p50 gibt es sowieso keine externen HDMI-Recorder (falls doch, bitte einen benennen).

Wenn ich eine Kamera kaufen würde mit dem Ziel, einen externen Recorder zu nutzen, dann sollte das schon via SDI stattfinden, wie wowu zu Recht schon öfters angemerkt hat - alleine schon wegen der physikalischen Verbindung. Man kann doch nicht im Ernst seine wichtigen Aufnahmen einer solchen Wackelsteckerverbindung anvertrauen. Für mich taugt HDMI nur als Monitoring-Ausgang.

Space


Antwort von headroom:



Sony FS100 with Juan Martinez from Sony

Bei 4:50
HDMI OUTPUT Analog Component 4:2:2
RGB 4:4:4 8bit

Und HDMI 1.3 und1.4 sind 16 bit fähig

Space


Antwort von Predator:

Es ist leider nur 8-bit über HDMI, nicht 10. Das wäre aber auch zu gut und würde die F3 entwerten.

Vielleicht kann man die FS100 ja hacken, sodass sie REDLOGFILM ausgibt^^ Hallo Predator,

muss dir Wiedersprechen! Die NEX- FS100 kan sehr wohl 4:2:2!
Schau mal auf die Sony Webseite:

http://www.sony.de/biz/product/nxcamcor ... k/features

Die kopierte Textpasage:
Unkomprimierte Ausgabe in 4:2:2 mit Embedded Timecode

Die NEX-FS100EK kann unkomprimiertes 4:2:2-Material über HDMI (mit einem embedded SMPTE-Timecode) ausgeben,
das auf externen Medien, etwa HDD, gespeichert werden kann. Natürlich kann die FS100 4:2:2. Sonst würd ich ja keinen externen Recorder dafür kaufen! Aber 4:2:2 Farbsampling und Farbtiefe (8 oder 10 bit) sind zwei paar Schuhe. Farbtiefe sind nur 8-bit, aber Sony Kameras können das sehr gut kaschieren.

Space


Antwort von Predator:

Hat sie schon jemand? Bei einem deutschen Händler im Netz ist sie schon lieferbar!

Space


Antwort von Predator:

Hab gerade mit meinem Händler telefoniert. Es kommen morgen 8 (!) Stück aus Holland und werden an deutsche Händler geliefert. Das wars dann auch erstmal...

Er versucht mir eine zu beschaffen, kann aber nix versprechen. Jemine, was ist denn nur mit Japan los?!

Space


Antwort von Jörg:

Jemine, was ist denn nur mit Japan los?! Die Frage meinst Du jetzt nicht ernst???

Space


Antwort von Predator:

Ich mein das nicht wörtlich, aber sie haben den Release sogar um einen Monat vorverschoben und in den USA sind große Stückzahlen verfügbar und dann kommen 8 Stück nach Deutschland. Das sind Mengen, die sieht man auf Sonys Bilanz ja nichtmal.

Ich dachte entweder releasen sie oder sie lassens, aber doch nicht in so homöophatischen Mengen.

Space


Antwort von ruessel:

Mein Gott, schaut mal den Sucher an. Nach einer Woche wäre der mir am dünnen Plastikgelenk unten abgebrochen.

Space


Antwort von Jott:

Ich mein das nicht wörtlich, aber sie haben den Release sogar um einen Monat vorverschoben und in den USA sind große Stückzahlen verfügbar und dann kommen 8 Stück nach Deutschland. Das sind Mengen, die sieht man auf Sonys Bilanz ja nichtmal.

Ich dachte entweder releasen sie oder sie lassens, aber doch nicht in so homöophatischen Mengen. Was für ein Unfug. Alleine mein Sony Professional-Händler hier in der Stadt bekommt diese Woche genug Exemplare, um alle Vorbestellungen abzudecken. Nur, wer sich jetzt erst entscheidet und bestellt, landet wahrscheinlich in der nächsten Warteschleife.

Space


Antwort von Tiefflieger:

http://vimeo.com/groups/fs100/videos/24670007

Was ist das für ein roter Punkt auf 0:30, 0:57 und 1:02
Mittig rechts vom Stuhlbein, Stiefel und hinter dem Ohr.

Staub? oder Pixelfehler?

Gruss Tiefflieger

Space


Antwort von Predator:

Unklar. Ist laut dem User mittlerweile wieder verschwunden.

Space


Antwort von Frank Glencairn:

Hat sie schon jemand? Bei einem deutschen Händler im Netz ist sie schon lieferbar! Ja, seit gestern - und das Teil ist der Hammer.

Allerdins kannst du draußen Filmen ohne einen Stapel ND Filter komplett vergessen.

Ich war heute in einer stockdunklen Kirche, wo meine HVX200 komplett blind gewesen wäre und selbst ne 5D enorme Probleme gehabt hätte.

Die FS100 mußte ich nur auf 9db stellen (kann bis zu 30db) und das Bild war heller als das, was ich mit meinen Augen sah.

Ich schieß die Tage ein bisschen Testmaterial.

Frank

Space


Antwort von rush:

http://vimeo.com/groups/fs100/videos/24670007

Was ist das für ein roter Punkt auf 0:30, 0:57 und 1:02
Mittig rechts vom Stuhlbein, Stiefel und hinter dem Ohr.

Staub? oder Pixelfehler?

Gruss Tiefflieger Mensch, sieht ja fast ein wenig so aus wie die mit Sony-Sensoren bestückten VDSLR's von Nikon ala D7000...

Da gab es vereinzelt auch Probleme mit "Hotpixeln", insbesondere jedoch bei höheren Iso-Werten... Da sah man auf einigen Geräten dann auch mal 1-2 kleine Farbpunkte... Wurden dann aber durch ein FW-Update größtenteils weggebügelt/gemappt/reduziert - wie auch immer...

Die ND-Filter-Sache würde mich dann aber schon nerven...

Space


Antwort von Bernd E.:

...Allerdins kannst du draußen Filmen ohne einen Stapel ND Filter komplett vergessen......Die ND-Filter-Sache würde mich dann aber schon nerven... Es kursiert das Gerücht, dass es bald einen e-Mount-Adapter für Nikon-Objektive geben soll, der eingebaute Graufilter mitbringt. Wenn das ordentlich funktioniert, wäre es wohl eine sehr praktische Lösung.

Space


Antwort von iMac27_edmedia:

ich dachte der E-Mountadapter wird schon vertrieben in USA, hatte da irgendwo was gesehen, PrimeLenses sind im allgemeinen Lichtstärker als
die Sony-Scherben!

Und das mit dem ND-Filter ist doch auch kein Problem, denke ich mal an die RED, da gehts doch auch! Wenngleich ein paar schaltbare NDs wie bei der F3 nicht schlecht gewesene wären.

Space


Antwort von Frank Glencairn:

Ich hab mir nen Vari-ND von Heliopan besorgt, damit geht"s ganz gut.
Eigentlich sogar besser als mit 3-4 eingebauten, weil stufenlos.

Frank

Space


Antwort von iMac27_edmedia:

Zu dem Vari-ND gibt es hier einen Test diverser User:
http://www.dslr-forum.de/showthread.php?t=879144

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


Alternatives Abspielgerät für Aufnahmen der Sony FDR-X3000 4K Action Cam
Sony FX3 "Cine-Cam" - Release/Infos
Welche Vidocam Sony DVD201,DCR-HC85E, Pansonic GS200EG oder???
Sony Betacam BVW-300AP Tapedeck Geräusche
Sony RX0: (K)eine 4K-Action-Cam - dafür ultra-kompakt, S-LOG und viel HD-Qualität
Sony X3000 Actioncam -- die neue Bildstabilisation
Actioncam oder doch Sony AX53 oder AX100?
Sony X3000 Actioncam mit BOSS-Stabilisierung bald auch hier // IFA 2016
Hinweise auf neue 4K Top-Action Cam von Sony
Olfi - Gyro-stabilisierte 4K-Actioncam mit Sony-Sensor
4K-Actioncam Sony FDR-X1000 -- die neue Klassenbeste
Sony DVCAM-Rekorder DSR-25 Kopfstunden / Wert?
Sony NEX-VG30 Vergrößerungsfaktor des Suchers
Sony NEX FS100e USB-Kabel
RED Komodo: Erste Modelle sind ausgeliefert und erste Footage im Netz
Sony A1: Überhitzung bei der 8K Videoaufnahme und 4K 120 fps - erste Tests ...
Sony kündigt weltweit erste CFexpress 2.0 Typ A Speicherkarte für Sony A7s III an
magix video pro X14 Bilder springen nach Änderung der Framerate
Drag your GAN - KI-Bilder einfach mit der Maus verändern
Siegeszug der Handyfotografie, Bilder voller Kommerz.
Mehr Bilder der DJI Mavic 4 Pro geleakt - neue Zoomstufen und mehr
Wann kommet der erste MacBook Pro mit M2 Apple Silicon?
Wann kommet der erste MacBook Pro mit M2 Apple Silicon?
Der erste Slider
Neue Tutorial Clips von Blackmagic Design: Erste Schritte mit der Camera App und Filesync mit BM Cloud




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash