Logo Logo
/// 

Warum sind bei allen Picture Profiles die Schärfe rausgedreht?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Frage von Bounce187:


Hey Leute,

mich beschäftigt die Frage, warum bei allen Pictures Styles (damals für Canon, heute für Sony) immer die Schärfe auf -3 gestellt wird. Ist es nicht besser ein Sharpening in der Kamera zu haben, statt eventuell nachzuschärfen?

LG



Antwort von TheGadgetFilms:

Ganz simpel, weil das Schärfen in der Kamera um einiges schlechter ist als in der Post.



Antwort von ruessel:

Ganz simpel, weil das Schärfen in der Kamera um einiges schlechter ist als in der Post.

Würde ich leicht bezweifeln. In der Kamera intern (Bildprozessor) stehen viel höhere Sensordaten, Datenraten und Bitzahlen zur Verfügung als nachher im lächerlichen abgenagten 8Bit Stream.

Nur die Frage ist, was erlaubt mir der Hersteller im Menü um den Bildprozessor in der Aufschärfung gezielt zu steuern?





Antwort von TheGadgetFilms:

Ich nicht.



Antwort von dienstag_01:

Ganz simpel, weil das Schärfen in der Kamera um einiges schlechter ist als in der Post.
Ganz simpel, selten so gelacht ;)

Das Level der Nachschärfung ist im Standardprofil relativ hoch, sozusagen für das Mainstream-Bild, vielseitig verwendbar. Andere Profile kommen eben mit weniger Nachschärfung aus.

Wenn man die Nachschärfung in der Post mit in die Betrachtung einbeziehen will (ist ja kein MUSS), sollte man sich mal darüber Gedanken machen, auf welchem Weg man ZUVIEL Schärfe (aus der Cam) in der Post aus dem Bild bekommt. Schärfe rein - einfach, Schärfe raus - sehr schwer ;)



Antwort von WoWu:

Was ist denn Schärfe ?
Schärfe ist Kontrast, also Ein Gammanstieg, der durch Filterung erreicht wird und eine Tonwertveränderung mit sich bringt.
Gamma ist bei vielen Bildprofilen aber gar nicht das Ziel.



Antwort von mash_gh4:

Ganz simpel, weil das Schärfen in der Kamera um einiges schlechter ist als in der Post.

Würde ich leicht bezweifeln. In der Kamera intern (Bildprozessor) stehen viel höhere Sensordaten, Datenraten und Bitzahlen zur Verfügung als nachher im lächerlichen abgenagten 8Bit Stream.

dieser ansicht würde ich mich anschließen.

die normalen techniken zum schärfen von bildern sind im grunde überraschend einfach, wenn man sie einmal ansatzweise verstanden hat:

http://setosa.io/ev/image-kernels/
https://docs.gimp.org/de/plug-in-convmatrix.html
http://www.imagemagick.org/Usage/convolve/
http://matlabtricks.com/post-5/3x3-conv ... -demo#demo





Antwort von Starshine Pictures:

Was mich interessieren würde wäre was denn eigentlich die Zahl 0 bedeutet. Heisst es wenn ich in der Kamera auf Null stelle dass dann gar nichts an den Daten die vom Sensor kommen geändert wird? Und wenn ich nun in den Minus-Bereich gehe wird künstlich entschärft und darüber nachgeschärft? Oder hat die Nullstellung im Prinzip gar keine Aussage als solche und bedeutet einfach nur die Mitte der künstlichen Schärfestufen?

Grüsse, Stephan von Starshine Pictures



Antwort von cantsin:

Was mich interessieren würde wäre was denn eigentlich die Zahl 0 bedeutet. Heisst es wenn ich in der Kamera auf Null stelle dass dann gar nichts an den Daten die vom Sensor kommen geändert wird? Und wenn ich nun in den Minus-Bereich gehe wird künstlich entschärft und darüber nachgeschärft?
Das ist von Kamera zu Kamera und Hersteller zu Hersteller verschieden, aber beim Schärfeparameter geht's nicht um die faktische Bild- bzw. Detailauflösung, sondern ums künstliche Aufsteilen der Bildkanten, was den subjektiven Schärfeeindruck erhöht. Die Zahl 0 oder der Minusbereich bedeutet i.d.R., das man diese Aufstellung rausdreht. Mir ist keine Kamera bekannt, die im Minusbereich künstlich weichzeichnet, sondern 0 steht bei Amateurkameras oft für mittlere Aufsteilung. Bei vielen Kameras, z.B. den Panasonic GHs, lässt sich die Kantenaufsteilung auch gar nicht vollständig rausdrehen, auch beim maximalen Minuswert nicht.



Antwort von WoWu:

Ich kenne auch keine Kamera, in der sich die Kantenfilter gänzlich abschalten lassen denn der nachlaufende CodecCodec im Glossar erklärt braucht (schon aus reinen Effizienzgründen) deutlich erkennbare Kanten in der Bewegungsprädiktion.
Daher macht auch eine Minimierung in der Kamera nicht unbedingt Sinn, weil der CodecCodec im Glossar erklärt nicht mehr so gut arbeitet und ein Nachschärfen in der Post schon gar nicht, weil man dort alle Codecartefakte mit nachschärft.
In der Kamera wird nämlich die Nachschärfung vor dem Encoding gemacht und ist damit wesentlich besser als in der Post.



Antwort von Starshine Pictures:

Danke euch zweien. Damit macht es Sinn eine moderate Schärfe in der Kamera einzustellen die vielleicht dem gewünschten Wert im Endprodukt schon nahe kommt. Bisher habe ich das auch so gehandhabt, aber um ehrlich zu sein nur aus dem Bauch heraus. Ich konnte mir irgendwie keine Erklärung herbei rechnen aber alles runter zu drehen schien mir einfach komisch. Nun hab ichs tatsächlich kapiert! ;)

Grüsse, Stephan von Starshine Pictures



Antwort von mash_gh4:

Das ist von Kamera zu Kamera und Hersteller zu Hersteller verschieden, aber beim Schärfeparameter geht's nicht um die faktische Bild- bzw. Detailauflösung, sondern ums künstliche Aufsteilen der Bildkanten, was den subjektiven Schärfeeindruck erhöht. Die Zahl 0 oder der Minusbereich bedeutet i.d.R., das man diese Aufstellung rausdreht. Mir ist keine Kamera bekannt, die im Minusbereich künstlich weichzeichnet, sondern 0 steht bei Amateurkameras oft für mittlere Aufsteilung. Bei vielen Kameras, z.B. den Panasonic GHs, lässt sich die Kantenaufsteilung auch gar nicht vollständig rausdrehen, auch beim maximalen Minuswert nicht.

ich sehe auch keine möglichkeit genau zu rekonstruieren, was die jeweiligen kameras da wirklich tun.

ich würde aber eher erwarten, dass der wert 0 (oder irgend ein andere kameraspezifische wert auf der entsprechenden phantasieskala) einem identity kernel entspricht. ich sehe auch nicht, warum negative werte nicht als weichzeichner wirken sollen. derartiges macht ja durchaus sinn, um aliasing od. rauschen zu minimieren.



Antwort von TheBubble:

Ich kenne auch keine Kamera, in der sich die Kantenfilter gänzlich abschalten lassen denn der nachlaufende CodecCodec im Glossar erklärt braucht (schon aus reinen Effizienzgründen) deutlich erkennbare Kanten in der Bewegungsprädiktion.
Brauchen tut der CodecCodec im Glossar erklärt künstlich betonte Kanten für die Motion Estimation vom Grunde her nicht. Und selbst wenn seine Umsetzung davon profitiert, könnte er für die Bestimmung von Bewegungsvektoren dies selbst temporär vorfiltern und es müsste nicht die eigentlichen Aufnahmen betreffen.

Tatsächlich kann eine schon durch die Kamera eingefügte künstliche Kantenbetonung sogar aus diversen Gründen als problematisch eingestuft werden:

- Rauschen wird ebenfalls betont,
- die Filteruing ist in der Aufnahme fixiert und kann nachträglich nicht mehr reduziert werden,
- kontrastreichere Kanten mit weniger sanften Übergängen sowie ein deutlicheres Rauschen führen dazu, dass vom CodecCodec im Glossar erklärt pro Block zusätzliche höherfrequente Anteile gespeichert werden müssen, die vorher nicht vorhanden waren, d.h. es geht zu Lasten der verfügbaren Bits.

Vorteil: Es ist bequemer, als alles nachzubearbeiten. Und wenn man mit dem Ergebnis zufrieden ist, kann man es ja durch die Kamera machen lassen.

Daher macht auch eine Minimierung in der Kamera nicht unbedingt Sinn, weil der CodecCodec im Glossar erklärt nicht mehr so gut arbeitet und ein Nachschärfen in der Post schon gar nicht, weil man dort alle Codecartefakte mit nachschärft.
Ich bin der Ansicht, dass schärfere Kanten und höhere Kontraste den CodecCodec im Glossar erklärt Bits kostet, die bei begrenzter DatenrateDatenrate im Glossar erklärt dann woanders weggenommen werden müssen.

Das man in der Post ArtefakteArtefakte im Glossar erklärt mit nachschärft, stimmt natürlich und könnte ein Argument für die Filterung durch die Kamera sein. Zumindest dann, wenn die DatenrateDatenrate im Glossar erklärt so niedrig ist, dass die ArtefakteArtefakte im Glossar erklärt schon sichtbar stören.

Daher: Ausprobieren, was beim eigenen Workflow besser funktioniert.



Antwort von WoWu:

Setzt nur voraus, dass der CodecCodec im Glossar erklärt so implementiert ist.
Ist mir in den letzten 20 Jahren nicht untergekommen, zumal die Kantenvorfilterung ohnehin Teil der Kamerasoftware ist.
Bleibt auch die Frage, inwieweit sich solche, in den CodecCodec im Glossar erklärt verlagerten Analysen und vorfilterungen, negativ auf die Latenz auswirken.
Einer der kritischsten Punkte in einem Echtzeitsystem.
Vermutlich auch einer der Gründe, warum es kein Hersteller macht wenn sie bereits an anderer Stelle geleistet wurde.
Daher hat der Anwender in kommerziellen Implementierungen gar keine Wahlmöglichkeit, außer der Kantenfilterung.



Antwort von TheBubble:


Bleibt auch die Frage, inwieweit sich solche, in den CodecCodec im Glossar erklärt verlagerten Analysen und vorfilterungen, negativ auf die Latenz auswirken.
So ein einfacher Filter-Kernel ist in Hardware quasi irrelevant. Abgesehen davon muss eh die Latenz der Verarbeitung kompensiert werden, zusätzlicher Zeitbedarf ginge darin einfach unter.



Antwort von DeeZiD:



Tatsächlich kann eine schon durch die Kamera eingefügte künstliche Kantenbetonung sogar aus diversen Gründen als problematisch eingestuft werden:

- Rauschen wird ebenfalls betont,
- die Filteruing ist in der Aufnahme fixiert und kann nachträglich nicht mehr reduziert werden,
- kontrastreichere Kanten mit weniger sanften Übergängen sowie ein deutlicheres Rauschen führen dazu, dass vom CodecCodec im Glossar erklärt pro Block zusätzliche höherfrequente Anteile gespeichert werden müssen, die vorher nicht vorhanden waren, d.h. es geht zu Lasten der verfügbaren Bits.

Endlich mal ein sinnvoller Kommentar.
An meiner GH4 kann ich alle genannten Punkte nachvollziehen.
Außerdem lässt sich ergänzen:

Beim Matching mit einer RED oder ARRI immer das Minimum auswählen (bei der a7s II -7, bei der Gh4 -5), ansonsten wird der Unterschied zwischen billiger DSLM und digitaler Filmkamera noch viel deutlicher.



Antwort von srone:



Tatsächlich kann eine schon durch die Kamera eingefügte künstliche Kantenbetonung sogar aus diversen Gründen als problematisch eingestuft werden:

- Rauschen wird ebenfalls betont,
- die Filteruing ist in der Aufnahme fixiert und kann nachträglich nicht mehr reduziert werden,
- kontrastreichere Kanten mit weniger sanften Übergängen sowie ein deutlicheres Rauschen führen dazu, dass vom CodecCodec im Glossar erklärt pro Block zusätzliche höherfrequente Anteile gespeichert werden müssen, die vorher nicht vorhanden waren, d.h. es geht zu Lasten der verfügbaren Bits.

Endlich mal ein sinnvoller Kommentar.
An meiner GH4 kann ich alle genannten Punkte nachvollziehen.
Außerdem lässt sich ergänzen:

Beim Matching mit einer RED oder ARRI immer das Minimum auswählen (bei der a7s II -7, bei der Gh4 -5), ansonsten wird der Unterschied zwischen billiger DSLM und digitaler Filmkamera noch viel deutlicher.

der punkt ist nur idr der, selbst -5 oder whatever da ins minus geht, ist bei den genannten kameras nicht null, denn das wäre ein segen. ;-)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Video DSLR & Großsensor Kameras Allgemein -Forum

Antworten zu ähnlichen Fragen:
Picture Profiles für GH4 und FZ1000
GH4 - Eigene Picture Profiles erstellen möglich?
Welche Picture Profiles zum Matchen unterschiedlicher Kameramodelle?
Keine Picture Profiles in der Smart Remote Control App
was sind die guten Projekteinstellungen bei 25p und 30p Videos
Warum sind Ripp-Programme notwendig?
Auf & Ab bei allen Gimbals gleich?
allen, die keine pov/drohnen/flugaufnahmen mehr sehen können...
Particular: Warum sind Partikel auch durch andere Ebene sichtbar?
Wie zieht ihr denn die Schärfe?
Sony a6300 schärfe raus nehmen bei pp profil
Die Schärfe der Cine-Kameras von ARRI, Panasonic und RED
C100mkII - Suche Hilfe bei Erstellung eines eigenen Picture Profile
Wo sind die Camcorder geblieben?
PVA"s scheiden die > als 4 Gb sind..
Walimex pro vs cinema wo sind die unterschiede?
Grading-/Look Frage: "Wir sind die Rosinskis"
Was sind die zuverlässigsten Festplatten?
Gibt es DVD-R die gleichzeitig auch RW sind?
Fuji MV-1 - Wie gut sind die Videoaufnahmen?
Die fetten Prime-Jahre sind vorbei
DJI Osmo mobile - wo sind die Videos?
Sind die Quicktime-Sicherheitslücken für Windows-Videoanwendungen
Die neuen Intel Xeon-Preise (E5-2600 v4) sind da
Alexa: Warum Tageslichtfilter bei 3200K ?
(Gelöst) Wo sind die "Nicht-4K-Kamera-Tests" hin verschwunden

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Firmware
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

ClipKanalschraeg

Aktuelles Video:
Film Crew in Quarantine