Logo Logo
/// 

Was bringt 24Bit/192KHz Audio?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Nicht ganz analog "zu sehen", aber dennoch aktuell passend zum Thema 8 vs


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Was bringt 24Bit/192KHz Audio?




Antwort von Schleichmichel:

Ja, endlich mal erklärt, dass es aufs richtige Mastering ankommt. Aber man profitiert trotzdem von einer hohen Bitrate. Und die "Mastered for iTunes"-AAC-Dateien erhalten die volle Dynamik des 24Bit-Ausgangsmateriales. Da wird nichts auf 16Bit gedithert, wie im Artikel geschrieben. Auch Apple LosslessLossless im Glossar erklärt ist nicht an 16Bit gebunden.



Antwort von StanleyK2:

Auch interessant in diesem Zusammenhang:

http://evolver.fm/2012/10/04/guest-opin ... -no-sense/





Antwort von WoWu:

Das sind persönliche Meinungen, die lediglich auf ein kleines Feld, der Leistung des menschlichen Gehörs, abheben aber alle andern Aspekte, innerhalb der Signalübertragung aussen vor lassen.

In der akustischen Verarbeitung (speziell in der hochqualitativen Verarbeitung der Musik) kommt es sehr stark auf die Möglichkeit an, einen Schallimpuls im Raum zu lokalisieren.
Je schmaler in der Übertragung das Impulswort, umso besser ist das Verhalten.
Wir reden also über die BandbreiteBandbreite im Glossar erklärt, wenn es um Frequenzen geht, reden aber über Impulsantwort, wenn es um den Zeitbereich geht.

Es reicht daher nicht, solche Betrachtungen auf den Frequenzbereich zu reduzieren und andere Bereiche der Akustik völlig unbeachtet zu lassen.
Dort, wo es nicht auf solche hohen Qualitäten ankommt, kann man sicher auf 16/44.1 reduzieren. Dort, wo es aber darauf ankommt, haben 24/192 durchaus ihre Berechtigung.
Mal ganz abgesehen davon, dass hochwertige Digitalmikrofone der namhaften Hersteller mit 24/192 arbeiten.
Es ist anzunehmen, dass Firmen, wie Georg Neumann, durchaus wissen, was sie da tun.

Es gilt immer wieder der alte Grundsatz, dass das Internet nur dem nutzt, der nicht alles glaubt.



Antwort von Jominator:

Nachdem ich mich jetzt drei Jahrzehnte mit Musik und Akustik beschäftigt habe, komme ich zu folgendem Ergebnis:

Die möglichen Verbesserungen von Abtastungen jenseits von 16/44,1 bei der Wiedergabe stehen nur im geringen Verhältnis zu dem betrieben Aufwand.
Die größtmöglichen Nutzen erzielt man durch bessere Schallwandler und - was leider nicht immer möglich ist und ebenfalls mit größerem Aufwand verbunden ist - eine Verbesserung der Raumakustik.



Antwort von WoWu:

Das ist genauso im Videobereich.
99% kommen mit 8Bit völlig aus, weil ihre Anforderungen nicht höher sind.
Nur sagt das nicht gleichzeitig aus, dass deswegen 12Bit obsolet sind.



Antwort von Jominator:

Es ist schon erstaunlich wie weit bei solchen Themen die Theorie und Praxis auseinander liegen. Egal ob im Audio- oder Videobereich.

Es gibt in München ein Lokal an dem ich häufig vorbei komme und bei dem im Sommer auf der Terrasse immer Fußball übertragen wird. Und ob ihr es glaubt oder nicht. Bis letztes Jahr war bei sämtlichen Fußballübertragungen die gezeigt wurden das Bild auf allen Leinwänden auf 4:3 gestaucht und die Terrasse gerammelt voll. Von den Bildeinstellungen bezüglich der Farbe möchte ich erst gar nicht anfangen.

In Anbetracht dieser Tatsache bezweifle ich, daß sich jemals mehr als 1% der Konsumenten überhaupt für Thema wie Bittiefe interessieren werden.

Der einzige Grund den ich erkennen kann, warum das Thema überhaupt in den Medien herumgeistert ist der Wachstumsgendanke der Konzerne. Aber das ist ein anderes Thema.



Antwort von Niko M.:

Es ist schon erstaunlich wie weit bei solchen Themen die Theorie und Praxis auseinander liegen. Egal ob im Audio- oder Videobereich.

Es gibt in München ein Lokal an dem ich häufig vorbei komme und bei dem im Sommer auf der Terrasse immer Fußball übertragen wird. Und ob ihr es glaubt oder nicht. Bis letztes Jahr war bei sämtlichen Fußballübertragungen die gezeigt wurden das Bild auf allen Leinwänden auf 4:3 gestaucht und die Terrasse gerammelt voll. Von den Bildeinstellungen bezüglich der Farbe möchte ich erst gar nicht anfangen.

In Anbetracht dieser Tatsache bezweifle ich, daß sich jemals mehr als 1% der Konsumenten überhaupt für Thema wie Bittiefe interessieren werden.

Der einzige Grund den ich erkennen kann, warum das Thema überhaupt in den Medien herumgeistert ist der Wachstumsgendanke der Konzerne. Aber das ist ein anderes Thema.

Leider trifft dieses Beispiel die Sache irgendwie auf den Punkt.

Vielen macht es wohl aber ungemeinen Spass darüber zu diskutieren. Weil sie wahrscheinlich optimale Ergebnisse erzielen wollen. Manche brauchen evtl. auch einen Grund dafür, selbst noch nichts "vernünftiges" produziert zu haben.
Das sei ihnen auch gegönnt.
Und es gibt sicher noch mehr Gründe.

Wobei auch jeder andere Ansprüche hat und unterschiedlich hört und sieht. Bin da selbst auch recht empfindlich und hätte den Lokalbesitzer wahrscheinlich angesprochen.
Aber wenn es drauf ankommt, spielt doch im Endeffekt fast immer der Inhalt die wichtigere Rolle. Falls es um 24Bit oder 16Bit geht zumindest etc.

Heute prügelt man sich nicht mehr, da müssen die Triebe und Instinkte eben anders entladen werden.
Geht mir hier manchmal auch so, glaube ich...



Antwort von WoWu:

Aber wenn diese Theorie stimmen würde, hätten wir noch 4:3 s/w Fernsehen. Da kommen auch die Inhalte vernünftig rüber.Aber niemand hat komischerweise etwas gegen Farbe im Bild.
Warum also sollten sie zukünftig etwas dagegen haben, wenn Bilder höher aufgelöst sind und Farben mindestens entlang des Sehvermögens übertragen werden.
Dieses inhaltliche Argument ist meistens nur als Totschlagargument und ignoriert völlig jedes andere, oft gute Argument.
Oder warum schaust Du "Farbe im Bild" ?

Und was den Ton betrifft ... natürlich spielt die räumliche Anordnung eines Toneffektes eine Rolle, es sei denn, man hört Mono und selbst dann löschen sich solche differierenden Effekte auch noch aus.
Und warum sollten solche -immerhin das Klangbild verändernden Effekte- nicht mit den probaten Miitteln verhindert werden.



Antwort von Salcanon:

Das sind persönliche Meinungen, die lediglich auf ein kleines Feld, der Leistung des menschlichen Gehörs, abheben aber alle andern Aspekte, innerhalb der Signalübertragung aussen vor lassen.

In der akustischen Verarbeitung (speziell in der hochqualitativen Verarbeitung der Musik) kommt es sehr stark auf die Möglichkeit an, einen Schallimpuls im Raum zu lokalisieren.
Je schmaler in der Übertragung das Impulswort, umso besser ist das Verhalten.
Wir reden also über die BandbreiteBandbreite im Glossar erklärt, wenn es um Frequenzen geht, reden aber über Impulsantwort, wenn es um den Zeitbereich geht.

Es reicht daher nicht, solche Betrachtungen auf den Frequenzbereich zu reduzieren und andere Bereiche der Akustik völlig unbeachtet zu lassen.
Dort, wo es nicht auf solche hohen Qualitäten ankommt, kann man sicher auf 16/44.1 reduzieren. Dort, wo es aber darauf ankommt, haben 24/192 durchaus ihre Berechtigung.
Mal ganz abgesehen davon, dass hochwertige Digitalmikrofone der namhaften Hersteller mit 24/192 arbeiten.
Es ist anzunehmen, dass Firmen, wie Georg Neumann, durchaus wissen, was sie da tun.

Es gilt immer wieder der alte Grundsatz, dass das Internet nur dem nutzt, der nicht alles glaubt.

Dann sollte dieer Link helfen, der erklärt, warum 24 bit und Höher bei der Aufnahme und Mischung sinnvoll sind (vermeidung von Artefakten bei der Tonbearbeitung, EQ, kompression, vor allem Halleffekte)
und Mumpitz bei der Wiedergabe:
http://xiph.org/~xiphmont/demo/neil-young.html

Was auch die Neumänner wissen...



Antwort von Jominator:

@ wowu:
Diese enormen Entwicklungssprünge sind mit diesen Thread betreffenden Entwicklungen nicht vergleichbar.
Wenn ich jemand heute mit verbundenen Augen in einen Raum setzte, kann ich mit vertretbarem Aufwand dafür sorgen, daß er nicht sagen können wird, ob da ein Gitarrist oder eine Lausprecherbox vor ihm befindet.
Zu glauben, einen Konsumenten an dieser Stelle mit einer Vervielfachung der Datenmenge beglücken zu können, darf bezweifelt werden.

@ Salcanon:
Deswegen schrieb ich ja "für den Konsumenten"!
Während der Bearbeitung ergibt eine höhere Auflösung natürlich Sinn. Genauso wie bei der Bildbearbeitung.
Wobei man dazu sagen muss, daß die Realitätsnähe vom bewegten Bildern gegenüber der Audioreproduktion noch gewaltig hinterherhinkt.



Antwort von WoWu:

Dann sollte nur niemand mit solchen Totaschlagargumenten kommen wie:
"nur die Inhalte zählen". Denn die sind in dem Diskussionszusammenhang wirklich Quatsch.
Ausserdem stellt sich die Frage nach solchen Feinheiten sehr wohl, wenn wir in ein paar Jahren tatsächlich 4K in REC2020 zu übertragen haben.
Man muss eben immer unterscheiden, wo, welche Qualitätsanforderungen gestellt werden und dass in diversen Fällen 24/192 sinnvoll sind, steht ausser Frage.
Ich bin nur fest davon huberzeugt, dass die meisten der 99% Produzenten die Konsequenz von 24/192 gar nicht kennen und damit gar nicht wüssten, wie es sinnvoll einzusetzen ist.



Antwort von ChrisS:

Nachdem ich mich jetzt drei Jahrzehnte mit Musik und Akustik beschäftigt habe, komme ich zu folgendem Ergebnis:

Die möglichen Verbesserungen von Abtastungen jenseits von 16/44,1 bei der Wiedergabe stehen nur im geringen Verhältnis zu dem betrieben Aufwand.
Die größtmöglichen Nutzen erzielt man durch bessere Schallwandler und - was leider nicht immer möglich ist und ebenfalls mit größerem Aufwand verbunden ist - eine Verbesserung der Raumakustik.

Genau, was der Kollege sagt: nur weil es technisch machbar ist, muss es jetzt eben sein. Scheiss drauf! Die Technik ist fast nie das Problem, um einen guten Sound zu machen, eher schon der Tonmann. Auch wenn ich mit 96 kHz mische, heißt das nicht, dass es besser klingt. Und es geht doch um Besser, oder? Also muss man doch an einer ganz anderen Stelle angreifen. Selbst ich kann 16 oder 24 bit nicht wirklich unterscheiden. Es gibt zu viele Faktoren, die einen Sound drastischer beeinflussen, als die Diskussion um 48 oder 96 kHz. Und warum wird trotzdem diskutiert? Weil es eben technisch machbar ist und das Marketing der Industrie dafür ganze Arbeit leistet.



Antwort von Jan:

Höher, schneller, weiter halt. 90% der Kopfhörerkäufer wollen 30.000Hz, obwohl sie gar nicht wissen, was ihr Ohr eigentlich wirklich kann. Ich höre beispielsweise bis zu 16.000Hz, selbst die 20.000Hz-Marke ist für mich nicht erreichbar. Die 8/10 BitBit im Glossar erklärt Diskusion bei Slashcam ist genauso Quark, weil es wirklich nur für wenige professionelle Nutzer einen klaren Vorteil ergibt. Das geht dann weiter zu RAW und JPEG, wo selbst einige Amateurnutzer im DSLR-Forum von JPEG-Müll sprechen. Die Testbilder einiger Kamera-Modelle bei Dpreview sprechen da eine andere Sprache, dort gibt es wirklich Modelle bespielsweise von Nikon und Fuji, wo das JPEG-Bild schon sehr viel rausholt und gut abgestimmt ist, sodass sich das RAW-Foto nur sehr begrenzt absetzen kann, teilweise ist es schlechter, und auch nur in der intensiven Nachbearbeitung besteht ein Vorteil.

VG
Jan



Antwort von WoWu:

Viel Verwirrung über Abtastraten beruht auf der Tatsache, dass einige lokalisierte Prozesse bei viel höheren Geschwindigkeiten als die DatenrateDatenrate im Glossar erklärt im Rechner ablaufen.
Dass das zu "Artefakten: im Signal für, wird man bei der Video "Begleitton"- Verarbeitung sicher nicht sofort merken.
Auch kommt es bei solchem Ton nicht unbedingt auf die Lokalisierbarkeit eines Schallereignisses im Raum an.
Mit andern Worten ... Ton ist für die meisten Videoschaffenden ohnehin nicht nur ein Buch mit sieben Siegeln sondern auch ziemlich vernachlässigt.

Hier geht es aber gar nicht um Video sonder darum, wie sinnvoll 24/192 ist.
Wenn ich an die Musikindustrie und auch hier speziell im Klassikbereich denke, stellt sich komischerweise niemand eine solche Frage, sonst würden die "Neumanns" dieser Welt sich damit nicht auseinander gesetzt haben.

Es ist also so, wie ich oben gesagt habe und Jan in seinem Posting auch anspricht:
Es ist alles eine Frage des Qualitätsanspruchs.



Antwort von Jominator:

@ wowu:
Das kommt hat daher, daß es Menschen gibt die sich gerne "Casablanca" in S/W anschauen und neuere Filme wie "Transformers" unerträglich finden.
Aber an diesen Aussagen kann man gut erkennen, daß für viele Menschen Emotionen deutlich über der technischen Entwicklung stehen. Aufhalten wird man den technischen Fortschritt damit natürlich nicht können.
Bezüglich REC2020 und 4k (eingeschränkt) gebe ich dir Recht. Ich schrieb ja bereits, daß die visuelle Darstellungstreue der akustischen hinterherhinkt.
Alleine schon der Unterschied des Dynamikumfangs zwischen einem Auge und dem eines Sensors!
Gemacht wird halt was technisch machbar ist. Z. B. UHD-Auflösung bei 5,1 Zoll beim nächsten Samsung Top-Smartphone.

@ ChrisS:
Genauso ist es. Gerade in Anbetracht diese Forums (Film/Video).



Antwort von WoWu:

Dann hätte aber die Fragestellung auch sein müssen:
Was bringt 24Bit/192KHz Audio? -im Videobereich- !!!
Dann hätte sich die ganze Diskussion erledigt.
Nur die Frage ist ja ziemlich allgemein gestellt worden und im Audiobereich macht 24/192 ziemlich viel Sinn.



Antwort von Jominator:

Also ich habe die Frage so verstanden: Was bringt dem Endnutzer 24Bit/192KHz im Ausgabeformat?
Meine Meinung nach: Fast nichts.



Antwort von WoWu:

Doch, wenn es in der Produktion berücksichtigt wurde, sehr viel.
Nur ob es etwas bringt, das SamplingSampling im Glossar erklärt durchzureichen, das steht allerdings auf einem andern Blatt, da bin ich völlig bei Dir.



Antwort von Jominator:

@ wowu:
Genau, meine Aussagen bezogen sich auf das "Durchreichen".



Antwort von WoWu:

Das scheidet bei Video ja ohnehin aus.
Nur verstehe ich eben diesen Vergleich von 24/192 mit 8/12 BitBit im Glossar erklärt nicht.
Mir fällt im Augenblick kein Konsumerformat -Video- ein, in dem das übertragen wird.
Ich glaube, dass der Diskussionsbeitrag im falschen Forum gelandet ist.



Antwort von Jominator:

Und zu ungenau spezifiziert ist.



Antwort von Salcanon:

Dann noch mal weiterführend aus dem obigen Link, ein Video, das gut aufzeigt,
warum das weiterreichen von 24bit/192 unnötig ist . und wir seit den 80ern dem Irrtum aufsitzen, uns Abtastwerte als Treppchen vorzustellen, die nach feinerer Auflösung schreien.

http://xiph.org/video/vid2.shtml

Ich nehme auf und mische Musik immer in 24 bit (und werde das auch weiter tun, eben halt weil die DSPs mit feineren Werten handeln), doch wenn ich dann auf 16bit ruterdithere, höre ich beim besten Willen keinen Unterschied - und das Video belegt auch, warum.



Antwort von handiro:

Ich kann sehr wohl den Unterschied zwischen analogem Audio und digitalem hören, aber wenns einmal digital ist, ists vorbei. Egal ob 24/192 oder 16/44.1.

Der Sound bleibt im Lautsprecher hängen...



Antwort von WoWu:

Der Film richtet sich mehr an die 99% als an das eine Prozent.
Er hat sich genau die kritischen Stellen sehr einfach gemacht und ein bandbegrenztes Signal aus einem Rechteck erstellt, statt eine Menge an unterschiedlicher Sinussignale zu mischen.
Er hat also den klassischen Messfehler gemacht, denn Mikrofone erzeugen eine Menge (n) an Sinussignalen und kein singuläres Rechtecksignal.
Sonst hätte er nämlich die Veränderung des ursprünglichen Sinus am "Ringing" Punkt erklären müssen.
(@handiro ... und das gehört auch zu dem, was man hören kann)

Aber bei 24/192 geht es ja auch noch um zeitliche Veränderungen im Signal, auf die er gar nicht eingegangen ist, die aber kausal für solche Anwendungen sind.
Nach dem Video dürfte es 24/192 gar nicht geben.
Nur danach dürfte es auch kein Oversampling geben, denn Nyqvist begrenzt das auf die doppelte Abtastfrequenz woraus man ein Originalsignal rekonstruieren kann.
-Es gibt aber nunmal Oversampling ... und das aus gutem Grund.
Aber ich denke, die Diskussion gehört wirklich in ein anderes Forum.
Der Film jedenfalls ist nicht wirklich geeignet, Klarheit zu vermitteln, weil er die Problemfelder gar nicht erst berührt.



Antwort von Ricoh:

Ich kann sehr wohl den Unterschied zwischen analogem Audio und digitalem hören, aber wenns einmal digital ist, ists vorbei. Egal ob 24/192 oder 16/44.1.

Der Sound bleibt im Lautsprecher hängen...

Das ist immer wieder unterhaltsam. In seriösen Doppelblindtest wird das Gegenteil erweisen, aber einige halten sich für auserwählt, ein viel besseres Gehör zu haben oder offensichtlich einen schlechten Testaufbau.



Antwort von WoWu:

Nenn doch mal die "seriösen Doppelblindtest" .. oder sollte das nur Polemik sein ?



Antwort von Jominator:

Vielleicht vergleicht handiro eine aktuelle Aufnahme auf CD mit einer 35 Jahre alten Aufnahme auf einer Audiokassette! ;-)



Antwort von WoWu:

Man kann sehr wohl bestimmte Merkmale in einem Hörtest auseinander halten, speziell wenn es solche fehlerhaften Verformungen des Signalverlaufs gibt.
Vielleicht nicht der "normalverbraucher" von der Strasse, aber Leute, die sich mit Audio Qualitäten auseinandersetzen und häufig auch den Vergleich haben, sehr wohl.
Insofern sind solche Tests wenig aussagefäig.
Ich wette, dass die meisten auch keine Unterschiede in Gradings erkennen oder abweichende WeissabgleichWeissabgleich im Glossar erklärt, bei Bildern ... und schon gar nicht kleine Artefakte.
Warum sollte das bei Audio anders sein ?
Manche erkenne in Mischungen ja auch falsch gestimmte Instrumente ...
Das Gehör ist eben nicht bei jedem menschen gleich gut geschult.



Antwort von iasi:

Wenn ich diese Zahlen höre, denke ich immer an Vermarktung und eingebildete Qualität.
Es wurde ja oben schon gesagt: Wenn der Ton letztlich aus schlechten Lautsprechern in einem akustisch ungeeigneten Raum kommt, helfen doch auch höhere Bit-Raten nichts.

Im Video-Bereich fängt das doch schon bei der Bildeinstellung am TV-Gerät an. Warum sollte es im Audio-Bereich denn besser sein?
Boxenbau - allein schon damit befassen sich einige Leute ihr halbes Leben lang, um aus der Musik-CD das letzte Quäntchen herauszukitzeln.

Bei denen, die nicht zu denen zählen, die jahrelang an Boxen herumfeilen, tritt schnell (auch mangels direktem Vergleich) ein Gefühl der Zufriedenheit ein. Und wenn dann doch mal eine 5.1-Anlage die Lautsprecher des TV-Geräts ersetzt, freut man sich über die enorme Verbesserung.

Nebenbei: Im direkten Vergleich kann man natürlich schon den Unterschied hören - so wie z.B. zwischen Dolby Digital und DTS - würde ich jetzt mal behaupten - eine entsprechende Anlage vorausgesetzt.



Antwort von Salcanon:

Der Film richtet sich mehr an die 99% als an das eine Prozent.
Er hat sich genau die kritischen Stellen sehr einfach gemacht und ein bandbegrenztes Signal aus einem Rechteck erstellt, statt eine Menge an unterschiedlicher Sinussignale zu mischen.
Er hat also den klassischen Messfehler gemacht, denn Mikrofone erzeugen eine Menge (n) an Sinussignalen und kein singuläres Rechtecksignal.
Sonst hätte er nämlich die Veränderung des ursprünglichen Sinus am "Ringing" Punkt erklären müssen.
Gibt es einen Link zu einem anschaulichen Artikel/Video?

Ich kann sehr wohl den Unterschied zwischen analogem Audio und digitalem hören, aber wenns einmal digital ist, ists vorbei. Egal ob 24/192 oder 16/44.1.

Der Sound bleibt im Lautsprecher hängen...

O.K, dass heisst also, du kommst an die analogen Mutterbänder der 70er und 80er ran und kannst dies natürlich auf deiner Mehrspurmaschine abspielen.
Denn die Schallplate mit 40dB nutzbarer Dynamik, einem Höhenabfall bis runter auf 10kHz zu den inneren Rillen kann es als Vergleichsmedium nicht sein.



Antwort von WoWu:

Ich verstehe die ganze Diskussion nicht.

Bei Produktionen, bei denen RAW im Workflow sinnvoll ist, wird das einfach gemacht.
Dasselbe ist im Audiobereich 24/192 und da wird herumdiskutiert, ob man den Audiobereich nicht begrenzen sollte.
Wir reden hier um Speicherersparnisse von einigen hundert MEGA Byte.
Und Rechengeschwindigkeiten, die schon lange kein Problem mehr darstellen.

Warum also sollte ich bei einer kochwertigen Produktion kein (quasi) "uncompressed" Audio aufzeichnen, zumal sowohl die AD/Wandler sowas heute fast umsonst bieten oder sogar digitale Mikrofone und ich evtl. sowieso den Ton extern Aufzeichne und auch extern nachbearbeite.
Wie gesagt .. ich rede nicht von EB- Produktionen.

Warum also sollte ich den Ton bei einer anständigen Produktion nicht in bestmöglicher Qualität durch den Workflow ziehen ?
Nur um 200 MB Speicher zu sparen ?
Auch bei Ton gibt es Verarbeitungsartefakte. Soll ich das Risiko eingehen, nur um es auf die Werte von EB Kameras (16/48) zu drücken und in zwei Kanäle zu drücken ?

Also wirklich ... ich verstehe die ganze Diskussion nicht.
RAW ist ok, aber 24/192 nicht ?



Antwort von jk86:

RAW ist ok, aber 24/192 nicht ?
Klar - das ist ja ein Filmerforum und kein Tontechnikerforum. Hauptsache, das Bild ist wichtig, der Ton kann da ruhig grottig sein. Ist halt die Sache der Tonmenschen, die in den Credits immer schön nach dem DoP kommen.



Antwort von Niko M.:

Ab einem gewissen Gesamtniveau, halte ich den Ton für verhältnismässig wichtiger als das Bild.
Wenn dieser schlecht abgegriffen oder gemischt wird etc., machen die 24Bit/192KHz wahrscheinlich keinen grossen Unterschied. Oder doch? Kommt es aufs Gehör an?

Ein "mittelmässiger" Ton kann einen "ordentlich" produzierten Film, sehr amateurhaft wirken lassen oder auch komplett versauen. Für mich zumindest.
Mit einem guten Ton ist der erste Eindruck eines Filmes bei mir sofort besser, und man kann glaube ich, sogar Schwächen in der Story oder den Bildern damit etwas ausgleichen.

Viele schauen sich aber Filme gerne über schlechte Laptop-Lautsprecher etc. an. Und haben damit kein Problem.
Wenn sie den gleichen Film aber im Kino mit gutem Sound gesehen hätten, bin ich mir sicher, dass der Film mehr Eindruck bei ihnen hinterlassen hätte. Und auch besser von ihnen bewertet werden würde.

Die Wirkung von Blockbustern hat in meinen Augen verdammt viel mit dem Ton zu tun. Aber auch generell beim Film natürlich. Da man mit Musik, die Bilder, Szenen und Handlungen erklären oder für den Zuschauer interpretieren kann.
Innerhalb von Sekunden können starke Emotionen jeder Art erzeugt werden, das für mich Wichtigste beim Film.

Ich würde mit meinem H6 auch lieber in 24/192 aufnehmen. Habe es aber bisher nicht gemacht. Da manche von Problemen bei der "Umwandlung" z.B. sprechen. Oder "das braucht man nicht" etc. hört...
Gibt es da unter den Audioexperten eine einheitliche Meinung oder wird das noch heiss diskutiert?
Falls man Verarbeitungsartefakte damit vermeiden kann, spricht es auch dafür.

Die grosse Masse wird zwar keinen grossen Unterschied bewusst wahrnehmen, aber vielleicht wird dadurch ja die unterbewusste Wirkung auf den Zuschauer verstärkt ?

Würde gerne selbst mal einen professionellen Blind-Test machen, um mir eine bessere Meinung darüber bilden zu können.
Auch wenn ich mir solche Tests schwierig vorstelle...



Antwort von Salcanon:

Ich verstehe die ganze Diskussion nicht.

1) Weil das Nyquist-Theorem besagt, dass die doppelte Abtastfrequenz reicht.
Oversampling hatte "nur" damit zu tun, weniger steile analoge Filter herstellen zu müssen. Auch erreichen Delta-Sigma eine höhere Auflösung. Praktisches Beispiel:
Ich habe noch zwei CD-Player der ersten und zweiten Generation. Ein von mir mit 24 bit erstellter und auf 16 bit runtergerechneter -60dB 1kHz Sinus wird auf denen wegen der systembedingt niedrigen Bitauflösung zu einem Sägezahn.
Aber auf einem modernen Wandler höre ich wieder wieder einen Sinus.

Den Unterschied messe ich übrigens vom selben Gerät, denn ich habe einen dieser Player von (immerhin von 1985, bereits ein Oversampler) mit einem SPDIF Ausgang nachgerüstet - wohlgemerkt nicht etwa einen ungenutzen Pin am IC verdrahtet, sondern tatsächlich einen digitalen Transmitter von TI verbaut, da diese Augänge noch nicht vorgesehen waren.

Also, interner, originaler Wandler der Geräte (Ein Nakamichi mit PCM54 bzw ein Sony mit CX20017) = Sägezahn.
Moderner Wandler, Ein Sony Player mit CXA8042AS -etwa 1994- ein Selbstbau-DAC mit ES9018 -um 2010- am Nakamichi angeschlossen oder einfach nur mein PC - um 2011 = Aus dem Sägezahn wird wieder ein Sinuston.

2) Transistoren haben einen bevorzugten Frequenzbereich, in denen sie am besten arbeiten. Ein auf unseren Hörbereich ausgelegter Transistor wird mit Ultraschallmaterial Probleme bekommen und Verzerrungen in den Hörbereich spiegeln. Man müsste also hochauflösende Aufnahmen in den Höhen begrenzen, also wozu die unnötigen Samples?
Breitbandige Transistoren liefern keine so guten Ergebnisse wie schmalbandige. Wenn der Audioverstärker auch noch die Fledermauskolonie wiedergeben soll, die neben dem Symphonieorchester haust, würde er beim Klaviersolo nicht mehr so gut klingen.
Grüße,
Frame



Antwort von WoWu:

Nur, dass Du bei der CD bereits bei 16/44.1 runtergesampled bist.
Was erwartest Du da nach einem up-sample auf 24/192 ?
Woher sollen die ganzen Oberwellen bzw. Harmonischen noch kommen ?

Das ist so, als würdest Du ein 8 BitBit im Glossar erklärt Signal wieder auf 12 BitBit im Glossar erklärt bearbeiten.

Im Übrigen finden auf einem Audio-Bearbeitungsweg ebenso viele ArtefakteArtefakte im Glossar erklärt statt, wie auf einer Video Bearbeitung, nur dass sie sich eben anders auswirken.
Ein vernünftiger Ton-mann weiss das und wird sie genau so zu verhindern versuchen, wie die Bild-Leute.
Daher meine Frage : warum RAW und nicht 24/192 ?

Was gibt es dagegen einzuwenden, in einer Produktion den Ton bestmöglich aufzunehmen ?

Und was Nyqvist betrifft, so sagt das Theorem nur, dass man ein Signal ab der doppelten AbtastungAbtastung im Glossar erklärt mit einer annehmbaren Wahrscheinlichkeit reproduzieren kann. (Darunter ist die Wahrscheinlichkeit gering).
Er geht dabei eben nur von Wahrscheinlichkeiten aus, besagt aber nicht, dass es immer 100%ig reproduzierbar sein muss.
Tastet man hingegen höher ab, läuft diese Wahrscheinlichkeit entsprechend höher.
Doppelt heisst also nicht: "perfekt" sondern ist nur die Mindestanforderung.



Antwort von SgtPepper:

warum RAW und nicht 24/192

das Problem ist, dass "HiRes"-Audio Aufnahmen ein absolutes Nischen-Bedürfnis sind, und man öfter auf Probleme und bugs im Produktionsablauf trifft, die den Zeitplan einer Produktion ins Wanken bringen können.

Ich wollte vor ein paar Jahren mal eine 96kHz-Orchester-Aufnahme machen und es scheiterte letztendlich daran, dass zwar alle Komponenten theoretisch 96kHz-fähig waren aber das Zusammenspiel zwischen Madi-Karte eines DM2000 und den anderen Madi-Teilnehmern schlicht nicht funktionierte. Das herauszufinden hatte mich einen ganzen Tag gekostet.

Und so ist es doch immer: willst du etwas machen, was nicht jeder macht, musst du höchstwahrscheinlich mit mehr Problemen kämpfen als andere.



Antwort von WoWu:

Ja, das stimmt.
Im höherwertigen Videobereich ist es ja ebenso.
RAW (oder auch 12 BitBit im Glossar erklärt Formate) ist ja streng genommen auch noch ein Nischenbereich und nur wenige Verarbeitungsprogramme sind ja überhaupt darauf eingerichtet, vernünftige Framraten in dieser Qualität zu verarbeiten.

Aber wenn ich hochwertige Anwendungen habe, dann steht auch hohen Audio (wie Video) Qualitäten nichts im Weg.
Und warum soll man sie dann nicht nutzen, wenn der Workflow es zulässt.

Dass 24/192 für EB nicht nötig ist, ist genauso klar, wie dafür auch kein RAW erforderlich ist.
Daher finde ich diese grundsätzliche Frage, die hier im Thread gestellt ist, ziemlich komisch.
Genauso könnte man auch fragen: Was bringt RAW im Video?



Antwort von SgtPepper:

Und warum soll man sie dann nicht nutzen, wenn der Workflow es zulässt.

ok, aber das ist genau die Frage, die mich auch interessieren würde.

Jeder professionelle Fieldrecorder kann 192kHz aufnehmen. Ist die Frage, ob Avid damit dann umgehen kann und ob der AAFAAF im Glossar erklärt Transport die Daten auch so beibehält. Ich bin z.B. nicht sicher, ob alle Plugins im ProTools in einer 192kHz Session funktionieren, bzw. intern nicht SRC vollziehen.

Dann die Frage des Mediums. Momentan glaube ich nur bei DTS HD möglich, abh. davon, dass bei der Abhörkettte alles stimmt (D-A Wandler usw.)

Workflowfragen. Die aber ziemlich entscheidend sind, wenn es um Zeit und Geld geht.

Für mich klingt das momentan alles ziemlich utopisch, zumal der Unterschied praktisch AB verglichen sehr klein ist.



Antwort von WoWu:

Absolut richtig. Aber dasselbe hast Du bei Video eben auch, wenn ich sehe, dass ein Grossteil der Effekte nicht mal 10 Bit-fähig sind und das NLE einfach auf 8 BitBit im Glossar erklärt übergeht, ohne auch nur zu warnen.
Die "üblichen Verdächtigen" sind nun mal nur darauf abgestellt, einfache Produkte zu bearbeiten.
Aber wer häufiger im Premiumbereich arbeitet, wird sich seinen Workflow (hard- und softwaremässig) schon zurechtgestutzt haben.

24/192 ist genauso wenig Plug-n-play wie RAW hat aber zumindest den Vorteil, dass es standrdisiert ist und über SFDIF läuft und SPDIF standardisiert wieder in AES zu wandeln ist und es auch automatische Latch-Up Verfahren gibt. Das ist alles kein Hexenwerk mehr.
Und wer gute Audioqualitäten haben will, wird sich schon mit mehr als 16/48 auseinander setzen.
Jedenfalls ist die "Luft nach oben" für Audio genügend offen.



Antwort von SgtPepper:

absolut, ich finde das Thema auch sehr interessant,
aber es gibt noch viel schlimmere Sachen, gegen die es zu kämpfen gilt.

Dass z.B. im Jahr 2015 Sprecheraufnahmen noch teilweise via music taxi über eine crappy ISDN Leitung aufgenommen werden ist ein Skandal, aber leider immer noch Thema.



Antwort von WoWu:

Allerdings muss man auch anmerken, dass die meisten Produktionen "Wegwerf Produkte" sind, die 2, 3 mal gesendet werden und dann in den Archiven verschwinden und es nicht mal in den Programmaustausch schaffen, geschweige denn in Vermarktungskataloge.
Premium wird nicht von vielen Produktionshäusern angepackt.



Antwort von Salcanon:

Nur, dass Du bei der CD bereits bei 16/44.1 runtergesampled bist.
Was erwartest Du da nach einem up-sample auf 24/192 ?
Woher sollen die ganzen Oberwellen bzw. Harmonischen noch kommen ?
Habe ich an dem Sägezahnbeispiel beschrieben, dass upsampling zumindest von der Auflösung was bringt. Und die "Harmonischen" könnte auch mein überforderter (Audio)-Transistor produzieren..
Wie gesagt:
ich nehme alle Bits,die ich kriegen kann, wenn ich mische, um Rundungsfehler zu vermeiden. Aber wennich das Master (auf-0.2 dB headroom gemastert) auf 16bit runtersample, werde ich dank der modernen DA-Wandler keinen Unterschied wahrnehmen.

http://archimago.blogspot.ca/2014/06/24 ... art-i.html

Es gibt auch noch irgendwo einen anderen Test mit gleichen Ergebnis, der an einer Fachhochschule für Tonmeister gemacht wurde, an dessen Link komme ich aber gerade nicht ran...



Antwort von WoWu:

Das beantwortet alles nicht die Frage, warum, wenn es mir ein Aufnahmeequipment erlaubt, nicht mit 24/192 (wie im Videobereich in RAW) gearbeitet werden soll.



Antwort von iasi:

Das beantwortet alles nicht die Frage, warum, wenn es mir ein Aufnahmeequipment erlaubt, nicht mit 24/192 (wie im Videobereich in RAW) gearbeitet werden soll.

Richtig.
Es wurde ja schon oben gesagt:
Man sollte die höchstmögliche Aufnahmequalität anstreben - unabhängig vom Ausgabeformat.
Es gibt wohl kaum gute Gründe, die dagegen sprechen - aber eben viele dafür.



Antwort von SgtPepper:

also 24bit ist in allen Bereichen der professionellen Tonaufnahme schon lange standard und wird wohl auch von niemanden angezweifelt



Antwort von SgtPepper:

Man sollte die höchstmögliche Aufnahmequalität anstreben - unabhängig vom Ausgabeformat.
Es gibt wohl kaum gute Gründe, die dagegen sprechen - aber eben viele dafür.

ich denke, das gilt für die Bittiefe, aber nicht für die Samplerate.

In den Bereichen wo der "Zwischenschritt" der höheren Samplerate Sinn macht, wird er oft fast unbemerkt intern angewendet. Beispiel sind zB. AD Wandler mit 4x Oversampling, um den Nyquist Filter digital einzusetzen, oder zB. digitale Filter-Plugins, die intern "hochskalieren", um genauer arbeiten zu können, aber dann wieder am Ende des Plugins downskalen.

Wenn das Zielmedium jedoch auf den bisherigen Standard 44.1 bzw. 48kHz begrenzt ist, sehe ich keinen Mehrwert eine hochauflösende Aufnahme zu machen, v.a. im Hinblick auf den oben beschriebenen workflow- Risiken.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Encore kein 24bit Audio Export mehr möglich
4K Video und 24-bit/192KHz Audio auf dem Smartphone
MHL 3.0 bringt 4K Unterstützung und HD-Audio
Kostenloses Upgrade auf Windows 10 ab 29.Juli bringt auch Dolby Audio
Kurznews: Blackmagic Camera Firmware bringt Audio-Levels und Histogramm
Premiere CC - 44.1kHz Audio mit 48kHz Video/Audio synchronisieren
Grundlagen: DSLR Audio Setup - Externer Audio Recorder oder In-Kamera Ton v
DisplayPort 1.3 bringt 4K-3D und 4K-Unterstützung
Red Giant bringt Universe
HDMI 2.0 bringt bis zu 4K 50/60p
Pipette bringt AE CS 5.5 zum Absturz
Audio funkübertragung
Audio synchen
Audio Monitor AG-AC 90
Audio kopieren
HDMI 2.0a bringt High Dynamik Range
Wie viel bringt mehr RAM?
Böhmermann bringt RTL in die Bredouille
Sony bringt die neue A 77 M II DSLR
HP bringt neue 4K, 5K und Curved Monitore
The Interview bringt die Filmverwertungskette durcheinander
Die Zukunft bringt 50 Gbit Ethernet
Plastik-Profi reloaded: Panasonic bringt AG-AC 8
Kurznews: USB 3.1 bringt 10 Gbit/s Superspeed
Audio Video zusammenfügen
Video8 Audio Problem

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
Nero
News
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Specialsschraeg
1-2. Juni / Weimar
backup_festival
1-2. Juni / Oderaue
8. OderKurz-Filmspektakel
2-3. Juni / Düsseldorf
24h To Take
7-10. Juni / St. Ingbert
filmreif! - Bundesfestival junger Film
alle Termine und Einreichfristen