Logo Logo
/// 

1080i vs 720p



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Fernsehen-Forum

Frage von aerobel:


Hallo alle,

Ich habe mir gestern erstmals einen Full-HD (1920x1080pix) Fernseher (Toshiba) geleistet, weil meine alte Glotze langsam nicht mehr Schritt halten konnte (immer weniger analoge Kanäle, Digitalempfang war nicht möglich...).

Beim Senderwechsel werden mir nun jedesmal kurz einige Infos eingeblendet, die sich auf den ausgewählten Sender beziehen. Da sehe ich unter anderem, in welchem FormatFormat im Glossar erklärt das Bild ankommt:

- 576i SD
- 720p HD
-1080i HD

Zwischen 576i SD und HD sehe ich einen deutlichen Qualitätsunterschied, nicht aber zwischen 720p und 1080i...

Kann man mir das mal erklären...? Theoretisch müsste 1080i doch deutlich sichtbar mehr als 720p bringen... sehe aber keinen wirklichen Unterschied...

Rudolf



Antwort von Natalie:

720p sind vollbilder , 1080i sin abwechselnd Halbbilder .. Idr wird progressiv als ruhiger wahrgenommen als interlaced


http://de.m.wikipedia.org/wiki/Zeilensprungverfahren



Antwort von WoWu:

Tja, Rudolf.
Das liegt wohl auch daran, dass Du fast die identische Auflösung hast:
Bei 720 hast du 50 Bilder 1280x720 = 921.600 Pixel/50tel sec.
und bei 1080i hast Du 1920x540 (Halbbild) = 1.036.000 Pixel/50tel sec.
Das sind gerade mal 10% mehr, die aber durch die unscharfen De-Interleasing Verfahren mehr als aufgezehrt werden.
Hinzu kommt, dass das De-Interleasing Verfahren bereits in der Kamera unschärfer "durchgereicht" wird, ganz davon abgesehen, dass die Objektive bei 720 noch im linearen Übertragungsbereich sind und eine deutlich höhere MTF aufweisen.

Es gibt eine Menge Gründe (mehr), warum die grössere Pixelzahl nicht immer einher geht mit besseren Bildqualitäten.








Antwort von ennui:

Das heißt, ich mache eine Bluray besser in 720p als in 1080i, um möglichst gute Qualität zu erhalten?



Antwort von DaCarlo:

Das hast du gut erklärt Wolfgang.

@ Rudolf vergleich mal 720p zu 1080p1080p im Glossar erklärt auf deinem Flat TV.

Gruß Charly



Antwort von aerobel:

Hallo alle,

Vielen Dank für die Antworten, die mir durchwegs einleuchten...

Meine Frage bezog sich weniger auf Aufnahmen aus eigener Produktion, sondern vielmehr auf das, was mir die Fernsehsender anbieten. Da sind die allermeisten mit 720p unterwegs, lediglich zwei Sender (3+ und 4+) sind in 1080i empfangbar.

Gestern abend lief noch eine Fussballliveübertragung im Schweizer Fernsehen, die kam in 720p dermassen sauber und gestochen scharf rüber, das ich mich erst ein bisschen daran gewöhnen musste. Ich musste mich deutlich näher vor die Glotze setzen, um die Schärfe auch voll geniessen zu können.

Interessanterweise sehe ich auch kaum wesentliche Unterschiede zwischen 576i zu 720p, wenn ich mich weiter als die etwa die vierfache Bilddiagonale hinsetze und gucke. Okay, mein Fernseher hat nicht gerade Kinoformat, ist lediglich etwas 60cm Diagonale, hat aber volle Auflösung von den Pixeln her betrachtet.

Grund, warum ich nichts grösseres kaufen wollte, ist der, dass ich disen Fernseher nun auch gleich noch als erweiterten Monitor für meinen Computer nutzen kann, das funktioniert tatsächlich ohne Probleme. Privat filme ich zumeist noch mit mini-DV, habe aber auch eine HD Kamera, deren Bilder ich nun auch erstmals mit 1080/50p auf dem Monitor sehen kann. Erstaunlich, was da schon mit der recht günstigen Sony HDR X130 rauskommt.

Kein Vergleich zu mini-DV, da liegen Welten dazwischen...

Rudolf



Antwort von beiti:

Der Vollständigkeit halber sei noch erwähnt, dass nicht alles, was heute in HD ausgestrahlt wird, auch in HD produziert wurde. Viele Sendungen sind hochskaliert. Sie sind daher weniger scharf als echtes HD, aber überraschenderweise doch schärfer/besser, als wenn man die gleichen Sender direkt in SD-Auflösung empfängt.
Das erklärt sich aus der starken Datenreduktion (MPEG2 bzw. H.264 mit oft grenzwertiger Datenrate); wir kriegen ja nie die volle Qualität der produzierten Sendungen zu sehen, sondern nur einen stark datenreduzierten Abklatsch davon. Wenn SD-Video auf HD hochskaliert und so ausgestrahlt wird, wirkt sich die Datenreduktion nicht mehr so stark aus.



Antwort von Jott:

Gedreht wird heute (für TV) alles in 1080i oder 1080p1080p im Glossar erklärt, 720p praktisch nicht mehr - oder halt nach wie vor in SD, das einfach hochskaliert wird.

Produzieren und senden sind zwei paar Stiefel - die meisten senden 1080i, manche (wie ARD/ZDF) downconvertiert zu 720p, was dann vom Fernseher wieder aufgeblasen wird. Dass der ganze Wirrwarr irgendwie funktioniert, liegt an den extrem guten (und extrem teuren) Down- und Upconvertern spezialisierter Hersteller. Ohne die ginge gar nichts mehr.

Wenn man mal schaut, wie verblüffend gut schon ein billiger 39 Euro-DVD-Player zu 1080p1080p im Glossar erklärt hochskalieren kann - oder ein aktueller Fernseher selbst - dann ist klar, dass man mit Hardware zum tausendfachen Preis ganz schön zaubern kann.



Antwort von aerobel:

Hallo,

Ja, das ist klar zu sehen, dass manche Sendung nicht in HD aufgenommen wurde, obwohl da HD steht. Ist ja auch irgendwie logisch, manches ist eben bloss in SD verfügbar.

Was mich aber etwas irritiert. Viele der HD Bilder erscheinen mir unheimlich "steril" und schon dermassen elektronisch "verschlimmbessert", dass sich kein angenehmens Gefühl einstellt, Schärfe hin oder her.

Beileibe nicht alles ist so, aber manchmal hat es schreckliche Bilder dabei, die ich so nicht auf Papier gedruckt ansehen möchte. Weichgespült, von jeglichem Leben befreit und in den Farben dermassen "chemisch", dass es fast schon weh tut...

Rudolf



Antwort von Jott:

Guck als erstes mal, was dein Fernseher so treibt in Sachen "Bildverbesserung", und was du da abschalten kannst.



Antwort von beiti:

Was mich aber etwas irritiert. Viele der HD Bilder erscheinen mir unheimlich "steril" und schon dermassen elektronisch "verschlimmbessert", dass sich kein angenehmens Gefühl einstellt, Schärfe hin oder her. Hast Du schon den ganzen Bildverbesserungs-Mist abgeschaltet, den Dein Fernseher evtl. produziert? In "Werkseinstellung" murkst die Elektronik des Fernsehers in vielfacher Weise am Bild herum. Da ist schon manchmal Glückssache, was hinten rauskommt.
Das fängt schon damit an, dass standardmäßig ein Overscan aktiv ist (d. h. es wird der Rand beschnitten und das Bild etwas hochskaliert; selbst ein 1080er-Original wird dann nicht pixelgenau wiedergegeben). Auch der dynamische Kontrast ist ein bekannter Übeltäter, den man auf die kleinste Stufe stellen oder ganz abschalten sollte. Daneben gibt es diverse Arten von Farbverstärkern, Rauschunterdrückern, Bewegungsglättern - und was die Programmierer sich sonst noch ausdenken, damit die Käufer im Fachmarkt mit einem "guten Bild" beeindruckt werden...



Antwort von Jott:

Ich gerade einen Thomson-Fernseher ausgepackt, wo man nach dem Einschalten in einem ersten Menü zwischen "Geschäft" und "Wohnzimmer" wählen muss. Lustig! Die "Geschäft"-Einstellung ist ein brüllbunter Overkill, gedacht für den Vergleichskampf im Elektronikmarkt!








Antwort von aerobel:

Hallo,

Gute Idee, mal im Setup einiges auszuschalten, darauf hätte ich auch selber kommen können... Danke für den Tip... Kann ich aber erst abends machen, bin nicht in der "glücklichen" Situation, den ganzen Tag vor der Glotze hocken zu können...

Auch bei mir gibts die Einstellung Wohnung oder Geschäft... Man glaubts ja nicht, was den Programmierern so alles einfällt... Muss mal nachsehen, wo ich die Nummer einstellen kann, da wird doch wohl auch gleich noch ein Telefon irgendwo eingebaut sein... *lach

Rudolf



Antwort von olja:

Ein Bekannter hat ein 3/4 Jahr keine richtige Freude an seinem Fernseher gehabt.
"Irgendwie sehen die Filme komisch aus". Bis ich im verklickert hatte, das wohl aus den 25 Fps mehr Bilder gerechnet werden. Der Schalter nannte sich "Kino-Modus" und siehe da, er war wieder happy. Bei meinem Freund das gleiche, meine Filme werden da so verunstaltet, sieht alles wie Soap aus. Auch erstmal die Funktion "Motion--blabla" abgeschaltet.

Ich selbst habe seit über 10 Jahren keinen Fernseher mehr und kann nur staunen, welcher Scheiß da nur so implementiert, bzw. werksseitig aktiv geschaltet ist.



Antwort von aerobel:

Hallo Alle,

Habe gerade eben mal ein bisschen im Setup meines Fernseher "gewühlt"...

Habe mal alles, was irgendwie nach "Bildverbesserung" schreit, abgeschaltet.
Siehe da, nun kann man tatsächlich auch fernsehen... Schrecklich, was die teils abstrusen Möglichkeiten, wie "Kino", "Leicht", "Dynamisch" "Geschäft" und weiteres so alles versauen...

Problem gelöst, nun gefällt mir die Glotze... nun müsste bloss noch das Programmangebot auf zumindest den geistigen Level eines zehnjährigen steigen... *lach (ARTE ausgenommen, der Sender, sowie auch die dritten Programme passen, teilweise wenigstens. Die bekannten wie RTL. SAT 1 Pro7 und Konsorten habe ich schon gar nicht exra programmiert, die überspringe ich geflissentlich... )

Rudolf



Antwort von Nathanjo:

Ich weiß nicht, ob das hier grad der richtige Thread für die Frage ist, aber irgendwie passt es ja ganz gut:


Ich frage mich schon EWIG, warum es den Standard 1080i überhaupt gibt, bzw., warum er genutzt wird. Alle modernen HDTVs, egal mit welcher Technologie, sind nicht fähig Interlace-Frames darzustellen. Der Anteil an CRT-HD-Fernsehern dürfte im 0,1%-Bereich liegen.

Wenn Deinterlaced wird hat man doch auch keine oder kaum höhere "Bewegungsauflösung", wenn ich mir das richtig denke. Es ist doch ein pures Überbleibsel der Röhren-TV-Zeit. Oder hab ich da was übersehen?



Antwort von dienstag_01:

Wenn Deinterlaced wird hat man doch auch keine oder kaum höhere "Bewegungsauflösung", wenn ich mir das richtig denke. Durch Deinterlacing bekommt man nie eine höhere Bewegungsauflösung, auch nicht kaum ;)
Normal ist geringer bis natürlich gleich.



Antwort von aerobel:

Hallo,

Dann kann man also daraus schliessen, dass 1080i irgendwie weder Fisch noch Vogel ist...

Rudolf



Antwort von dienstag_01:

Dann kann man also daraus schliessen, dass 1080i irgendwie weder Fisch noch Vogel ist... Stimmt absolut, das ist ein Videoformat ;)



Antwort von aerobel:

Okay, dann werde ich also in Zukunft auch meine eigenen Aufnahmen "bloss noch" mit 720p aufnehmen. 1080p50 finde ich gaga, ich habe lieber etwas Reserve für Zeitlupen, wenn ich dann mal mit 1080p50 filme. Frei nach dem Motto: Lieber ehrliche 25 Bilder mit 720 Zeilen, als Pseudoqualität mit versprochenen 1080 Zeilen...

Werde mal ein bisschen Testaufnahmen machen... wenn es denn endlich wärmer wird, bei der Kälte kann mich mein Filmhobby im freien mal am A*...

Ich habe bisher eh nie irgendwelches Ruckeln bei 25 (Voll)Frames entdeckt, entweder sehe ich das zu locker... oder andere zu eng... ich sehe auch nicht einzelne PixelPixel im Glossar erklärt, habe sie also auch noch nie nachgezählt... *smile

Rudolf



Antwort von beiti:

Okay, dann werde ich also in Zukunft auch meine eigenen Aufnahmen "bloss noch" mit 720p aufnehmen. 1080p50 finde ich gaga, ich habe lieber etwas Reserve für Zeitlupen, wenn ich dann mal mit 1080p50 filme. Frei nach dem Motto: Lieber ehrliche 25 Bilder mit 720 Zeilen, als Pseudoqualität mit versprochenen 1080 Zeilen... Kann es sein, dass Du Auflösung und Frameraten etwas durcheinanderbringst?








Antwort von Jott:

1080p50: flüssig (Videolook)
1080i50: flüssig (Videolook), verwirrende alternative Bezeichnung für das Gleiche: 1080i25
1080p25: per se nicht flüssig ("Filmlook" mit entsprechender Kameraführung)
1080p24: per se nicht flüssig ("Filmlook" mit entsprechender Kameraführung)

720p50: flüssig (Videolook)
720p25: per se nicht flüssig ("Filmlook" mit entsprechender Kameraführung)
720p24: per se nicht flüssig ("Filmlook" mit entsprechender Kameraführung)



Die Zahl hinter "p" oder "i" nennt die aufgezeichnete Anzahl von Bewegungsphasen pro Sekunde. Daher finde ich die neue Bezeichnung 1080i25 für 1080i50 falsch und verwirrend (es halten sich daher auch nur wenige dran, die meisten bleiben bei 1080i50, z.B.alle japanischen Kamerahersteller).



Antwort von beiti:

warum es den Standard 1080i überhaupt gibt, bzw., warum er genutzt wird. Alle modernen HDTVs, egal mit welcher Technologie, sind nicht fähig Interlace-Frames darzustellen. Nicht direkt in dem Sinne, dass wie bei Röhrenfernsehern die Zeilen einzeln "geschrieben" werden. Aber man kann durchaus gerade und ungerade Zeilen abwechselnd austauschen, um die Halbbilder darzustellen. Die Flachbildfernseher der ersten Generation haben das tatsächlich so gemacht - natürlich um den Preis, dass an bestimmten Stellen, wie bei Bildröhren, ein Zeilenflimmern auftreten konnte. Moderne Fernseher haben ausgefeiltere Deinterlacer, die an kritischen Stellen Zeilenflimmern verhindern, aber ansonsten die Bewegungsauflösung erhalten.
Wenn Deinterlaced wird hat man doch auch keine oder kaum höhere "Bewegungsauflösung", wenn ich mir das richtig denke.
Nein, das ist ein (leider sehr verbreitetes) Missverständnis. Es wird aus 50i im Fernseher nicht einfach 25p gemacht, sondern mindestens 50p. Also die höhere Bewegungsauflösung von 50i gegenüber 25p bleibt voll erhalten.

In der Praxis ist es so, dass man auf dem Fernseher den Unterschied zwischen 25p und 50i sofort sieht, wenn sich irgendwas bewegt. Hingegen ist der sichtbare Unterschied zwischen 50i und 50p denkbar gering.
Es ist doch ein pures Überbleibsel der Röhren-TV-Zeit. Oder hab ich da was übersehen?
Es ist ganz klar eine Erfindung aus der Röhren-TV-Zeit. Der Grund, warum man es heute noch/wieder verwendet, liegt in einer Ersparnis von Übertragungs-Bandbreite.
Stattdessen könnte man natürlich auch die Auflösung reduzieren und dafür echte Vollbilder machen (was uns zu 720/50p bringt).
Dass sich stattdessen in den meisten Fällen - trotz aller Probleme - 1080/50i durchgesetzt hat, kann man wohl am ehesten mit Marketing erklären: Der Laie versteht den Unterschied zwischen Vollbildern und Halbbildern nicht. Aber er fährt auf "Full HD" ab. ;)



Antwort von Jott:

Nein, der Grund liegt woanders. Wird mit 1080i50 gesendet, lassen sich Spielfilme in vollem HD (1080p25 als psf) übertragen, ganz ohne Halbbildgezauber. Und DIESEN Unterschied sieht man sehr wohl gegenüber Spielfilmen und anderen 25P-Programmen, die auf 720p25 kastriert zum Beispiel via ARD/ZDF zum Kunden kommen.

Daher ist es nur logisch, dass die Privaten, deren Hauptzugpferde Spielfilme sind (und übrigens auch die meisten Sender in anderen europäischen Ländern), nie etwas mit einer 720p50-Übertragung am Hut hatten, sondern auf 1080i50 setzen. Zuschauerproteste wegen De-Interlacing im Fernseher sind nicht bekannt, oder? Schon mal Formal 1 geguckt? Rasante Bewegungen, 1080i50 in Bestform. Die immer wieder hergebeteten Probleme damit sind rein akademischer Natur.



Antwort von beiti:

Wird mit 1080i50 gesendet, lassen sich Spielfilme in vollem HD (1080p25 als psf) übertragen. Ja, das mag ein Grund sein. Man könnte auch noch den technischen Fortschritt anführen: In den Anfangszeiten der HD-Standards war 720/50p für Sportübertragungen noch häufig überlegen. Dank besserer Deinterlacer in neuen Fernsehgeräten hat sich dieser Nachteil stark reduziert bzw. verflüchtigt.

Und da die ÖRs mittlerweile fast alles in 1080/50i produzieren (sogar das neue Tagesschau-Studio soll für diesen Standard ausgelegt sein), muss man sich schon fragen, wieso sie stur an einer Ausstrahlung in 720/50p festhalten. Selbst wenn man davon ausgeht, dass 720/50p nach wie vor ein paar Vorteile für Sport hat, kommen diese ja wegen der Umwandlung gar nicht mehr zum Tragen.



Antwort von ennui:

In dem Zusammenhang mal eine konkrete Frage, ich hatte zuvor schon mal danach gefragt. Ich hab gerade ein DSLR-Projekt (1080p25) im Schnittfenster. Läuft in Edius in den Projekteinstellungen als "25p over 50i", also psf.

Eine Bluray-Datei zu exportieren geht aus diesem Projekt allerdings nicht, Edius weigert sich, und man muss erst die Projekteinstellungen auf reines 50i (ohne 25p), oder auf "HDV" (720p) umstellen, dann gehts. Warum ist das so? Warum kein psf? Und was ist nun schlauer als Exportoption, um hier die Qualität des Ausgangsmaterials möglichst zu erhalten?



Antwort von Jott:

Die Blu-ray kriegt doch gar nicht mit, ob in 50i Halb- oder Vollbilder (via psf) verpackt sind. Probier halt mal, du siehst ja dann, was passiert.



Antwort von ennui:

Auch wieder wahr, und die resultierende "50i"-Datei sieht auch ok aus. Nur irritiert mich, dass das bei dem expliziten 25p-psf-Projekt eben nicht geht, und ich frag mich halt, was da wohl konkret der Unterschied ist.



Antwort von Nathanjo:

warum es den Standard 1080i überhaupt gibt, bzw., warum er genutzt wird. Alle modernen HDTVs, egal mit welcher Technologie, sind nicht fähig Interlace-Frames darzustellen. Nicht direkt in dem Sinne, dass wie bei Röhrenfernsehern die Zeilen einzeln "geschrieben" werden. Aber man kann durchaus gerade und ungerade Zeilen abwechselnd austauschen, um die Halbbilder darzustellen. Die Flachbildfernseher der ersten Generation haben das tatsächlich so gemacht - natürlich um den Preis, dass an bestimmten Stellen, wie bei Bildröhren, ein Zeilenflimmern auftreten konnte. Moderne Fernseher haben ausgefeiltere Deinterlacer, die an kritischen Stellen Zeilenflimmern verhindern, aber ansonsten die Bewegungsauflösung erhalten.
Wenn Deinterlaced wird hat man doch auch keine oder kaum höhere "Bewegungsauflösung", wenn ich mir das richtig denke.
Nein, das ist ein (leider sehr verbreitetes) Missverständnis. Es wird aus 50i im Fernseher nicht einfach 25p gemacht, sondern mindestens 50p. Also die höhere Bewegungsauflösung von 50i gegenüber 25p bleibt voll erhalten.

In der Praxis ist es so, dass man auf dem Fernseher den Unterschied zwischen 25p und 50i sofort sieht, wenn sich irgendwas bewegt. Hingegen ist der sichtbare Unterschied zwischen 50i und 50p denkbar gering.
Es ist doch ein pures Überbleibsel der Röhren-TV-Zeit. Oder hab ich da was übersehen?
Es ist ganz klar eine Erfindung aus der Röhren-TV-Zeit. Der Grund, warum man es heute noch/wieder verwendet, liegt in einer Ersparnis von Übertragungs-Bandbreite.
Stattdessen könnte man natürlich auch die Auflösung reduzieren und dafür echte Vollbilder machen (was uns zu 720/50p bringt).
Dass sich stattdessen in den meisten Fällen - trotz aller Probleme - 1080/50i durchgesetzt hat, kann man wohl am ehesten mit Marketing erklären: Der Laie versteht den Unterschied zwischen Vollbildern und Halbbildern nicht. Aber er fährt auf "Full HD" ab. ;) Danke für die ausführliche Erklärung! Habe ich das zum Teil doch falsch interpretiert.



Antwort von WoWu:

Das Thema hat sich doch in absehbarer Zeit von selbst erledigt:
In H.265 gibt es gar kein "interlaced" mehr, weil die Übertragungsverfahren mittlerweile so effizient geworden sind, dass man auf die Reduktionsverfahren der 30er Jahre zwischenzeitlich auch verzichten kann.

SONY wird wohl noch eine Weile daran festhalten, weil sie nach der AEG Pleite das Patent von Fritz Schröder aus der Telefunken-Masse billig übernommen haben und vermutlich noch eine Weile die Kohle daraus "abziehen" wollen.
Sachliche Argumente für ein solches Verfahren dürften mittlerweile nun wirklich nicht mehr existieren.








Antwort von Jott:

Dein Sony-Gerede ist unerträglich, JEDER Hersteller baut 1080i-Kameras, auch deine HPX 300 ist eine. Es sind alleine die Sender, die daran festhalten.



Antwort von WoWu:

Ja, aber Sony hat das Patent aus der Konkursmasse gekauft und verdient ordentlich an der alten Technologie ....
Und wenn Du das alles so unerträglich findest, dann ignorier es doch einfach und wenn Dich i25 irritiert, dann bleib doch einfach bei den alten Bezeichnungen, aber sag nicht, dass es andere auch irritiert.
http://www.ard-digital.de/ARD-Digital/F ... V---Format

Und wenn Du 25psF mit 25i produziertem Material damit verwechselst, dass ein progressiv produziertes Signal lediglich auf einer zeitlich anderen Achse übetragen wird, dann glaube ich, hast Du das ganze System noch gar nicht richtig durchdrungen.

Aber es hat ja keiner was dagegen, dass Du weiter interleased machst.
Irgendeinen wird es immer geben, der die Nostalgie hoch hält.



Antwort von Jott:

Woher willst du denn wissen, dass ICH in interlaced drehe? Tu ich nicht und muss ich nicht, da ich mit Fernsehen nichts am Hut habe. Und wieso schreibst du immer "interleased"?

1080i haben sich die Sender ausgesucht, ganz aktuell. Du musst das mit den Verantwortlichen dort diskutieren, die können dir das sicher begründen, jenseits von Nostalgik. ICH brauche kein InterlacedInterlaced im Glossar erklärt, gucke aber fern und sehe daher täglich wie Milliarden anderer auch, dass es bestens funktioniert. Hast du überhaupt einen Fernseher?



Antwort von WoWu:

Dann ist doch alles gut, dann wundert es mich, dass es Dich stört (oder Du es sogar unerträglich findest) , wenn ich sage, dass SONY an diesem Patent verdient ...

Und was die Autokorrektur aus manchen Worten macht ... beschwer Dich bei Apple.
Oder findest Du das nun auch wieder "unerträglich".



Antwort von Jott:

Die Apple-Autokorrektur ist lernfähig, dein "interleased" ist aber ein Dauerzustand. Ach egal, Sony und Apple sind böse, und gut ist! :-)



Antwort von aerobel:

Hallo Wolfgang,

Danke für den Link der ARD mit den Infos zu HDTV...
hilft mir sehr, das oftmals wirre Durcheinander an widersprüchlichen Informationen hier im Forum wieder zu klären...
720p/50 wird also mein Favorit sein, auch wenn ich selber filme...

Rudolf



Antwort von WoWu:

@Jott
Siehst Du, so fälscht Du einfach das, was andere sagen.

Ich habe weder gesagt, dass Sony oder Apple "böse" sind.
Lediglich, wer am Patent verdient und welche Autokorrektur Deine Reklamation verzapft hat.

Aber jetzt hältst Du Dich sicher wieder für Missverstanden.
Skip einfach demnächst eine Postings. Das hilft.



Antwort von Jott:

Du bist auf wowu reingefallen, Aerobel. Die ARD dreht NICHT in 720p, sondern fordert explizit 1080i (oder für Szenisches 1080p25). Die SENDEN das dann downconvertiert zu 720p. Willst du's wirklich wissen, informiere dich immer an der Quelle und nicht in einem Forum.

Was dich ja nicht davon abhalten muss, in 720p50 zu drehen. Ist völlig okay.



Antwort von WoWu:

Dann falsifizier doch einfach, dass die Auflösung von 1080i25 nicht lediglich rd. 10% in der Differenz ist und dass die Qualität des De-Interlease Verfahren keine qualitativen Einbussen gegenüber einem progressiven verfahren hat.
Ich hab nämlich gar nichts darüber gesagt, wie die ARD produziert sondern nur die technische Information der ARD im obigen Link weitergegeben.








Antwort von aerobel:

Hallo Jott,

Jetzt habe ich extra die Webseite der ARD gelesen, die Wowu angegeben hat.

Da steht alles geschrieben...

Mich kümmert nicht, wie die von der ARD aufnehmen, mich interessiert lediglich, was ich bei mir im Wohnzimmer zu sehen bekomme. Das ist das Resultat, das ich als Basis nehmen kann. Das ist laut der Webseite eben 720p/50...
...und das sieht meiner Ansicht nach (für mich...) mehr als ausreichend gut aus...

Was ist daran denn falsch...?

Rudolf



Antwort von TheBubble:

und bei 1080i hast Du 1920x540 (Halbbild) = 1.036.000 Pixel/50tel sec.
Das sind gerade mal 10% mehr, die aber durch die unscharfen De-Interleasing Verfahren mehr als aufgezehrt werden. Beim Auflösungs-Vergleich nur ein HalbbildHalbbild im Glossar erklärt zu berücksichtigen, finde ich gewagt.



Antwort von TheBubble:

mich interessiert lediglich, was ich bei mir im Wohnzimmer zu sehen bekomme. Das ist das Resultat, das ich als Basis nehmen kann. Das ist laut der Webseite eben 720p/50...
...und das sieht meiner Ansicht nach (für mich...) mehr als ausreichend gut aus...

Was ist daran denn falsch...? Subjektiv erstmal nichts. Nur das, erstmal auch subjektiv betrachtet, 1080p50/60 noch besser aussehen kann :-)



Antwort von WoWu:

und bei 1080i hast Du 1920x540 (Halbbild) = 1.036.000 Pixel/50tel sec.
Das sind gerade mal 10% mehr, die aber durch die unscharfen De-Interleasing Verfahren mehr als aufgezehrt werden. Beim Auflösungs-Vergleich nur ein HalbbildHalbbild im Glossar erklärt zu berücksichtigen, finde ich gewagt. Das stimmt, wenn ich noch das Subsampling zusätzlich betrachtet hätte, wäre der Vergleich noch deutlich schlechter abgelaufen.



Antwort von aerobel:

Hallo Bubble,

Sicher... 4k oder gar 8k oder in ein paar Jahren sogar 16k... das wird dannzumal noch besser sein... aber meine Augen werden deswegen nicht besser... auch deine nicht... wir werden alle älter... warts nur ab...

Rudolf



Antwort von TheBubble:

Weiterentwicklunge wie 4k werden sich womöglich lohnen. Nicht wegen der höheren Auflösung alleine, auch wegen möglicher Farbraumvergrößerungen.



Antwort von Schleichmichel:

Ich finde, man sollte erst mal vernünftiges TV in 1080 zum Zuschauer bringen. Und zwar ohne dass Filmkorn weggerechnet werden müsste (oder andere filigranen...vielleicht ja sogar gewünschten...Bilddetails der Bandbreitenökonomie zum Opfer fallen)! Für 4K sehe ich nämlich zunächst mal noch mehr Aderlass am Bild...von wegen Farbraumvergrößerung. Schön wärs.



Antwort von camworks:

Ich finde, man sollte erst mal vernünftiges TV in 1080 zum Zuschauer bringen. Und zwar ohne dass Filmkorn weggerechnet werden müsste (oder andere filigranen...vielleicht ja sogar gewünschten...Bilddetails der Bandbreitenökonomie zum Opfer fallen)! Für 4K sehe ich nämlich zunächst mal noch mehr Aderlass am Bild...von wegen Farbraumvergrößerung. Schön wärs. LIKE!



Antwort von Jott:

4K-TV? Wir sind in Europa gerade noch in den HD-Geburtswehen.








Antwort von holger_p:

Und was die Autokorrektur aus manchen Worten macht ... beschwer Dich bei Apple.
Oder findest Du das nun auch wieder "unerträglich". In einem Forum wie diesem darf man schon erwarten, dass man eine Autokorrecktur abschaltet, wenn diese ein sinnentstellendes Wort aus dem Getippten erzeugt.

Erinnert mich an ältere Word-Version, wo als Korrektur zum Wort "Maustreiber" ein leicht befremdliches "masturbieren" vorgeschlagen wurde. Menschen mit aktiver Hirnmasse sollte der Unterschied auffallen...


Gruß Holger



Antwort von WoWu:

Hallo Holger.
Erwarten darfst Du das gerne.
Ob ich es für ein kurzes Posting extra mache, steht auf einem andern Blatt.
Solange der Sinn nicht derart entstellt ist, dass man das Verständnis nicht aus dem Context heraus erkennen kann, darf man auch vom Leser erwarten, dass er nicht so blöd ist, und den Sinn auch erkennt.
Wie Du sagst:
Menschen mit aktiver Hirnmasse sollte der Unterschied auffallen...
... und der Sinn nicht verborgen bleiben.



Antwort von srone:

Ich finde, man sollte erst mal vernünftiges TV in 1080 zum Zuschauer bringen. Und zwar ohne dass Filmkorn weggerechnet werden müsste (oder andere filigranen...vielleicht ja sogar gewünschten...Bilddetails der Bandbreitenökonomie zum Opfer fallen)! Für 4K sehe ich nämlich zunächst mal noch mehr Aderlass am Bild...von wegen Farbraumvergrößerung. Schön wärs. LIKE! dem schliesse ich mich an.

lg

srone




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Fernsehen-Forum

Antworten zu ähnlichen Fragen:
HDTV-Aufnahme komprimieren + Aus 1080i -> 720p erreichen
Aufnahmeformat 1080i/25
ATEM Television Studio - 1080i/50 und 1080p/50
1080i MP4 mit oberem Halbbild zuerst rendern?
Youtube 720p Problem
Bluray aus Sony HDR500E 1080i AVCHD Material, Sinnvoll in 25p zu wandeln?
720p oder 1080p für Facebook?
Sony a7s signal zu 720p wandeln
digital camera that trades 8mm film for 720p
Xavcs Problem - 4k gefilmt - aber nun nur 720p auf speicherkarte
Premiere Pro - Uhd Material auf 720p skalieren - Wo ist mein Denkfehler?
Snapdragon 675 bringt Smartphones Bokeh und 720p mit 480 fps

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufberatung
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom