Ich glaube, du hast Cicero falsch verstanden. Der meinte damit nicht, um jeden Preis recht behalten wollen und dabei vollkommen unbelehrbar sein.Ich will lieber mit Weisen irren, als mit Unwissenden recht zu behalten. (Cicero)
Naja, in Premiere stimmt das angegebene Pixelseitenverhältnis für 720x576 Formate auch nicht (da wird das Verhältnis auf 704 bezogen).MarcBallhaus hat geschrieben:Wenn es eine Firma gibt in DTP Kompetenz besitzt, dann ja wohl Adobe. Und, nicht nur Video hat 72 DPI, sondern die Monitordarstellung als solche ist auf diesen Wert "genormt".
Ah ja, jetzt wo du es sagst. Danke für die Erklärung. Aber, btw, was genau stimmt an meinen Ausführungen denn nicht? Welcher Satz genau?Meggs hat geschrieben:
Ich glaube, du hast Cicero falsch verstanden. Der meinte damit nicht, um jeden Preis recht behalten wollen und dabei vollkommen unbelehrbar sein.
die Arithmetik dahinter versteht sich so:MarcBallhaus hat geschrieben:Ein Dot besteht aus drei Pixeln? LOL ... Karneval machts möglich.LarsProgressiv hat geschrieben: Ein Monitor hat sehrwohl auch DPI, nur dass diese Dots (meist) aus drei Pixel bestehen. Also gilt bei herkömmlichen Monitoren (Flachbild oder nicht) DPI=3*PPI in horizontaler Auflösung in vertikaler Ausflösung ist diese DPI-Zahl schon schwieriger zu definieren.
MB
Liest du eigentlich die Artikel, welche du hier linkst?MarcBallhaus hat geschrieben:
Ich habe diesbezüglich auch einen interessanten Artikel gefunden:
http://praegnanz.de/essays/72dpi
Was bringt uns die 72dpi-Regelung also in der Praxis? Einen extrem groben Richtwert, der zudem veraltet ist und auf 90–100dpi erhöht werden müsste, wenn er nicht generell begraben werden sollte.
Und? Habe ich doch auch geschrieben, nämlich:Meggs hat geschrieben: Am größten gedruckt steht in diesem Artikel der Satz:
Wissen wir doch alles. Du verstehst es nicht, oder? Man ging früher einfach davon aus, dass ein Pixel eine feste Größe hat, und die hat man dann an irgendeinem Referenzmonitor (was weiss ich welcher es war) mit 72 DPI gemessen, der hatte dann auch exakt 72 PPI - logisch!!!!!MarcBallhaus hat geschrieben:Dass ein 22" Monitor mit darstellbaren 90 PPI (Pixel pro Zoll) (bei 1680x1050) das dann unkorrigiert vielleicht zu klein darstellt, ist nicht relevant: Es bleiben 72 DPI (DOTS pro Zoll).
MB
Du solltest dich langsam Mal entscheiden ob du meinst, dass ein Pixel aus 3 Dots besteht (wie hier jetzt von dir geschrieben) oder ein Dot aus 3 Pixel (wie zuvor behauptet). Verkauf mich doch bitte nicht für dumm, es hat vor allem nicht das geringste mit der Threadfrage zu tun.LarsProgressiv hat geschrieben: die Arithmetik dahinter versteht sich so:
DPI-Zahl = 3 mal die PPI-Zahl
also:
2160 Dots = 3 Dots/Pixel * 720 Pixel
Da hab ich Ende letzten Jahres etwas rumprobiert. Wollte die Handy-Bilder meiner Bekannten vom USA Urlaub etwas aufwerten. Dabei bin ich über einen anderen Verfahrensansatz gestoßen.B.DeKid hat geschrieben:PS: Mich intressiert also eigentlich immer noch in wie fern man zB. SD Material aufwerten kann - so das es auf grösseren AusgabeGeräten als dem "Röhren" TV gut aus schaut. ( Also die rechneriche Seite intressiert mich, nicht so sehr welches Progi man dazu verwenden kann - und ob dies durch die bearbeitung der StillFrames geht)
.. was natürlich auch niemanden weiter bringt.MHK hat geschrieben:Iss ja trollig was hier abgeht ;) da sag ich lieber nix dazu, und schmunzle vor mich hin
genau deswegen, mittlerweile wurde jeder Standpunkt X-mal vertreten. Es gibt keine neuen Meinungen mehr ;) Auch wurde mittlerweile jeder Standpunkt durch mehr oder weniger gute Links untermauert. Es sollte reichen um sich ein eigenes Bild zu machen.Plenz hat geschrieben:.. was natürlich auch niemanden weiter bringt.
Wo ist Deine Quelle? Ich meine außer Deinem Gedächtnis!MarcBallhaus hat geschrieben: Man ging früher einfach davon aus, dass ein Pixel eine feste Größe hat, und die hat man dann an irgendeinem Referenzmonitor (was weiss ich welcher es war) mit 72 DPI gemessen, der hatte dann auch exakt 72 PPI - logisch!!!!!
Ja, denn es wäre unlogisch und falsch. Ich brauche eine unparteiische, anerkannte dritte Quelle, die die DPI-Zahl eines Videos definiert, um Dir zu glauben. Ich bin durchaus lernwillig.MarcBallhaus hat geschrieben:Ist es so schwer zu akzeptieren dass ich im Recht bin?
Ich habe nie behauptet, dass ein Dot aus 3 Pixeln besteht! Denn ich schrieb die Einheit DotsPerInch (DPI) und nicht Dot = 3 Pixel oder ähnlich!MarcBallhaus hat geschrieben:Du solltest dich langsam Mal entscheiden ob du meinst, dass ein Pixel aus 3 Dots besteht (wie hier jetzt von dir geschrieben) oder ein Dot aus 3 Pixel (wie zuvor behauptet).LarsProgressiv hat geschrieben: die Arithmetik dahinter versteht sich so:
DPI-Zahl = 3 mal die PPI-Zahl
also:
2160 Dots = 3 Dots/Pixel * 720 Pixel
Das war die Formulierung, die mich dazu brachte doch noch etwas zu schreiben.MarcBallhaus hat geschrieben:Verkauf mich doch bitte nicht für dumm, es hat vor allem nicht das geringste mit der Threadfrage zu tun.
MB
mit der Threadfrage zu tun? Meine Antwort war nur eine auf diese Behauptung! Warum soll ich nicht darauf antworten dürfen?MarcBallhaus hat geschrieben:Das ist vollkommener Unsinn. Ein Monitor hat keine DPI, sonder PPI.
Logisch ist daran gar nichts, die 90 ppi sind genauso falsch wie die 72 dpi. Den falschen Bezug auf den Referenzmonitor von damals machen vielleicht außer dir noch ein paar, die das irgend wann mal gelernt, aber schon damals nicht verstanden haben, wie diese auswendig gelernte Zahl zustande kommt. Richtiger wird es dadurch nicht.MarcBallhaus hat geschrieben: Ein Videobild hat entsprechend heute immer noch 72 DPI, aber eben 90 PPI, da sich die Angabe von DPI noch immer auf den (meinetwegen veralteten) Referenzmonitor bezieht. Immer noch logisch, denn ein Monitor hat auch heute noch keine Dots sondern Pixel.
Genau so ist es.Plenz hat geschrieben:
Ein Bild hat generell keine DPI von Natur aus, es hat nur eine Höhe und eine Breite in Pixeln.
...
Der DPI-Wert bekommt erst dann Sinn, wenn ein Bild auf Papier gedruckt werden soll.
So kann man es auch ausdrücken.PowerMac hat geschrieben:
Es gibt bei Video keine DPI, das ist nämlich sinnlos.
Das scheint bei den Werbegrafikern verbreitet zu sein. Ich musste mal mit ner Werbeagentur zusammenarbeiten, die mir Grafiken zur Einbindung in ein Programm liefern sollten. Ich machte die Vorgabe 640 x 480 als Bildgröße. Die riefen an und fragten mit wieviel dpi. Ich sagte das ist mir egal, solange die Grafik 640 x 480 Pixel hat - Ratlosigkeit und Unverständnis bei der Gegenseite.Plenz hat geschrieben: Da wollte neulich eine Redaktion ein Foto abdrucken, das ich in die Wikipedia geladen hatte. Man fragte mich, wieviel DPI das Foto denn hätte und ob ich es auch mit einer feineren Auflösung zur Verfügung stellen könne. Und so was wollen Fachleute sein...!
Hat es, weil mit der Angabe von 72 DPI nicht dein Luftballon und nicht dein HomeTV gemeint ist, sondern der Referenzmonitor von einst. Es geht doch nur darum festzulegen, dass bei 72 DPI das Bild auf dem Monitor in etwa (einst exakt) so groß ist wie das gedruckte bei 300 DPI.WideScreen hat geschrieben:Ich drucke eine Grafi auf einen Luftbalon mit sagen wir 100 dpi. Dann blase ich noch ein wenig weiter auf. Hats dann immer noch 100dpi? Nein. Wieso sollte dann ein TV das haben, wenns von 8 zoll bis 70 Zoll alles bei gleicher Pixelzahl gibt.
Der Mac war mit großem Abstand der erste Computer, mit dem man Grafiken bearbeiten und DTP betreiben konnte, bevor es Windows gab, bevor es beim PC überhaupt VGA gab. Der Mac hat von Anfang an mit metrischen Größen und dergleichen funktioniert, und sich um Pixel und Natives nie gekümmert. Wenn man einen Macianer gefragt hat, welche Auflösung sein Monitor hat, kam meist Achselzucken oder die Ansage 72 DPI. Die Pixel haben ihn nicht interessiert. Wieso auch? Ebensowenig hat ihn interessiert, wieviele Dots der Drucker in einer Reihe abbilden konnte, was genauso sinnlos zu wissen war. Wichtig war nur: Wie scharf kann das Ding! 72 DPI ist Monitorschärfe, 300 DPI ist Druckschärfe, 600 DPI ist Rattenschärfe!Meggs hat geschrieben:(...)Den falschen Bezug auf den Referenzmonitor von damals machen vielleicht außer dir noch ein paar, die das irgend wann mal gelernt, aber schon damals nicht verstanden haben, wie diese auswendig gelernte Zahl zustande kommt. Richtiger wird es dadurch nicht.
(...)
Wenn ein Werbegrafiker die Info hat, dass er ein Bild mit der Auflösung von 640 x 480 Pixeln schicken soll, macht die Frage nach den dpi keinen Sinn. Wer wie du was anderes sagt, bringt damit zum Ausdruck, dass er diese simplen Zusammenhänge nicht versteht.MarcBallhaus hat geschrieben: Der Sinn liegt einfach darin, dass wenn dich ein Werbefuzzi fragt, wie groß das Bild ist, er mit der Angabe 72 DPI weiss, dass es nur für Bildschirmdarstellung reicht. Das Problem ist hier glaub ich in erster Linie, das die meisten mitredenden zu junge PC User und noch dazu Macianer sind. Und die Verwendung von DPI als sinnlos zu bezeichnen ist leider anmaßend und kann nur von Ahnungslosen kommen, meine Herren. Anmaßend ist auch dieser Blödsinn:
Anmaßend nach dieser Definition bist in diesem Thread vor allem du.Der Hochmut (altgr."ὕβρις", Hybris; lat.: arrogantia, superbia; Anmaßung, Überheblichkeit, Arroganz; veraltet: Dünkel - vgl. Standesdünkel - oder Hoffart) ist eine Haltung der Welt gegenüber, in der Wert, Rang und Fähigkeit der eigenen Person vorab aller Erfahrung und Bewährung hoch geschätzt werden.
Vermutlich verwendest du noch den Referenzmonitor aus den 80zigern mit 72 dpi und 256 Farben.MarcBallhaus hat geschrieben:Der Film zeigt sogleich bonbonfarbene Haut und Doppelschatten. Weiter habe ich nicht geschaut. Das lasse ich unkommentiert, spricht es doch Bände über dein Schaffensniveau und deine Kompetenz in deinem Job.
Eben. Das ist das was ich meine. Die Angabe von DPI oder PPI ist ein Messwert für die Schärfe des Bildes auf dem jeweiligen Ausgabemedium, egal ob Drucker oder Schirm. Somit - und vor allem mit der Skalierung von Bild- oder Videomaterial - bekommt die Angabe der Pixeldichte durchaus einen Sinn.domain hat geschrieben:Ich verwende zwei Monitore, deren horizontale Bildbreite ich mal ausgemessen habe. Das Bild des 40" Monitors ist 88,5 cm und das des 24" Monitors 52,5 cm breit und beide lösen technisch 1920 Pixel auf, also eigentlich 1920*3 Linien in den drei additiven Grundfarben. Stellt man eine senkrechte weiße Linie, ein Pixel breit dar, so erkennt man mit der Lupe sehr gut, dass diese bei der Grafikkarteneinstellung 1920*1080 tatsächlich nur aus drei farbigen Linien zusammengesetzt ist, die in ihrer Gesamtheit zu einer weißen Linie verschmelzen.
Die darstellbare Gesamtpixelanzahl ist also beiden Monitoren gleich.
Aber und jetzt kommt der wesentliche Unterschied: der 40"-er stellt nur 55 DPI dar (1920/(88,5/2,54)), der 24"-er dagegen 93 DPI, wobei in diesem Fall die DPI auch den PPI entsprechen.
Der Bildeindruck ist bei beiden Monitoren natürlich ident, wenn der Betrachtungsabstand richtig gewählt wird.
genau. Da hast Du recht. Aber wie Du schreibst, geht es hier um ein Ausgabemedium und nicht um den Inhalt, der auf dem Medium ausgegeben wird.MarcBallhaus hat geschrieben: Eben. Das ist das was ich meine. Die Angabe von DPI oder PPI ist ein Messwert für die Schärfe des Bildes auf dem jeweiligen Ausgabemedium, egal ob Drucker oder Schirm.
Das wiederum ist bezogen auf eine DPI Angabe für den Inhalt (Video) eine unzulässige Schlussfolgerung.MarcBallhaus hat geschrieben:Somit - und vor allem mit der Skalierung von Bild- oder Videomaterial - bekommt die Angabe der Pixeldichte durchaus einen Sinn.
MB
Ich nehme an, das Danke bezieht sich darauf, daß ich hier diverse Beiträge ins OT sortiert habe, in denen unsachlich argumentiert wurde -- nicht zuletzt auch von Dir. Schön, daß wir uns einig sind, daß beim Diskutieren ein gewisses Maß an Respekt und Zurückhaltung im Ton geboten ist.MarcBallhaus hat geschrieben:@Admin: Danke.
Verstehe ich nicht. Wieso?LarsProgressiv hat geschrieben:
Das wiederum ist bezogen auf eine DPI Angabe für den Inhalt (Video) eine unzulässige Schlussfolgerung.
Grüße
Lars
Ja und da liegt das Problem. Weil es eben eine Frage der Größe der Anzeige ist, ob es gut aussieht oder nicht. Und da nicht jeder zu Hause einen genormten Fernseher hat, ist halt die "quasi" DPI Angabe bei jedem anders.MarcBallhaus hat geschrieben: Ebenso mein Handy, es ist mir doch egal ob das Teil 160x80 oder 500x300 oder 600x800 Pixel hat, Hauptsache das, was es anzeigt sieht gut aus. Auch hier würde eine solche PPI Angabe mehr aussagen als das Pixelgefasel.
MB
Ich denke, dann würde es die Diskussion nicht geben.WideScreen hat geschrieben: Dein Nick hat aber nix mit DEM Ballhaus zu tun, oda?
LOLPowerMac hat geschrieben:Es ist eine philosophische Diskussion...
Bei einer Grafik-Datei steht der dpi Wert im Dateiheader und beansprucht ein paar Bits. Das wars. Die Daten sind ansonsten identisch. Man kann jeder Bilddatei jeden beliebigen dpi Wert zuordnen ohne irgend was an den eigentlichen Bilddaten zu ändern.robbie hat geschrieben: Bild 1 hat 72dpi, Bild 2 hat 300 dpi.
Leider wird dieser Wert nur allzu oft als Qualitätsmasstab missverstanden. So mancher Graphiker wirft nur kurz einen Blick auf den "dpi"-Wert eines Bildes um dann selbstbewusst zu verkünden: "dieses Bild hat nur 72 dpi. Das kann man nie drucken". Dabei hat das fragliche Bild vielleicht 7.000 x 10.000 Pixel.Meggs hat geschrieben:Bei einer Grafik-Datei steht der dpi Wert im Dateiheader und beansprucht ein paar Bits. Das wars. Die Daten sind ansonsten identisch. Man kann jeder Bilddatei jeden beliebigen dpi Wert zuordnen ohne irgend was an den eigentlichen Bilddaten zu ändern.robbie hat geschrieben: Bild 1 hat 72dpi, Bild 2 hat 300 dpi.
Jeder Bildbetrachter ignoriert die dpi Angaben. Relevant sind sie nur für den Druckertreiber.
Bei einer Video-Datei sind nirgendwo Informationen zu einem dpi Wert gespeichert, weil das keinen Sinn machen würde.
Mitnichten! Die Pixelanzahl eines Bildes hat keine Aussagekraft, sie sagt nichts darüber aus wie groß ein Bild dargestellt werden kann, weil man das Ausgabemedium nicht kennt. PPI aber gibt deutlich an, wie scharf ein Ausgabemedium abbildet und steht in Relation zu sich selbst: Pixel Pro Inch.Commanderjanke hat geschrieben:PPI ist ein Relationswert der alleine so ziemlich keine Aussagekraft hat.
Natürlich nicht. Aber, was ist bitte "Video an sich"? Video braucht eine Abbildungsfläche um gesehen zu werden, "Video an sich" ist etwas das es so doch garnicht gibt!WideScreen hat geschrieben:Man könnte also schon für sagen, das jeder Monitor mit 42 Zoll und 1920x080 Auflösung einge feste DPI Zahl hat. Aber darum hat Video an für sich doch keine. Ist das denn so schwer zu verstehen?
Das Letzte ist doch total unwahrscheinlich. Warum ist es so schwer, einen Richtwert zu akzeptieren? Wenn es heißt, in einen Pfannkuchen gehören drei Eier auf 50 g Mehl, soll man dann über der Frage verzweifeln, welcher Gewichtsklasse die Eier genau entsprechen? Ich zanke ja auch ganz gern, aber in diesem Thread wurden ein paar so kleine Korinthen gekackt, dass es nicht mehr lustig ist. Geht zwischendurch auch mal an die frische Luft!Commanderjanke hat geschrieben:Leider wird dieser Wert nur allzu oft als Qualitätsmasstab missverstanden. So mancher Graphiker wirft nur kurz einen Blick auf den "dpi"-Wert eines Bildes um dann selbstbewusst zu verkünden: "dieses Bild hat nur 72 dpi. Das kann man nie drucken". Dabei hat das fragliche Bild vielleicht 7.000 x 10.000 Pixel.
Das ist gar nicht schwierig, aber das problem ist das es bei dieser Diskusion keinen Richtwert gibt, sei es 72, 90 oder 100dpi\ppi. Das ist immer abhangig vom Ausgabemedium.Warum ist es so schwer, einen Richtwert zu akzeptieren?