Hallo Chris,
Du stellt in Deinem Thread gleich mehrere Fragen, die durchaus unterschiedlich zu beantworten sind.
Einmal fragst Du, ob man einen Unterschied sehen wird, dann aber fragst Du:
"Würde ein Regisseur, der lediglich eine möglichst gute Bildqualität haben will, eher zu einer älteren Kamera greifen (eine dieser teuren Filmkameras für mehrere 10.000€ aber ohne HD) oder zu einem aktuellem HD-Camcorder aus dem Consumer Bereich?"
Zur zweiten Frage, wird sich wahrscheinlich bald PowerMac melden und viele gute (und auch sicher richtige) Argumente anführen, warum ein Regisseur auf das eine oder andere Feature einer professionellen Kamera nicht verzichten kann.
Axel wird sich sicher bald melden, und Dir sagen, dass es überhaupt nicht auf die Kamera ankommt, sondern lediglich auf den künstlerischen Gehalt des Bildes.
Das alles wird aber nicht Deine erste Frage beantworten.
Deswegen lass mich meinen Beitrag mal beschränken auf die Frage, ob Du einen Unterschied siehst ...
Leider muss ich Dir sagen, "es kommt immer darauf an ..." nämlich darauf, wo Du das Bild betrachtest.
Das analoge Fernsehen hat lediglich 373 Zeilen x 364 horizontale Bildpunkte übertragen, als etwa 140.000 Bildpunkte. Fernsehen kann das, seitdem es digital übertragen wird, schon einwenig besser, aber immer noch nicht toll, denn die limitierenden Parameter des analogen TV sind übernommen worden, sowohl in der Sende- als auch in der Empfangsstrecke (TV).
Daher ist es also nicht so schwer, eine solche Qualität ohne wirklich großen Aufwand und wenn man nicht wirklich große Fehler macht oder wie tommyb schon sehr richtig geschrieben hat, schlechte Software benutzt, zu erreichen.
Anders ist es schon, wenn man die Vergleiche auf hochwertigen Monitoren durchführt, die SD auch mit mehr als 7,4 MHz darstellen können, denn soweit würde SD eigentlich reichen. (SD-TV leider nicht)
Dann sieht die Geschichte schon ganz anders aus, weil SD Kameras (und auch die Optiken) durchaus auch damit umgehen, dass die SD Übertragungsstrecke bei 5 MHz aufhört und sich keine wirkliche Mühe geben, sehr viel besser zu sein.
HD hingegen geht bis 30 MHz. Speziell auch die Objektive sind für eine solche Darstellung ausgelegt und sind im Bereich von 7 MHz (mögliche SD Qualität) noch ziemlich linear und von ausgezeichneter Güte.
So, Du siehst also, SD von HD kommend ist auf guten Monitoren wirklich besser, auf Röhrenmonitoren schwer wahrnehmbar besser und auf einer SD- Übertragungsstrecke wirst Du keinen Unterschied mehr sehen und schon gar nicht auf analogen Übertragungen.
Manche lassen sich dennoch täuschen, weil das GD-Bild etwas kontrastreicher ist. Der Unterschied verschwindet aber sofort, sobald man die Gammawerte der unterschiedlichen Formate angleicht.
Das alles gilt nur, wenn keine Fehler beim Downscaling gemacht worden sind, denn die Interpolation von Pixels ist nicht eben mal so gemacht und setzt gute Software, bzw. Hardware voraus.