Frage von iasi:"A.D.D. is a new hyper-debayer algorithm for Dragon that spends a ton of time analyzing every single pixel and creating the best frame possible. It doesn't pull any punches, it processes everything at the highest degree possible and squeezes out every last ounce buried deep inside Dragon R3Ds.
It is incredibly expensive computationally... each frame will take seconds to process. The results are absolutely phenomenal.
For all you guys using the Dragon to pull stills from motion, it truly can't be beat."
Für Bewegtbilder scheint A.D.D. als wohl nur in Ausnahmefällen sinnvoll und gedacht.
Interessant ist es aber eben doch, denn es zeigt, wie viel man aus vorhandener Hardware herausholen kann, wenn man kontinuierlich an der Software/Firmware feilt.
Nebenbei - es gibt durchaus einige Dinge, die man an Red kritisieren kann (und auch sollte), aber was der Red-Oberboss hier schreibt, ist ein wichtiger Grund, weshalb mir Red dennoch sympatisch ist:
http://www.reduser.net/forum/showthread ... -D-D/page3
"Yeah.. 6 months ago people were pretty happy with the Dragon if you can remember.
If we were a "normal" company we probably would of stopped there and took the list of things that still could be better and saved it for a new camera.
Saved A.D.D. Saved the new OLPF. Saved all the new calibrations and tweaks for both software and hardware.
But the IR flare thing has pissed me off forever. The moment we had it beat.. I wasn't going to let that one linger. Plus Graeme had the chance at that moment to add his tweaks to the new OLPF to make the color o so much better and man has that made a difference. Easy decision.
Seems simple to understand... just keep making things better."
Antwort von Valentino:
Kann dieses Gelabere von Red nicht mehr höhren, jetzt sind sie schon wieder ein Jahr hinterher und haben immer noch mit bösen Anfängerfehlern zu kämpfen. Ohne so einen Finanzstarken Backround gäbe es die Firma schon nicht mehr.
Diese neue Foto-Debayering Funktion scheint eine Menge "gut" zu rechnen oder z.B. mit dem Blacklevel verbunden sein, sollte aber auch alles im Photoshop oder anderen RAW Module möglich sein.
Ganz in der Red Art macht man aber gerne ein Geheimnis und gibt dem Kind ein anderen Namen.
Die Zitat Funktion des Forum kennst du aber schon oder ;-)
Antwort von iasi:
Kann dieses Gelabere von Red nicht mehr höhren, jetzt sind sie schon wieder ein Jahr hinterher und haben immer noch mit bösen Anfängerfehlern zu kämpfen. Ohne so einen Finanzstarken Backround gäbe es die Firma schon nicht mehr.
Diese neue Foto-Debayering Funktion scheint eine Menge "gut" zu rechnen oder z.B. mit dem Blacklevel verbunden sein, sollte aber auch alles im Photoshop oder anderen RAW Module möglich sein.
Ganz in der Red Art macht man aber gerne ein Geheimnis und gibt dem Kind ein anderen Namen.
Die Zitat Funktion des Forum kennst du aber schon oder ;-)
Anführungszeichen und ein Link als Quellenverweis sind normalerweise ausreichend.
Gelaber ist es sicherlich nicht, wenn Red solch eine Möglichkeit bietet.
Immerhin versucht Red das Maximale für seine Kunden aus den Produkten zu holen. Das kann man nicht unbedingt von allen Konkurrenten behaupten.
Deine geliebte Firma muss sich über Fotofunktionen wirklich keine Gedanken machen - schließlich sind sie von der Dragon-Auflösung noch weit entfernt. Mal sehen, ob Arri ähnlich verschlafen auf Entwicklungen reagiert wie schon mal vor einigen Jahren.
Momentan melkt Arri nur noch den Alexa-Sensor bis zum Anschlag.
Und statt dem Kunden das Maximale zu bieten, was aus der Hardware heraus zu holen ist, kastriert Arri die Amira, um "günstigere" Modelle anbieten zu können - oder mal anders betrachtet: Um mehr Geld verlangen zu können.
Ne - da lob ich mir Red, die kostenlos und kontinuierlich Verbesserungen bieten.
Antwort von Valentino:
Du tust gerade so als ob Arri für Software und Firmaware Geld will und auf der Stelle treten sie auch nicht.
Von 2010 bis heute sind ganze neuen SUP heraus gekommen und das kostenlos, einzig DNxHD und Highspeed hat bei den Classic Modellen etwas gekostet.
Dazu das neue kostenlose Arri RAW Programm, das in etwa wie RedCine oder das Sony RAW Programm arbeitet.
Woher willst du eigentlich wissen, das Arri schläft, so eine echte 4k Kamera mit Alexa Sensor braucht seine Zeit und wird bestimmt schon seit zwei Jahren entwickelt. In München wird gerne hinter den Kulissen gearbeitet und erst wenn man etwas handfestes hat wird es auch gezeigt.
Red ist da teilweise noch Welten davon entfernt und kündigt bis heute Produkte an, bei denen klar ist, das es sie nie geben wird.
Bei Arri kann ich mich nicht erinnern, da die je ein Produkt vorgestellt haben, das nie ausgeliefert wurde.
Aber schön das die Red Propaganda bei dir wirkt ;-)
BTW: Wenn dann mach deine Zitate noch
Kursiv, damit man nicht deine und eine Fremde Aussage immer mühsam auseinander halten muss.
Antwort von iasi:
http://www.reduser.net/forum/showthread ... D-D/page12
"A.D.D Leverages not only the surrounding pixels but the surrounding pixels in surrounding frames... something that really makes Dragon a step ahead of all of the DSLRs."
hmm ... daher also die Prozesszeit von mehreren Sekunden pro Bild.
Für manche Einsatzbereiche könnte eine Dragon Epic durchaus ein guter DSLR-Ersatz werden - die Bildrate ist jedenfalls sehr konkurenzfähig.
Antwort von Valentino:
..oder auf Deutsch, Red hat es erst beim dritten Sensor geschafft, Blackpixel für das Blacklevel auf ihren Sensor zu packen.
Arri macht das schon seit der D21, gemischt mit aktiver Toten-Pixel Erkennung und bei der Alexa Studio sogar ein Blacklevel während der Dunkelphase.
Alles in Echtzeit und das auch für die RAW Aufzeichnung.
Der Zug, das die doch recht globigen EPCIs ernst zu nehmende Konkurrenz zu eine DSLR werden, ist schon kurz nach der Einführung abgefahren und kann auch nicht mehr mit den paar Pixeln mehr und dem besseren Sensor aufgeholt werden.
Außer ein paar Fotos im RedForum von bekannten Modellfotografen, wird es da wenige Red Fotografen geben.
Was kostet noch mal eine vergleichbare DSLR mit 6k?
Dazu wirst du einen Fotografen nur schwer von seiner Marke los bringen, auch wenn die meistens Mounts von Red unterstützt wird.
Antwort von iasi:
Du tust gerade so als ob Arri für Software und Firmaware Geld will und auf der Stelle treten sie auch nicht.
Von 2010 bis heute sind ganze neuen SUP heraus gekommen und das kostenlos, einzig DNxHD und Highspeed hat bei den Classic Modellen etwas gekostet.
Dazu das neue kostenlose Arri RAW Programm, das in etwa wie RedCine oder das Sony RAW Programm arbeitet.
Wie unterscheiden sich denn die Amira-Versionen bzgl. der Hardware?
Die Aufpreise bezahlt man für die Firmware - immerhin einige Tausend €.
Bei Red gibt es solche Unterschiede nicht - es gibt keine ausgebremste Billig-Epic.
Die Scarlet unterscheidet sich hardwaremäßig.
Woher willst du eigentlich wissen, das Arri schläft, so eine echte 4k Kamera mit Alexa Sensor braucht seine Zeit und wird bestimmt schon seit zwei Jahren entwickelt. In München wird gerne hinter den Kulissen gearbeitet und erst wenn man etwas handfestes hat wird es auch gezeigt.
Red ist da teilweise noch Welten davon entfernt und kündigt bis heute Produkte an, bei denen klar ist, das es sie nie geben wird.
Nun - bei manchen Händlern darf man zwar schon Anzahlungen machen, aber selbst auf die technischen Daten muss man noch warten.
Die Amira - welche nicht wirklich eine Neuentwicklung ist - kommt erst im 2.Quartal.
Man kann nur hoffen, dass Arri zur NAB mit etwas aufwarten kann.
Eine Firma verdient Geld mit dem Verkauf von Kameras und nicht mit dem Anteil an Produktionen, die mit Arri-Kameras gedreht werden.
Bei Arri kann ich mich nicht erinnern, da die je ein Produkt vorgestellt haben, das nie ausgeliefert wurde.
ja - hier gehört Red zu den Herstellern, die sich nicht mit Ruhm bekleckern.
Arri agiert seriöser.
Aber schön das die Red Propaganda bei dir wirkt ;-)
Na - jedenfalls hat Red meine Kamera seit dem Kauf ziemlich aufgewertet ohne auch nur einen Cent dafür verlangt zu haben.
Regelmäßig bekommt man Firmeware- und Software-Updates - wobei die MX-Kameras wohl mittlerweile ziemlich ausgereizt sind.
Und bei Red bekommt man neue Elektronik und neuen Sensor zu dem Preis, den Arri für die Entsprerrung der Amira-Firmware verlangt.
Es ist schon ein erheblicher Unterschied, wenn ich für €7.655
- neueste Sensortechnik
- höhere Auflösung und höhere Framerate
bekomme ...
oder für €7.000
2K und 3D-LUTs statt ProRes422 per Firmware
Antwort von iasi:
..oder auf Deutsch, Red hat es erst beim dritten Sensor geschafft, Blackpixel für das Blacklevel auf ihren Sensor zu packen.
Arri macht das schon seit der D21, gemischt mit aktiver Toten-Pixel Erkennung und bei der Alexa Studio sogar ein Blacklevel während der Dunkelphase.
Alles in Echtzeit und das auch für die RAW Aufzeichnung.
Der Zug, das die doch recht globigen EPCIs ernst zu nehmende Konkurrenz zu eine DSLR werden, ist schon kurz nach der Einführung abgefahren und kann auch nicht mehr mit den paar Pixeln mehr und dem besseren Sensor aufgeholt werden.
Außer ein paar Fotos im RedForum von bekannten Modellfotografen, wird es da wenige Red Fotografen geben.
Was kostet noch mal eine vergleichbare DSLR mit 6k?
Dazu wirst du einen Fotografen nur schwer von seiner Marke los bringen, auch wenn die meistens Mounts von Red unterstützt wird.
Welche DSLR mit 6k und unlimitierten 100fps kennst du denn?
Es gibt durchaus Einsatzgebiete, da ist die Kombination aus 19 Mpixel, 100fps und A.D.D. von großem Vorteil für Fotografen von Vorteil sein könnte.
DEN Moment zu erwischen, ist eben bei hoher Bildrate eher möglich.
Ich behaupte ja nicht, dass die Alexa keine gute Kamera ist - im Gegenteil - sie ist eine der besten Kameras.
Nur verkauft man eben eher weniger Kameras, wenn die Konkurrenz den Käufern neue Modelle anbietet, während man selbst nur neue Ableger bietet.
Eine E-Klasse-Mercedes war schon vor Jahrzehneten ein sehr gutes Auto - dennoch würde sich die E-Klasse nicht mehr gut verkaufen, wenn noch immer das alte Modell angeboten würde. Auf der Straße würde man zwar noch viele dieser Modelle finden, die fleißig gefahren würden, jedoch wäre der Hersteller wohl in ernsten Schwierigkeiten.
Antwort von Paralkar:
Red kannst du doch nicht mit ner FotoDSLR vergleichen, alleine das einstellen der ganzen sache ist nicht mit dem intuitiven Knöpfedrücken einer DSLR zu vergleichen, abgesehen vom Spiegel dem Auslösen, Verschlusszeiten, Blitzsynchro etc.
Mit Red zu fotografieren war bis jetzt nur ein Marketing Gag, mehr auch nicht, kein gescheiter Fotograf, würde zu sowas greifen, für ein gescheites Projekt.
Alleine der Weg in Photoshop würde die meisten Fotografen hoffnungslos überfordern.
Antwort von Jott:
"Aber schön das die Red Propaganda bei dir wirkt ;-) "
Die "RED-Propaganda" gibt es so eigentlich gar nicht. Die verlassen sich ausschließlich auf ihr Privatforum und die daraus dauerzitierenden menschlichen Echomaschinen, die es in jedem anderen Filmforum rund um die Welt gibt. RED selbst gibt ja nicht mal Pressemitteilungen raus. Funktioniert super, der eine oder andere Hersteller kopiert das Prinzip auch schon ganz gut. Man bleibt im Gespräch, vor allem beim "Nachwuchs", und braucht keine teure PR-Agentur.
Antwort von iasi:
Red kannst du doch nicht mit ner FotoDSLR vergleichen, alleine das einstellen der ganzen sache ist nicht mit dem intuitiven Knöpfedrücken einer DSLR zu vergleichen, abgesehen vom Spiegel dem Auslösen, Verschlusszeiten, Blitzsynchro etc.
Mit Red zu fotografieren war bis jetzt nur ein Marketing Gag, mehr auch nicht, kein gescheiter Fotograf, würde zu sowas greifen, für ein gescheites Projekt.
Alleine der Weg in Photoshop würde die meisten Fotografen hoffnungslos überfordern.
Natürlich ist es keine DSLR, aber dennoch ist es eine Kamera, mit der man aus einer 100fps-Reihe RAW-Standbilder erhalten kann.
Gerade was das Auslösen betrifft, ist eine Red jeder DSLR überlegen, denn es existiert keine Verzögerung - Aufnahme starten und DEN Moment später aus der Aufnahme herauspicken.
Verschlusszeiten? Hier sehe ich keine sonderlich große Einschränkung.
Mit der Blitzsynchro ist das schon etwas anders - man muss Dauerlicht einsetzen.
"Die meisten Fotografen" werden eine solch teure Kamera wohl auch nicht nutzen.
Den Spiegel-Vorteil sehe ich schon lange nicht mehr - aber das wohl auch, da ich nicht mehr zu den Sucher-Guckern gehöre.
Antwort von iasi:
"Aber schön das die Red Propaganda bei dir wirkt ;-) "
Die "RED-Propaganda" gibt es so eigentlich gar nicht. Die verlassen sich ausschließlich auf ihr Privatforum und die daraus dauerzitierenden menschlichen Echomaschinen, die es in jedem anderen Filmforum rund um die Welt gibt. RED selbst gibt ja nicht mal Pressemitteilungen raus. Funktioniert super, der eine oder andere Hersteller kopiert das Prinzip auch schon ganz gut. Man bleibt im Gespräch, vor allem beim "Nachwuchs", und braucht keine teure PR-Agentur.
Red hatte ziemliche Fehler gemacht - und macht sie noch immer.
Großen Ankündigungen und Aktionen folgt dann eher Schweigsamkeit, wenn die Kamera endlich mal ausgeliefert wird.
Bei der Dragon hat man den Eindruck, dass Red sie noch nicht für so gut hält, dass man sie bewirbt. Scheinbar erfüllt sie noch nicht die hohen Erwartungen.
Und dann natürlich das:
Da werden dann Termine und Produkte genannt, die irgendwann bei Red in Vergessenheit geraten.
Aber dennoch: Red versucht per Firmware das Maximum aus den Kameras zu holen - und bietet dies den Kunden dann auch kostenlos an.
Antwort von iasi:
Frage: "Jarred. Quick question. How many fps you get with RR-X for processing ADD ? "
Antwort: "somewhere between 0.1 and 0.2"
http://www.reduser.net/forum/showthread ... D-D/page16
wow - die Ergebnisse müssen wirklich bei Bewegtbildern um einiges besser sein, wenn sich der Aufwand lohnen soll.
Bei Einzelbildern kann man die Wartezeit ja noch verkraften.
Auf Beispielbilder bin ich ja mal gespannt.
(Wobei es eh nicht eilt, da der Dragon sowieso noch geraume Zeit auf sich warten lässt.)
Antwort von iasi:
aha - nun also in der neuen RedcineX-Beta: A.D.D.
und ein erster Erfahrungswert:
6K file too 26 seconds to render in A.D.D on a nMP 8Core Dual D700 64GB
jedenfalls braucht es gut 10 sec. pro Bild auch auf einem besserem Rechner ...
und:
6K tiff = 106MB
Da müssen es also schon ganz spezielle Aufnahmen sein, bei denen man das absolut letzte herausholen will ...
http://www.reduser.net/forum/showthread ... BETA/page3
Antwort von Valentino:
Das sieht gerade beim ersten Beispiel mit der Frau sehr stark nach einem etwas besseren DeBayer und einer Noise-Reduction aus.
Achtet mal auf dierechte Backe, diese scheint ohne ADD noch Zeichnung zu haben und wird durch ADD fast zu einer einheitlichen Fläche.
Werde irgendwie nicht das Gefühl los, das hier einfach etwas genauer Debayering, mit leichten Pseudo HDR und NR am Werke ist und so was auch mit PS zu schaffen ist.
Antwort von srone:
Das sieht gerade beim ersten Beispiel mit der Frau sehr stark nach einem etwas besseren DeBayer und einer Noise-Reduction aus.
Achtet mal auf dierechte Backe, diese scheint ohne ADD noch Zeichnung zu haben und wird durch ADD fast zu einer einheitlichen Fläche.
Werde irgendwie nicht das Gefühl los, das hier einfach etwas genauer Debayering, mit leichten Pseudo HDR und NR am Werke ist und so was auch mit PS zu schaffen ist.
neat image bzw video ;-)
lg
srone
Antwort von Valentino:
Sorry hab den Link vergessen:
http://www.reduser.net/forum/showthread ... ost1333091
Etwas weiter unten beim Eiskunstläufer erkennt man in den Schatten ein Tick mehr vom Publikum, tippe aber eher auf ein Anhebung des Black-Levle.
Wenn Red bei ADD eine höhere Dynamik bei gleichen Rohdaten erreichen würde, wäre dies doch schon etwas verwunderlich.
Antwort von iasi:
wie der Name schon sagt handelt es sich um ein Advanced Debayer ...
Generell zeigt sich, was per Optimierung heraus gekitzelt werden kann.
Für Einzelbild eine feine Sache - für Film wenig pratikabel.
Pro Sekunde Flm ist man schließlich schnell bei 4 Minuten Rechenzeit.
Wobei manche Aufnahmen den Rechenaufwand vielleicht durchaus Wert sein könnten.
Nur wird es wohl noch einige Zeit dauern, bis eine größere Zahl von Leuten dies ausprobieren können - viele Drachen wurden leider noch nicht in die freie Wildbahn entlassen.
Antwort von Valentino:
Und genau so Advanced sehen die Stills jetzt nicht aus, sonder nach ganz einfacher NR und etwas Aufhellung.
Das ganze mit einem etwas Zeit intensiveren DeBayer Algorithmus.
Mich nervt an Red das sie nicht einfach zugeben, was sie bei ADD wirklich anders machen und eine so große Sache um ein paar simple Bildverbesserungs-Schritte machen müssen.
Das haben die vor Jahren mal dieser FLUT Funktion genauso gemacht und am Ende war es einfach ein simple Verschiebung der Helligkeitswerte.
Antwort von iasi:
Und genau so Advanced sehen die Stills jetzt nicht aus, sonder nach ganz einfacher NR und etwas Aufhellung.
Das ganze mit einem etwas Zeit intensiveren DeBayer Algorithmus.
Mich nervt an Red das sie nicht einfach zugeben, was sie bei ADD wirklich anders machen und eine so große Sache um ein paar simple Bildverbesserungs-Schritte machen müssen.
Sie haben doch angedeutet, wie sie es machen: sie nutzen auch die Informationen benachbarter Frames.
Also einfaches NR und etwas Aufhellung ist es sicherlich nicht.
Und du erwartest doch nicht wirklich, dass eine Firma derart detailierte Informationen veröffentlicht, wie dir es scheinbar vorschwebt.
Mehr als "tiefgreifenderer Debayerprozess unter Einbeziehung mehrerer Frames" wirst du wohl kaum erhalten.
Das Rad neu erfunden hat Red sicherlich nicht - aber ein netter Ansatz ist das schon.
Antwort von TheBubble:
Und du erwartest doch nicht wirklich, dass eine Firma derart detailierte Informationen veröffentlicht, wie dir es scheinbar vorschwebt.
Warum nicht?
Antwort von iasi:
Und du erwartest doch nicht wirklich, dass eine Firma derart detailierte Informationen veröffentlicht, wie dir es scheinbar vorschwebt.
Warum nicht?
Weil es eben nicht Open Source ist.
Die Firmen machen ja selbst ein großes Geheimnis daraus, was sie bei der nächsten Messe vorstellen wollen - da werden sie wohl kaum Details zu technischen Entwicklungen ausplaudern.
Antwort von TheBubble:
Weil es eben nicht Open Source ist.
Hat damit doch gar nichts zu tun. Sie könnten das Verfahren einfach beim Namen nennen, es ist gut möglich, dass es in einem Paper irgendwo beschrieben ist.
Antwort von iasi:
Weil es eben nicht Open Source ist.
Hat damit doch gar nichts zu tun. Sie könnten das Verfahren einfach beim Namen nennen, es ist gut möglich, dass es in einem Paper irgendwo beschrieben ist.
Sie benennen es doch: Advanced Debayer
Keine Firma wird tiefere Einblicke in ihre Techniken geben - viel mehr als dass es ein Bayer-Sensor ist, wirst du kaum erfahren.
Mich interessiert letztlich auch nur das Ergebnis, das mit diesem A.D.D. erzielbar ist.
Ein weiteres Beispiel gibt es hier:
http://www.reduser.net/forum/showthread ... BETA/page5
ISO4000 - Straßenszene - der Unterschied ist schon beachtlich.
Antwort von TheBubble:
Keine Firma wird tiefere Einblicke in ihre Techniken geben - viel mehr als dass es ein Bayer-Sensor ist, wirst du kaum erfahren.
Klar gibt es Veröffentlichungen von Forschungsabteilungen. Spätestens wenn sogar Patentschutz beansprucht wird, muss veröffentlicht werden.
Antwort von studiolondon:
Red kannst du doch nicht mit ner FotoDSLR vergleichen, alleine das einstellen der ganzen sache ist nicht mit dem intuitiven Knöpfedrücken einer DSLR zu vergleichen, abgesehen vom Spiegel dem Auslösen, Verschlusszeiten, Blitzsynchro etc.
Mit Red zu fotografieren war bis jetzt nur ein Marketing Gag, mehr auch nicht, kein gescheiter Fotograf, würde zu sowas greifen, für ein gescheites Projekt.
Manchmal kann man die Ahnungslosigkeit hier einfach nicht unkommentiert lassen ;)
Nur mal eine kleine Auswahl von RED - ganz bewußt auf RED ONE eingegrenzt.
In der Top-Fotografie sind die seit 2008 überall.
VOGUE JEWELERY
zum Bild
VOGUE FRANCE
zum Bild
VOGUE ITALY
zum Bild
VOGUE RUSSIA
zum Bild
VOGUE JAPAN
zum Bild
am Rande
ESQUIRE
zum Bild
VANITY FAIR
zum Bild
CQ
zum Bild
TIME
zum Bild
Antwort von iasi:
Was klar wird bei solchen Aussagen wie vom Red-Chef
"We are so proud of what our sensor team has created... every month it seems we are digging deeper and deeper and pulling more and more out of it and nobody has even seen DRAGON COLOR yet. Graeme and Rob have their hands full translating arguably the best imaging sensor on the planet. "
und eben auch der langen Entwicklungszeit:
Die wirkliche Schwierigkeit liegt mittlerweile wohl darin, aus den Sensoren das heraus zu holen, das da an Potential noch schlummert.
Mittlerweile sieht man auch Bespiele für den Gewinn, den man erzielen kann.
Schönes Beispiel:
http://blog.gunleik.com/2014/03/01/dragon-and-add/
@studiolondon
Ich bin schon länger immer wieder beeindruckt und begeistert von den Standbildern/Fotos, die man von einer Red erhält.
Da denke ich auch immer wieder: Das ist wie meine 5dII aber eben mit weit mehr fps.
Und dann das goldene Bild aus einer Serie herauspicken zu können, ist was ganz besonderes - z.B. bekommt man so den ganz bestimmten Blick, der einem vielleicht sogar mit einer sehr schnellen DSLR entgeht.
Aber schau dir doch die Leute an, die nun meinen, eine 6k-Kamera würde nicht für Fotos reichen - die bestehen andererseits immer gern darauf, dass 2k und HD doch völlig genug seien und niemand 4k benötigen würde.
Antwort von Valentino:
Nur weil man andere Bilder des gleichen Sensor mit einbindet, wird dadurch das Rauschen nicht weniger.
Das muss mir schon mal einer genauer erklären.
So wie ich das zwischen den Zeilen gelesen habe, wird beim Dragon noch der Schwarzwert von ein paar verdunkelten Randpixeln mitgenommen und im Raw gespeichert, aber auch das ist nichts Neues und wird so bei Arri und anderen Firmen schon länger gemacht.
Im Prinzip ist so für jedes Bild ein Blackshading möglich, wobei dann der Sensor auch jeder stelle gleich warm sein muss.
Das ist auch der Grund dafür, das das bei allen anderen Red Kamera nicht funktioniert, da diesen die "ab-geklebten" Randpixel fehlen.
Weil es eben nicht Open Source ist.
Die Firmen machen ja selbst ein großes Geheimnis daraus, was sie bei der nächsten Messe vorstellen wollen - da werden sie wohl kaum Details zu technischen Entwicklungen ausplaudern.
Es geht hier nicht um alle Details, sondern um eine Grobe Angabe wie es funktioniert. Das Nennt sich Whitepaper und davon hat es z.B. bei Arri eine ganze Hand voll auf ihrer Homepage.
So wird erklärt wie z.B. Look-Files für die Alexa erstellt werden könne
http://www.arri.de/?eID=registration&file_uid=7761
oder wie das Color Processing der Alexa funktioniert:
http://www.arri.de/?eID=registration&file_uid=7347
Red schmeist aber gerne mal ein paar neue "Hipster-Begriffe" in die Runde um macht so wieder von sich reden.
Bei Red ist auch nie von "Color Processing" die Rede sondern immer nur von der "Farb-Wissenschaft", weil das einfach besser klingt.
Man hat dann gleich ein paar Wissenschaftler in weisen Laborkitteln vor Augen die im Red Lab nach einer besseren Farbe forschen ;-)
Antwort von iasi:
Nur weil man andere Bilder des gleichen Sensor mit einbindet, wird dadurch das Rauschen nicht weniger.
Das muss mir schon mal einer genauer erklären.
So wie ich das zwischen den Zeilen gelesen habe, wird beim Dragon noch der Schwarzwert von ein paar verdunkelten Randpixeln mitgenommen und im Raw gespeichert, aber auch das ist nichts Neues und wird so bei Arri und anderen Firmen schon länger gemacht.
Im Prinzip ist so für jedes Bild ein Blackshading möglich, wobei dann der Sensor auch jeder stelle gleich warm sein muss.
Das ist auch der Grund dafür, das das bei allen anderen Red Kamera nicht funktioniert, da diesen die "ab-geklebten" Randpixel fehlen.
Es ist Magie - eben ein Wundertrank aus der Pogrammcodesuppe ...
Letztlich ist es doch völlig wurscht, wie sie es machen.
Sie nehmen einen höheren (sehr viel höheren) Rechenaufwand in Kauf und versuchen eben möglichst viel zu optimieren
Weil es eben nicht Open Source ist.
Die Firmen machen ja selbst ein großes Geheimnis daraus, was sie bei der nächsten Messe vorstellen wollen - da werden sie wohl kaum Details zu technischen Entwicklungen ausplaudern.
Es geht hier nicht um alle Details, sondern um eine Grobe Angabe wie es funktioniert. Das Nennt sich Whitepaper und davon hat es z.B. bei Arri eine ganze Hand voll auf ihrer Homepage.
So wird erklärt wie z.B. Look-Files für die Alexa erstellt werden könne
http://www.arri.de/?eID=registration&file_uid=7761
oder wie das Color Processing der Alexa funktioniert:
http://www.arri.de/?eID=registration&file_uid=7347
Den Debayer-Algorithmus, den Arri verwendet, finde ich hier wo?
also sonderlich ins Detail geht Arri da ja auch nicht - das liest sich wie ein Prospekt ... die feinen Tricks verrät Arri und hier auch nicht ...
Das ist dann auch kaum anders, als die Red 101-Reihe
http://www.red.com/learn/red-101
Interessant ist es natürlich dennoch.
Und ich hab auch auch durchaus Verständnis dafür, dass sich Firmen nicht in die Karten blicken lassen.
Red hat sich da was Neues einfallen lassen und möchte eben nicht, dass andere es kopieren. Vielleicht ist es ja technisch prinzipiell ziemlich simple und das Besondere ist nur, überhaupt drauf zu kommen.
Red schmeist aber gerne mal ein paar neue "Hipster-Begriffe" in die Runde um macht so wieder von sich reden.
Bei Red ist auch nie von "Color Processing" die Rede sondern immer nur von der "Farb-Wissenschaft", weil das einfach besser klingt.
Man hat dann gleich ein paar Wissenschaftler in weisen Laborkitteln vor Augen die im Red Lab nach einer besseren Farbe forschen ;-)
Nein - die Reden dann immer von der Farb-Küche und vom Zauberer Graeme ... lass ihnen doch denn Spaß.
Ist doch jedenfalls gar nicht so übel, was aus einer D-Cine-Kamera an Standbildern rauskommen kann (und das ist "nur" 5k):
http://www.flickr.com/photos/107237384@ ... otostream/
Antwort von prime:
Nur weil man andere Bilder des gleichen Sensor mit einbindet, wird dadurch das Rauschen nicht weniger.
Das muss mir schon mal einer genauer erklären.
Was die Rauschunterdrückung angeht - es ist ein spatial&temporal-wirkender Algorithmus, daran zu erkennen das sie sagen es funktioniert nicht mit Stills (und es bezieht auch Pixels aus benachbarten Bildern mit ein). Solche gibt es in allen Klassen (schnell/schlecht bis super-duper/langsam). Einer von der billigen Sorte werkelt quasi in jeden Flachbild-Fernseher, gut daran zu erkennen das bei stärkeren Entrauschen, Geisterbilder (ghosting) zu sehen ist. "Richtig" erforscht ist dieses Thema auch bis zum Abwinken (also nicht nur Whitepaper oder posts aus dem awesome-forum).
Schön für die, die es nutzen wollen - aber weder speziell noch revolutionär, lässt sich wie gesagt auch ohne das ganze Red-Gedöns bewerkstelligen.
Antwort von kundesbanzler:
Manchmal kann man die Ahnungslosigkeit hier einfach nicht unkommentiert lassen ;)
Nur mal eine kleine Auswahl von RED - ganz bewußt auf RED ONE eingegrenzt.
In der Top-Fotografie sind die seit 2008 überall.
Meinst du nicht, die Leute sind in der Lage, Reds Promo-Bilder auf deren Seite selbst zu finden?
Antwort von iasi:
Schön für die, die es nutzen wollen - aber weder speziell noch revolutionär, lässt sich wie gesagt auch ohne das ganze Red-Gedöns bewerkstelligen.
Es sollte eher heißen:
"Schön für die, die es nutzen können"
"revolutionär" ist dabei, dass Red diese technische Möglichkeit nutzt und eben auch anbietet.
Und weil Red diese Option bietet, erhält man als Dragon-User bessere Bilder - und darauf kommt es an und dies ist der wirklich einzige echte Grund für Gedöns.
Arri nutzt auch nur die bekannte Bayer-Technik - also weder speziell noch revolutionär - und dennoch machen viele ein "Gedöns" um die Alexa ... der Grund: Die Bildqualität, die die Alexa liefert.
Schade, dass Red dieses Advanced Debayer nicht auch für die MX-Sensoren bietet.
Antwort von prime:
Nein sollte es nicht, ich hab geschrieben was ich meinte. Ich kann einen x-beliebigen CPU-lastigen Entrauschungsalgorithmus auf ein x-beliebiges Video anwenden - Notwendigkeit eines speziellen Sensors, einer einzigen Firma? = Null.
"revolutionär" ist dabei, dass Red diese technische Möglichkeit nutzt und eben auch anbietet.
Erkläre mir bitte was an einen spatio-temporalen Denoiser revolutionär ist? Nur weil er von Red ist? Wie gesagt diese Filter gibt es seit Ewigkeiten und in allen Klassen und auch besser "erklärt".
Antwort von iasi:
Nein sollte es nicht, ich hab geschrieben was ich meinte. Ich kann einen x-beliebigen CPU-lastigen Entrauschungsalgorithmus auf ein x-beliebiges Video anwenden - Notwendigkeit eines speziellen Sensors, einer einzigen Firma? = Null.
"revolutionär" ist dabei, dass Red diese technische Möglichkeit nutzt und eben auch anbietet.
Erkläre mir bitte was an einen spatio-temporalen Denoiser revolutionär ist? Nur weil er von Red ist? Wie gesagt diese Filter gibt es seit Ewigkeiten und in allen Klassen und auch besser "erklärt".
Nun - das Besondere ist die Qualität, die man erzielen kann - und letztlich ist es mir doch wurscht, welche Technik nun genau genutzt wird, um das Ergebnis zu erhalten.
Man kann zudem auch nur über die Ergebnisse urteilen, da keiner - auch du nicht - weiß, wie es Red nun wirklich genau macht.
Übrigens: Das gibt"s umsonst dazu.
Antwort von prime:
Nun - das Besondere ist die Qualität, die man erzielen kann
1) Die Qualität eines spatio-temporalen Denoisers anhand von Stills zu beurteilen - awesome! Ohnehin gab es ähnliche Qualität schon vor Ewigkeiten.
2) Wenn es nur um Standbilder geht, dann ist es ohnehin das so ziemlich banalste der Welt.
letztlich ist es mir doch wurscht, welche Technik nun genau genutzt wird, um das Ergebnis zu erhalten.
Ok...
Man kann zudem auch nur über die Ergebnisse urteilen, da keiner - auch du nicht - weiß, wie es Red nun wirklich genau macht.
Die Beschreibung die Red bisher gegeben hat, passt 100%-ig auf den beschriebenen Denoiser. Aber klar da ist bestimmt noch magic Fairy-dust? Hallo?!
Übrigens: Das gibt"s umsonst dazu.
Für Dragon-Besitzer. Ohnhe stand das hier nie zur Debatte - aber danke das du uns erinnerst :P
Antwort von iasi:
Nun - das Besondere ist die Qualität, die man erzielen kann
1) Die Qualität eines spatio-temporalen Denoisers anhand von Stills zu beurteilen - awesome! Ohnehin gab es ähnliche Qualität schon vor Ewigkeiten.
2) Wenn es nur um Standbilder geht, dann ist es ohnehin das so ziemlich banalste der Welt.
letztlich ist es mir doch wurscht, welche Technik nun genau genutzt wird, um das Ergebnis zu erhalten.
Ok...
Man kann zudem auch nur über die Ergebnisse urteilen, da keiner - auch du nicht - weiß, wie es Red nun wirklich genau macht.
Die Beschreibung die Red bisher gegeben hat, passt 100%-ig auf den beschriebenen Denoiser. Aber klar da ist bestimmt noch magic Fairy-dust? Hallo?!
Übrigens: Das gibt"s umsonst dazu.
Für Dragon-Besitzer. Ohnhe stand das hier nie zur Debatte - aber danke das du uns erinnerst :P
Also zum einen hat Red noch so gut wie keine Details veröffentlicht - es gibt so gut wie keine Beschreibung von Red (was Valentino ja schon bemängelt hat) - ich weiß also gar nicht auf welcher Basis du die Technik beurteilen willst.
Zum anderen beurteile ich die Qualität an den Ergebnissen, die sich erzielen lassen - und A.D.D. liefert nun einmal eine verbesserte Bildqualität.
Du stellst letztlich nur Behauptungen auf ohne sie auch nur im Ansatz zu belegen.
Ich habe aber auch gar kein großes Interesse im technischen Nebel zu stochern und nun z.B. darüber zu lamentieren, ob es ein simpler Denoiser ist.
Schau dir die Ergebnisse an - mittlerweile gibt es reichlich Beispiele - und dann wirst du erkennen, dass A.D.D. etwas bringt - und nur darauf kommt es an.
Antwort von prime:
Also zum einen hat Red noch so gut wie keine Details veröffentlicht - es gibt so gut wie keine Beschreibung von Red (was Valentino ja schon bemängelt hat) - ich weiß also gar nicht auf welcher Basis du die Technik beurteilen willst.
S. http://www.reduser.net/forum/showthread ... ost1329310
A.D.D Leverages not only the surrounding pixels but the surrounding pixels in surrounding frames... something that really makes Dragon a step ahead of all of the DSLRs.
Noch Fragen? Ist ziemlich eindeutig.
Zum anderen beurteile ich die Qualität an den Ergebnissen, die sich erzielen lassen - und A.D.D. liefert nun einmal eine verbesserte Bildqualität.
Steht nicht zur Debatte.
Du stellst letztlich nur Behauptungen auf ohne sie auch nur im Ansatz zu belegen.
Also hier ist ein Beispiel eines Denoisers, sieht auf den Standbildern auch aus wie eine Wunderwaffe... aber Standbild ist ja easy. Siehe Bild.
Ich habe aber auch gar kein großes Interesse im technischen Nebel zu stochern und nun z.B. darüber zu lamentieren, ob es ein simpler Denoiser ist.
Aha du willst nicht im technischen Nebel rumstochern? Hast du erwartet das hier alle ein "Awesome!" posten und wie incredible doch der Sensor ist? Du schreibst hier von technische Neuigkeiten - was genau soll dann denn diskutiert werden?
Schau dir die Ergebnisse an - mittlerweile gibt es reichlich Beispiele - und dann wirst du erkennen, dass A.D.D. etwas bringt - und nur darauf kommt es an.
Ja, ein Denoiser entfernt Rauschen - warum du meinst das es in irgendeinerweise revolutionär wäre ist mir noch nicht klar.
PS: Bild stammt von http://www.compression.ru/video/denoising/index_en.html
Antwort von iasi:
Zum anderen beurteile ich die Qualität an den Ergebnissen, die sich erzielen lassen - und A.D.D. liefert nun einmal eine verbesserte Bildqualität.
Steht nicht zur Debatte.
Na dann gibt"s wirklich nichts mehr zu diskutieren, denn mich interessiert nur die Bildqualität ...
Wer über Technik spekulieren möchte, kann dies gerne machen. Denn mehr als Spekulation ist es nicht - dass Red benachbarte Frames nutzt, sagt ja nun nicht gerade viel aus.
Ich halte Diskussionen über Technik ohne detailierte Informationen als wenig ergiebig.
Du redest ständig von Denoiser - eben Äpfel-Birnen-Vergleich.
Da schaue ich mir lieber die Testaufnahmen an und urteile anhand der Ergebnisse über A.D.D.
Fakt ist, dass A.D.D. die Bildqualität verbessern kann und sich der Button hierfür in RedcineX finden lässt.
Es liefert offensichtlich bessere Ergebnisse als jedes Denoiseprogramm, die schließlich an ganz anderer Stelle im Bildprozessing ansetzen.
also das Beispiel von Gunleik Groven hier sagt mir jedenfalls mehr, als alles Reden darüber, wie es Red wohl nun technisch macht:
http://www.reduser.net/forum/showthread ... BETA/page5
Antwort von prime:
Du stellst letztlich nur Behauptungen auf ohne sie auch nur im Ansatz zu belegen.
Err.. ja siehe folgendes Zitat...
Es liefert offensichtlich bessere Ergebnisse als jedes Denoiseprogramm, die schließlich an ganz anderer Stelle im Bildprozessing ansetzen.
Hier gibt es in der Tat nichts zu diskuttieren.
Antwort von iasi:
Du stellst letztlich nur Behauptungen auf ohne sie auch nur im Ansatz zu belegen.
Err.. ja siehe folgendes Zitat...
Es liefert offensichtlich bessere Ergebnisse als jedes Denoiseprogramm, die schließlich an ganz anderer Stelle im Bildprozessing ansetzen.
Hier gibt es in der Tat nichts zu diskuttieren.
Diskutierst du eigentlich in Auto-Foren auch über die Programmierung der Steuerelektronik und die Details der Einspritztechnik, während dich eigentlich gar nicht interessiert, ob und wie das Auto bzw. der Motor nun eigentlich laufen?
Und diese Diskussion führst du dann auf Basis deines Wissens über Verbrennungsmotoren ohne auch nur eine Zeile der Programmierung zu kennen.
Mir ist natürlich schon klar, dass so etwas häufig in Foren geschieht.
Antwort von prime:
Ich habe lediglich darauf hingewiesen, dass das reduzierte Rauschen das Ergebnis eines spatio-temporalen Denoisers ist. Red gibt doch selber die Erklärung wie es funktioniert. Natürlich verpackt mit PR-lastigen Blabla.
Dein Autovergleich ist irrelevant. Um einen Denoiser dieser Art zu verstehen benötigt man keinerlei Programmierkenntnisse, lediglich ein grobes Verständnis über Bildverarbeitung.
Extrem einfaches Beispiel für einen temporalen Denoiser; Relative Statische Szene, betrachten wir uns die Helligkeit eines Pixels (X) über einen Zeitraum von 6 Bildern (Fenster) an. Der eigentliche Wert sollte 125 sein, ist aber wegen Rauschen mal mehr mal weniger:
124
128
122
129
124
127
Der Durchschnittswert ist 125.6 oder 126, was sehr nah am Ideal ist und besser als ständiges rauf und runter (Rauschen). Richtig gute Algorithmen machen aber WEIT mehr (Miteinbeziehen von Bewegung etc.). Das Red wie jede andere Firma so tut als hätten sie das Rad neu-erfunden muss man ja nicht un-kommentiert lassen. Die Diskussion mal in die eine, mal in die andere Richtung führen zu wollen, ist ehrlich gesagt lächerlich. Ist es denn wirklich so schwer für dich zu glauben das es solche Algorithmen seit Ewigkeiten gibt? LANGE bevor Red überhaupt existierte?
Google doch einfach mal "spatio-temporal video denoising" und du wirst erkennen das es ein sehr gut erforschtes Gebiet ist.
Antwort von iasi:
Ich habe lediglich darauf hingewiesen, dass das reduzierte Rauschen das Ergebnis eines spatio-temporalen Denoisers ist. Red gibt doch selber die Erklärung wie es funktioniert. Natürlich verpackt mit PR-lastigen Blabla.
So?
Und wo hast du das denn gelesen?
Wenn sie bei der Interpolation beim Debayern auch benachbarte Frames nutzen, ist das doch schon noch mal was anderes, als ein Denoiser.
Und wenn es denn so wäre, bedeutet dies doch nicht viel. Genauso könntest du dann auch sagen: H265 ist auch nicht anders als MPG2, ProRes usw. - die machen alle die Daten klein.
Ich halte mich schon lieber an die erzielbaren Ergebnisse - und die (wenigen) Dragon-Besitzer sind jedenfalls schon mal sehr angetan von A.D.D.
Sogar so sehr, dass sie es für Motion nutzen wollen - trotz der langen Rechenzeiten.
Antwort von prime:
Mein letzter Versuch..
Wenn sie bei der Interpolation beim Debayern auch benachbarte Frames nutzen, ist das doch schon noch mal was anderes, als ein Denoiser.
Red kann es nennen wie sie wollen, du kannst es nennen wie du willst, es bleibt im Prinzip ein Denoiser. Du willst es einfach nicht verstehen oder?
Und wenn es denn so wäre, bedeutet dies doch nicht viel. Genauso könntest du dann auch sagen: H265 ist auch nicht anders als MPG2, ProRes usw. - die machen alle die Daten klein.
Ja und alle basierend auf DCT und im Fall von MPEG2/H264 auf Bewegenskompsation/Vorhersage etc. dein Argument ist?
Ich halte mich schon lieber an die erzielbaren Ergebnisse - und die (wenigen) Dragon-Besitzer sind jedenfalls schon mal sehr angetan von A.D.D.
Sogar so sehr, dass sie es für Motion nutzen wollen - trotz der langen Rechenzeiten.
Zum letzten Mal, das Ergebnis bzw. die Qualität steht überhaupt nicht zur Debatte.
Antwort von Valentino:
Glaube, das die Wahrheit irgendwo in der Mitte liegt.
Wenn es wirklich nur ein spatio-temporalen Denoisers ist, warum dann die Einschränkung auf die neuen Dragon?
Im das Prinzip sollte eigentlich auch mit R1 Material der ersten Stunde möglich sein.
Jetzt fallen mir spontan zwei Gründe ein, warum das nur bei der Dragon funktioniert:
1. Red will damit potentielle Neukunden aus der Fotografie anlocken und mit A.D.D. als "only Dragon Feature" anpreisen.
So eine Verhalten wäre für Red nicht untypisch und wurde so schon vorher bei der RedRocket Karte gemacht. Erst nach dem kein Kunde mehr so eine Karte gekauft hat und eine bessere Karte mit 6k Support angekündigt wurde, gab es ganze fünf Jahre später ein OpenCL und jetzt Cuda Support.
Möglich wäre so eine Funktion schon Jahre vorher gewesen, man wollte aber einfach nicht.
2. Die neue Dragon EPIC hat auf den Sensor, die schon vorher mal von mir erwähnten "schwarzen-Pixel", die mit im RAW gespeichert werden.
Mit diesen Pixeln wird dann zusätzlich noch das Grundrauschen etwas gemildert und ergänzt somit den spatio-temporalen Denoiser.
Antwort von iasi:
Mein letzter Versuch..
Wenn sie bei der Interpolation beim Debayern auch benachbarte Frames nutzen, ist das doch schon noch mal was anderes, als ein Denoiser.
Red kann es nennen wie sie wollen, du kannst es nennen wie du willst, es bleibt im Prinzip ein Denoiser. Du willst es einfach nicht verstehen oder?
Und wenn es denn so wäre, bedeutet dies doch nicht viel. Genauso könntest du dann auch sagen: H265 ist auch nicht anders als MPG2, ProRes usw. - die machen alle die Daten klein.
Ja und alle basierend auf DCT und im Fall von MPEG2/H264 auf Bewegenskompsation/Vorhersage etc. dein Argument ist?
Ich halte mich schon lieber an die erzielbaren Ergebnisse - und die (wenigen) Dragon-Besitzer sind jedenfalls schon mal sehr angetan von A.D.D.
Sogar so sehr, dass sie es für Motion nutzen wollen - trotz der langen Rechenzeiten.
Zum letzten Mal, das Ergebnis bzw. die Qualität steht überhaupt nicht zur Debatte.
Ich nenne diese technischen Auslassungen "im Trüben fischen".
Du sagst: Es ist ein Denoiser.
Toll.
Dann sage ich eben: Es ist ein Wunder. Reine Magie.
Beides bringt uns bitte was?
Du hast doch gar keinen Schimmer davon, wie und was genau Red nun mit A.D.D. macht - da helfen auch deine Vermutungen und Annahmen nichts.
Ich kenne kein Programm da beim Debayer mit der Rauschunterdrückung ansetzt.
Aber das ist sowie eh das Feld, in dem sich z.B. WoWu eher auslässt und auch auslassen kann.
Mich interessiert eigentlich auch nicht, wie denn nun der Treibstoff bei der Einspritzung verwirbelt wird, sondern nur, wie viel Kraft und Energie der Motor aus dem Treibstoff zieht - und vor allem, wie er das Auto antreibt. Du kommst mir so vor, wie jemand, der in den Motorraum blickt und dann über solche Details sinniert.
Der Advanced Dragon Debayer bringt etwas und darf deshalb auch gefeiert und bejubelt werden.
Antwort von iasi:
Glaube, das die Wahrheit irgendwo in der Mitte liegt.
Wenn es wirklich nur ein spatio-temporalen Denoisers ist, warum dann die Einschränkung auf die neuen Dragon?
Im das Prinzip sollte eigentlich auch mit R1 Material der ersten Stunde möglich sein.
Jetzt fallen mir spontan zwei Gründe ein, warum das nur bei der Dragon funktioniert:
1. Red will damit potentielle Neukunden aus der Fotografie anlocken und mit A.D.D. als "only Dragon Feature" anpreisen.
So eine Verhalten wäre für Red nicht untypisch und wurde so schon vorher bei der RedRocket Karte gemacht. Erst nach dem kein Kunde mehr so eine Karte gekauft hat und eine bessere Karte mit 6k Support angekündigt wurde, gab es ganze fünf Jahre später ein OpenCL und jetzt Cuda Support.
Möglich wäre so eine Funktion schon Jahre vorher gewesen, man wollte aber einfach nicht.
2. Die neue Dragon EPIC hat auf den Sensor, die schon vorher mal von mir erwähnten "schwarzen-Pixel", die mit im RAW gespeichert werden.
Mit diesen Pixeln wird dann zusätzlich noch das Grundrauschen etwas gemildert und ergänzt somit den spatio-temporalen Denoiser.
Mehr als spekulieren kann man eben nicht.
Warum die MX-Modelle nicht in den Genuß von Advanced Debayer kommen, ... Wer weiß.
Vielleicht ist es wirklich nur eine Marketinggeschichte. Andererseits hatte Red bisher keine Abgrenzungen zwischen den Modellen gemacht.
Wobei der Scarlet leider nie 50fps gegönnt wurden, was Red nie begründet hatte (es leuchtet nur schwerlich ein, dass 2fps nicht möglich sein sollten).
Auch gut möglich, dass der Dragon noch nicht die Erwartungen erfüllt und Red nun alles versucht, z.B. das Rauschen zu mildern.