Frage von salamander:Hallo Freunde
Ich würde gerne wissen wo meistens der Flaschenhals von After Effects liegt (Workspace nicht Rendering).
Ist ja schön und gut das After Effects nicht für Realtime Arbeit ausgelegt ist - gibt es auch einen spezifischen Grund dafür oder ist der Software Design einfach nur grottig ?
Was will den AE eigentlich (in seiner jetztigen Architektur) von was er zu wenig bekommt?
Ich habe bisher irgendwo aufgeschnappt das es unter anderem daran liegt das einige Prozesse nur seriell mit einem Kern gerechnet werden können - was natürlich den ganzen Queue aufhält und ein definitiver Flaschenhals darstellt. Solche Effekte würde ich gerne möglichst vermeiden (oder mind. vorrendern) denn sowas ist definitiv nicht zeitgemäss und steht nur im Weg.
Antwort von dustdancer:
Hallo Freunde
Ich würde gerne wissen wo meistens der Flaschenhals von After Effects liegt (Workspace nicht Rendering).
Ist ja schön und gut das After Effects nicht für Realtime Arbeit ausgelegt ist - gibt es auch einen spezifischen Grund dafür oder ist der Software Design einfach nur grottig ?
Was will den AE eigentlich (in seiner jetztigen Architektur) von was er zu wenig bekommt?
Ich habe bisher irgendwo aufgeschnappt das es unter anderem daran liegt das einige Prozesse nur seriell mit einem Kern gerechnet werden können - was natürlich den ganzen Queue aufhält und ein definitiver Flaschenhals darstellt. Solche Effekte würde ich gerne möglichst vermeiden (oder mind. vorrendern) denn sowas ist definitiv nicht zeitgemäss und steht nur im Weg.
wie wäre es, sich wissen anzueignen, bevor man einfach lächerliche behauptungen in den raum schmeißt...
wenn mir doch bitte ein effect proggi, was realtime auf einem homepc arbeitet? vielleicht einfach nachdenken und dann fragen...
effekte sind halt rechnenintensiv. man kann das ganze aber auch durch durchdachtes compositing in grenzenhalten.
Antwort von salamander:
Das war nicht meine Frage dusterdancerchen. Du solltest dir unbedingt den Umgang mit deinen Mitmenschen nochmals durch den Kopf gehen lassen. So wirst du nämlich auch in Zukunft keine Freunde finden. Arrogante Idioten oder Internet Helden mag nämlich niemand und im echtem Leben wirst du auch nicht 180 Grad Anderst sein als Hier. Ich hoffe du bist Selbstständig und lässt deine Mitmenschen in Ruhe mit deiner egozentrischen Art!
Antwort von Chrigu:
Hört sich vielleicht dumm an, aber theoretisch hat der dancer recht. Man könnte es aber netter erklären, nicht?
Je nach Effekt, je nach Hersteller, je nachdem ob noch licht/Schatten mitberechnet werden muss, je nach pixeländerungen oder pixelzusammenschliessen...... Geht es schnell oder braucht es seine zeit... Ähnlich wenn du eine Zeichnung machst mit grünem Stift, ist Grün grossflächig, bist du schnell fertig. Willst du aber Grashalm hinter Grashalm malen braucht es seie zeit....
Am besten du machst eine 10 Sek. Clip rein und stellst den ersten Effekt rein und schreibst die zeit auf.... Hochrechnen und du kannst in deinen Notizen schauen, welcher Effekt wie am effizientesten berechnet werden kann
Alles klar?
Antwort von Jörg:
ehrlich gesagt, netter erklären würde ich dieses breitgefächerte Thema einem solchen Fragesteller auch nicht wollen.
ist der Software Design einfach nur grottig ?
Ich habe bisher irgendwo aufgeschnappt...
Wer mit solchem Sechzehntelwissen dermaßen auftrumpft, hat gar kein
Interesse an ernsthafter Beratung oder elementarer Einführung in die Arbeitsweise.
Der tip
wie wäre es, sich wissen anzueignen, bevor man einfach lächerliche behauptungen in den raum schmeißt...
ist schon das freundlichste, was auch mir zu solchen Zeitgenossen einfällt.
Antwort von dienstag_01:
Bis jetzt wurde ja schon viel polemisiert, aber einen ernsthaften Ansatz für eine Antwort hat es noch nicht gegeben. Wäre aber schon mal interessant, oder.
Antwort von salamander:
Wisst Ihr, mit solchen - entschuldigt mich - Idioten wie dusterdancer rede ich im echtem Leben nie und ignoriere ich vollkommen. Nur blöd das solche Typen dich hier volltexten ob du willst oder nicht - solche Leute regen einem auf den ich habe den Thread eröffnet um zu diskutieren und schlauer zu werden und nicht damit ich von so einem Trottel oder sonst von jemandem angepöbelt werden - das kann er bei seiner Frau oder Saufkompanen machen - nicht bei mir! Respektloser gehts doch garnicht mehr!
Ich habe geschrieben das ich einige Vermutungen habe und von Fachmänner gehört habe, dazu gehört auch das After Effects angeblich Softwaretechnisch nicht das Gelbe vom Ei sein soll.
Ich habe bereits hunderte Webseiten und Meinungen gelesen. Jedoch nicht wo bei After Effects effektiv der grösste Flaschenhals liegt (ich habe es bestimmt überlesen) und wo es bei der Hardware effektiv ankommt - und vorallem wo es an seine Grenzen stößt - Im Gegensatz zu anderen rechenintensiven 3D Software.
Ich würde mich über höfliche und informative Antworten freuen und danke euch jetzt schon den ich weiss das die Mehrheit der Authoren auf slashcam Intelligenz und soziale Kompetenz haben.
Antwort von Auf Achse:
.... Ich würde mich über höfliche und informative Antworten freuen den ich weiss das die Mehrheit der Authoren auf slashcam Intelligenz und soziale Kompetenz haben.
... du bist aber ein ganz ein Süßer ;-)) Stoplerst da ungehobelt rein und erwartest, ..... nein forderst gerdezu etwas das du selbst offensichtlich nicht mitbringst.
Selbst wenn ichs wüßte würd ichs dir nicht sagen.
Auf Achse
Antwort von Reiner M:
Bis jetzt wurde ja schon viel polemisiert, aber einen ernsthaften Ansatz für eine Antwort hat es noch nicht gegeben. Wäre aber schon mal interessant, oder.
Dienstag, das wurde doch schon alles endlos diskutiert ...
Schaun wir aber eben mal kurz auf die Aussagen und Fragen:
Ist ja schön und gut das After Effects nicht für Realtime Arbeit ausgelegt ist - ...
Das ist falsch. AE macht problemlos seine Arbeit in Realtime.
Ab hier erürbigt sich der Rest eigentlich. Aber bitte schön, klären wir das auch noch:
Ist ja schön und gut das After Effects nicht für Realtime Arbeit ausgelegt ist - gibt es auch einen spezifischen Grund dafür oder ist der Software Design einfach nur grottig ?
Für falsche Aussagen gibt es immer spezifische Gründe: Anwender, die es nicht besser wissen! Daraus nun abzuleiten, die Software wäre grottig, lenkt vom eigentlichen Problem ab - aber nicht nachhaltig genug.
Was will den AE eigentlich (in seiner jetztigen Architektur) von was er zu wenig bekommt?
Klare Antwort: Power. Power ohne Ende. (CPUs, Takt, RAM, I/O-Transferraten). Das sollte sich längst rumgesprochen haben.
Das liegt daran, das AE-Projekte schnell komplex werden. Ggf. müssen mehrere hundert Video-Ebenen zeitgleich berechnet werden, die auch noch deutlich größer sein können, als der sichtbare Frame und sich in räumlichen und zeitlichen Abhängigkeiten zueinander befinden.
Das ist so, als würdest Du einen Schwertransporter einen Berg hoch steuern müssen, dessen Steigung sich ständig ändert, wobei Dir während der Fahrt laufend jemand neue Ladung hinten drauf packt... - na, ja, ungefähr so. Gut, wenn Du dann einen starken Motor, ein super Getriebe und genug Sprit im Tank hast.
Es gibt wohl derzeit keinen Desktop-PC, der AE genug Power bieten kann.
Wenn Benutzer da sparen (oft gar bewußt sparen wollen) und dann unzufrieden sind, wundert mich das nicht. Das auf das Software Design zu schieben, ist allerdings Unfug.
Selbstverständlich kann man Software so programmieren, dass sie auf den schwächsten Systemen rennt - dann kann man aber nicht die Leistung erwarten, die in AE steckt. Starke Motoren wollen Sprit. Wenn ich den Bezinhahn drossle, habe ich immer noch den Komfort des 12-Zylinders, aber es geht einen Tick langsamer von statten. Bis er blubbert, stottert und womöglich stehen bleibt. So einfach ist das.
Ich habe bisher irgendwo aufgeschnappt das es unter anderem daran liegt das einige Prozesse nur seriell mit einem Kern gerechnet werden können - was natürlich den ganzen Queue aufhält und ein definitiver Flaschenhals darstellt. Solche Effekte würde ich gerne möglichst vermeiden (oder mind. vorrendern) denn sowas ist definitiv nicht zeitgemäss und steht nur im Weg.
Leider liest man viel ...
Ich gebe Dir aber Recht: Es ist definitiv nicht zeitgemäß, auf Effekte zu fokussieren. Zeitgemäß ist es, das Projekt zu betrachten und zu designen und einen geeigneten Workflow dafür zu finden. Wenn dann bestimmte Effekte nötig sind, wird man sie einsetzen. Ohne wenn und aber.
Glaube mir: Du kannst bei der Anlage Deines Projektes sehr leicht unglaublich viel falsch machen. Das wird sich garantiert signifikant auf die Verarbeitungsgeschwindigkeit auswirken und dann spielt das Verhalten eines einzelnen Effektes keine Rolle mehr.
Ich würde gerne wissen wo meistens der Flaschenhals von After Effects liegt (Workspace nicht Rendering).
Klare Antwort: Der Anwender ist es.
... den ich weiss das die Mehrheit der Authoren auf slashcam Intelligenz und soziale Kompetenz haben.
Habe mich trotzdem getraut.
Beste Grüße,
Reiner
Antwort von dienstag_01:
Was ich schon immer verwunderlich finde, ist, dass AE zum einfachen Abspielen eines Clips so deutlich viel mehr Performace benötigt als eine Schnittapplikation. Das kann man jetzt versuchen, mit *schlecht programmiert* zu erklären (wie der TO) oder es gibt einen oder mehrere andere Gründe dafür. Die Verwendung ausschließlich der CPU zur Darstellung sollte es eigentlich nicht sein, denn die Problematik gab es schon im PAL Zeitalter ohne Cuda etc. Und mit Effekten hat das auch erstmal nichts zu tun.
Antwort von TomStg:
Wie kann es sein, dass jemand mit Null-Komma-Null-Peilung grottendummes Zeug in den Raum posaunt, ohne jegliche Selbstzweifel sich über entsprechende Kommentare beschwert und dann noch tatsächlich konkrete Antworten bekommt? Gibt es eigentlich gar keine "Hemmschwelle" hier, um dummes Zeug einfach zu ignorieren? Muss es auf jede noch so schwachsinnige Frage immer eine inhaltliche Antwort geben?
Es hätte doch gereicht, den TO darauf hinzuweisen, dass nahezu jede seiner Behauptungen falsch ist, und er sich erstmal wirklich seriös informieren möge.
Tom
Antwort von gast5:
Ohne mir böse zu sein Tom, lies dir den To durch und deine Antwort erübrigt sich....
Er möchte sich ja seriös informieren drum ist er hier und hätte er sich schon SERIÖS informiert, hätte er sich das hier sicher nicht angetan...
Auf geht's... Doubel facepalm
Antwort von Jörg:
Er möchte sich ja seriös informieren drum ist er hier und hätte er sich schon SERIÖS informiert,
2 sachliche Fehler in einem Satz...??
Wenn sich der TO hätte tatsächlich SERIÖS informieren wollen, wäre seine Anfrage ähnlich seriös und mit den ihm bekannten
den ich weiss das die Mehrheit der Authoren auf slashcam Intelligenz und soziale Kompetenz haben.
slashcam üblichen Eigenschaften verlaufen.
Man mag erstaunt sein, aber auch die Antwortenden ( zumindest ein guter Teil derjenigen) legen Wert auf intelligente Frager, die soziale Kompetenz beweisen, indem sie missliebige Antwortende nicht als Idioten bezeichnen,
und ihre Anliegen, möglichst detailliert, schildern.
@motiongroup
der Satzteil muss also lauten
hätte er sich das hier sicher nicht angetan...
hätte er dem Forum solchen unqualifizierten, in keiner Phase auch nur annähernd intelligenten, Beitrag sicherlich nicht zugemutet.
Antwort von Reiner M:
Wie kann es sein, dass jemand mit Null-Komma-Null-Peilung grottendummes Zeug in den Raum posaunt, ohne jegliche Selbstzweifel sich über entsprechende Kommentare beschwert und dann noch tatsächlich konkrete Antworten bekommt?
Tom, man kann das natürlich ignorieren. Oder flach abbügeln. Oder kurz Maßreglen. Alles okay. Es wird aber nichts ändern. Weder am TO, noch an seiner Wortwahl, an seinem Auftreten usw. - im Gegenteil: Man sieht ja, das steigert sich womöglich noch ...
Aber schlimmer: Die falschen Aussagen und Behauptungen manifestieren sich. Sie sind ins Internet gehauen wie Hieroglyphen in Stein. Ein weiterer stolpert drüber und schreibt dann an anderer Stelle irgendwo: "Habe gelesen ... ist blöd designed, lahm, grottig ..." usw. Ein Kettenwitz. Wenn Du also daran was verändern willst ...
Was ich schon immer verwunderlich finde, ist, dass AE zum einfachen Abspielen eines Clips so deutlich viel mehr Performace benötigt als eine Schnittapplikation.
Dienstag, die Konzepte der Timeline eines Schnittprogramms unterscheiden sich grundlegend von denen, die in der Timeline von AE zum Einsatz kommen.
AE ist kein Schnittprogramm und sollte damit nicht verglichen werden!
Das wäre wie Fahrrad und LkW, oder Zange und Bohrhammer - beides Werkzeuge, beides zum Hausbau geeignet, aber völlig andere Grundlagen und Einsatzgebiete (und erfordern unterschiedliche Kenntnisse im Umgang mit den Tools).
Beispiele:
In einem Schnittprogramm werden Videospuren einfach gestapelt und in fester Reihenfolge nacheinander zusammengerechnet: Nimm die erste Spur, hau die zweite drauf, die dritte, usw. Fertig. Die Zeitnadel wandert fix zum nächsten Frame, der auch fix als Frame mit konkreten Inhalten definiert ist und so betrachtet wird. Es ist egal, was da vorher in der Timeline passiert. Es gibt außer der Stapelfolge keine Abhängigkeiten der Spuren zu- und voneinander. Man fährt die Zeitnadel an eine bestimmte Position, und zack!, werden die Spuren in der gegebenen Folge aufeinander gepackt. Relativ simple Pixelmanipulation.
Ganz anders in AE:
In AE gibt es keine echten Frames. Es gibt nur Zeit. Die Inhalte der Timeline werden horizontal über die Kompositionszeit berechnet, zu jedem beliebigen Zeitpunkt. Das gesamte Geschehen hängt vom Zeitverlauf und den Ereignissen vor der aktuellen Position ab, die AE im Auge behalten muss.
Erst, wenn Du dann eine fps-Rate drüberlegst, werden konkrete Zeitpunkte entstehen (die Du mit der Zeitnadel anfahren kannst), aber Aktionen (die z.B. mit Keyframes verbunden sind) können sozusagen zwischen den Frames eintreten. Zwischen den konkreten Zeitpunkten der Frame-Anfänge gibt es nämlich auch Zeit. Auch da passiert was. Du kannst in dieses Geschehen aktiv eingreifen (z. B. die fps-Rate beliebig ändern (was nur die Zeitpunkte neu setzt, an denen die Zeitnadel für die Berechnung der aktuellen Ausgabe stehen bleibt), dynamische Zeitänderungen in Abschnitten vornehmen, Expressions einfügen, die immer zeitorientiert, nie frameorientiert arbeiten, usw.) - Die Besonderheit: Es werden für jeden Zeitpunkt komplett neue Inhalte erzeugt (abhängig von vorhergehenden Inhalten, die ggf. erst durchgerechnet werden müssen, sofern sie das aktuelle Ergebnis beinflussen), nicht einfach bestehende zusammengesetzt.
In AE gibt es keine Videospuren. Der Begriff "Videospur" wäre in AE am ehesten mit "Komposition" vergleichbar, aber auch das ist nicht richtig. Ich erwähne das nur, um anzudeuten, wo wir uns bei der Betrachtung gedanklich einordnen müssen. Ein kleines Stück weit ist es bei der Betrachtung von außen richtig, denn ich kann z. B. in Premiere Pro einen Clip in der Timeline oder eine ganze Videopur durch eine Komposition aus After Effects ersetzen und es wie eine Videospur weiterverarbeiten.
Das, was wir in AE in einer Kompostion als "Spuren" sehen, heißt absichtlich Ebenen (Layer). Völlig anderes Konzept. Die werden nicht einfach gestapelt. Sie stehen in bestimmten Verhältnissen zueinander, die Du festlegen kannst (Modi, Schalter, Mischeigenschaften), und deren Bearbeitungsfolge Du beeinflussen kannst (Kameras, Null-Objekte, Einstellunsgebenen, Zuordnungen, Lichter, Kompositionsfaltungen, Sub-Kompositionen, usw.).
Objekte, also Frameinhalte, die außerhalb des sichbaren Teils des Frames liegen, werden nicht getrimmt oder beschnitten. Sie bleiben erhalten und werden stets voll mitberechnet (z. B. für Kamerabewegungen, Lichtpositionen außerhalb des Frames, usw.). Objekte, die außerhalb des sichtbaren Frameteils liegen, können also aktiv das Geschehen im sichbaren Teil beeinflussen. In Schnittprogrammen werden Bildteile, die über den sichbaren Frame hinausragen, vor der Weiterverarbeitung beschnitten. Die zur Berechnung benötigte Datenmenge ist vorhersehbar. In AE nicht.
Das Zusammensetzen eines einzigen Frames für die Anzeige/Ausgabe ist also kein einfaches, stapelndes Zusammensetzen von statischen Inhalten von Videos, wie sie die Frames von Video-Clips in einem Schnittprogramm erlauben würden, sondern es ist immer die vollständige Neugenerierung des Inhalts horizontal abhängig von der Zeit, vertikal abhängig von den Stapeleigenschaften der Ebenen, zentral abhängig von den Positionen der Objekte in der Ebene und zueinander.
Ob Du nur einen einzigen Video-Clip in die AE-Timeline packst und darauf ein Colorgrading anwendest, oder ob Du ein komplexes Projekt mit tausenden von Ebenen zusammenstellst, ist dabei völlig egal: die Abarbeitungsregeln bleiben immer gleich.
Das ist es, warum performante Hardware benötigt wird.
Und zur Sicherheit nochmal: AE ist kein Schnittprogramm und sollte damit nicht verglichen werden! Weder von der Aufgabenstellung noch konzeptionell, noch, was das Software Design betrifft.
Beste Grüße,
Reiner
Antwort von Mylenium:
Ich habe bisher irgendwo aufgeschnappt das es unter anderem daran liegt das einige Prozesse nur seriell mit einem Kern gerechnet werden können - was natürlich den ganzen Queue aufhält und ein definitiver Flaschenhals darstellt. Solche Effekte würde ich gerne möglichst vermeiden (oder mind. vorrendern) denn sowas ist definitiv nicht zeitgemäss und steht nur im Weg.
Quicktime ist auch nicht mehr zeitgemäß und trotzdem wird es im Profibereich noch für alles mögliche genommen. Mal davon abgesehen sind manche Dinge schlichtweg aus computermathematischen/ -technischen Gründen unmöglich. Die Dateiformate sind steinalt und selbst moderne Betriebssysteme haben keine nativen Funktionen um mehreren Prozessen/ Programmen gleichzeitig Schreibzugriff auf die gleiche Datei zu gewähren. Außerdem arbeiten völlig unabhängig von AE die meisten Kompressionsverfahren mit strikt linearer Analyse. Und naja, wie sollte AE wissen, wie ein Frame aussehen wird, noch bevor er berechnet wurde? Mal in die Kristallkugel guggen? Ist einfach völlig unlogisch. Du weißt ja auch nicht, wie dein morgiger Tag ablaufen wird und ob die nicht morgen zur Mittagszeit eine Expression über den Weg läuft und sagt "Nimm den Wert von gestern 15 Uhr, multipliziere ihn mit 3, dreh dich einmal im Kreis und mache das von jetzt an für jeden Frame akkumulativ, bis du dich bei Frame besoffen gekreiselt hast und pro Takt 2000 mal drehst." Wie Reiner M schon gesagt hat, die Interaktionen in AE sind wesentlich komplexer und da muß man noch nicht mal an Layer Buffer, Comp Buffer oder AE's Konzept der "Liquid Time", also theoretisch unendlich dehnbarer Zeit, anführen. Natürlich nerven AE's Bottlenecks und manche sind unnötig, aber es wird immer welche geben und auch Nuke, smoke*, Fusion und andere Compositing Tools unterliegen diesen Einschränkungen.
Mylenium
Antwort von dustdancer:
Wisst Ihr, mit solchen - entschuldigt mich - Idioten wie dusterdancer rede ich im echtem Leben nie und ignoriere ich vollkommen.
...und nicht damit ich von so einem Trottel oder sonst von jemandem angepöbelt werden - das kann er bei seiner Frau oder Saufkompanen machen - nicht bei mir! Respektloser gehts doch garnicht mehr!
und danke euch jetzt schon den ich weiss das die Mehrheit der Authoren auf slashcam Intelligenz und soziale Kompetenz haben.
sehr schön, sehr schön. etwas einfordern, über das du anscheinent nicht verfügst, großartig ;).
Ich habe geschrieben das ich einige Vermutungen habe und von Fachmänner gehört habe, dazu gehört auch das After Effects angeblich Softwaretechnisch nicht das Gelbe vom Ei sein soll.
vs
gibt es auch einen spezifischen Grund dafür oder ist der Software Design einfach nur grottig?
sehr amüsant. die trampelst hier rum wie ein elefant im porzelanladen und stellst krude behauptungen auf, die niemand stellen würde, der sich nur eine stunde ernsthaft mit der theoretischen seite von ae befasst hat.
wenn dann jemand auch nur im geringsten zurück poltert und dich drauf aufmerksam macht, dass die elementarstes wissen fehlt, wird dieser gleich persönlich angegriffen ;). offenbart sehr viel über deine softskills ;).
...den ich habe den Thread eröffnet um zu diskutieren und schlauer zu werden
Ich habe bereits hunderte Webseiten und Meinungen gelesen. Jedoch nicht wo bei After Effects effektiv der grösste Flaschenhals liegt (ich habe es bestimmt überlesen) und wo es bei der Hardware effektiv ankommt - und vorallem wo es an seine Grenzen stößt - Im Gegensatz zu anderen rechenintensiven 3D Software
lassen wir uns besonders die letzte behauptung auf der zunge zergehen. du hast angeblich hunderte webseiten über ae gelesen und dich (differenziert) mit hunderten meinungen auseinander gesetzt? schöne dass du im nachfolgendem satz diese behauptung negierst, denn hättest du, wie ich oben schon geschrieben habe, dich auch nur eine stunde mit ae befasst, dann wüßtest du, dass ae bei nichten eine 3d software ist. ae beherscht gar kein 3d, sondern man spricht im zusammenhang mit ae von 2,5d, da ae eben KEIN 3d prog ist...
bitte mehr 16tel wissen und persönliche beleidigungen, ich freue mich schon darauf ;).
Antwort von gast5:
Nein Jörg das ist so nicht richtig da du die Antworten auf die erste Anfrage außer acht lässt...
Hätte er Ahnung, bräuchte er nicht hier zu sein und auf eine SERIÖSE Antwort zu hoffen und ihr bräuchtet keine Seitenlange how to's zum Forenumgang verbreiten..
Er war weder frech noch pampig..maximal unwissend und suchend..
Antwort von dienstag_01:
Ich muss meine Fragestellung nochmal etwas konkretisieren:
Was ich schon immer verwunderlich finde, ist, dass AE zum einfachen Abspielen eines Clips so deutlich viel mehr Performace benötigt als eine Schnittapplikation.
*Abspielen eines Clips* heisst hier: es wird ein einzelner Clip als ein einzelner Layer ohne Effekte oder geänderten Ebeneneigenschaften abgespielt.
Wenn ich hier einige Erklärungsversuche richtig verstehe, soll der Grund in den Bearbeitungs MÖGLICHKEITEN liegen? AE benötigt die Performance schon auf Grund seiner schieren Zahl von MÖGLICHKEITEN, Dinge/Bearbeitungen zu tun, ohne die im konkreten Fall zu nutzen?
Aha.
Dinge/Algorithmen, die ein Programm im konkreten Fall nicht verwendet/einsetzt, die aber trotzdem Performance kosten, heisst sowas nicht: schlecht programmiert? Ist nur ne Frage.
Antwort von Chrigu:
man kann kein tool programmieren, das jede art von wünschen sofort befriedigt.... jedes tool ist ein kompromiss, egal ob von adobe, von sony, von magix oder aus der apple-schmiede....
AE ist so programmiert, dass die betroffenen bereiche neu berechnet werden, egal ob ein effekt drauf ist oder nicht. dafür gibt es ja die eigens dafür vorgesehene "preview"-ordner...
zugegeben, es wäre für manch einer vielleicht besser, wenn er den knopf "nicht rendern, unter keinen umständen" drücken könnte, weil seine geduld oder die hardware mies ist, wobei dann keine aktualisierung passiert, dafür wird ressourcenschonend gezeigt, wie das alte material irgendwannmal ausgesehen hat....
welche variante besser ist, lass ich mal im raum stehen.
manchen hier würde das lesen der nettikette-regeln nicht schaden. und vielleicht ein wenig dezenter mit der klospülung umgehen.
Antwort von DeejayMD:
...ae beherscht gar kein 3d, sondern man spricht im zusammenhang mit ae von 2,5d, da ae eben KEIN 3d prog ist...
Naja, seit CS6 kann man wohl schon von echtem 3D sprechen. Jedenfalls sind die Renderzeiten mit denen von C4D zu vergleichen, kommt halt auf die Qualitätseinstellungen an ;)
Mein erster Kontakt mit AE verlief auch total unwissend: "Was soll das, was für eine Scheiße, nix Echtzeit, da ist ja jedes Schnittprogramm besser!" Jetzt ist man natürlich schlauer und weiß warum. Hätte man aber nicht doch einen Modus in die Software einbauen können, der es einem erlaubt, einen effektlosen Clip in Realtime wenigstens previewen zu können, ohne dass dieser erst in den Arbeitsspeicher geladen werden muss? Obwohl, das geht auch sehr fix. Mein "aktueller" (auch schon über 3 Jahre alt) Rechner schafft es sogar ganz knapp in Echtzeit...
MfG
MD
Antwort von Reiner M:
Dinge/Algorithmen, die ein Programm im konkreten Fall nicht verwendet/einsetzt, die aber trotzdem Performance kosten, heisst sowas nicht: schlecht programmiert? Ist nur ne Frage.
So, wie Du es schreibst, hast Du natürlich Recht.
Aber keine Sorge, das passiert nicht!
AE ist kein Schnittprogramm und noch weniger ein Video-Player. Auch beim *Abspielen eines Clips* greifen selbstverständlich die gleichen Konzepte und Methoden. Es macht keinen Unterschied, ob man nur einen Layer in die Komp legt, oder zwei oder 10. Es macht im Prinzip keinen Unterschied, ob es sich um einen Video-Clip, einen Text odere eine Grafik handelt.
Was passiert, ist: Es müssen Prüfungen und Umwandlungen stattfinden, weil AE die Aufbereitung der Daten so vornimmt, dass sie tatsächlich auch in einer Komposition genutzt werden können. Wenn ich mir ein Auto mit 6-Gang-Getriebe zulege, aber dann immer nur im 1. Gang rumfahre ist das meine Entscheidung. Es ist kein Problem des Autos. Das ist für einen viel breiteren Einsatzzweck konzipiert. Es fährt mich aber auch im 1. Gang spazieren, wenn's denn sein muss. Den sehr hohen Sprit-Verbrauch trotz mäßiger Geschwindigkeit sollte ich in diesem Fall jedoch nicht dem Auto anlasten.
Auch einem einzelnen Clip in AE sind sehr viele Schalter und Parameter zugeordnet. In der Timeline, in den Kompositionseinstellungen, in den Projekteinstellungen. Ja, das sind Möglichkeiten! Man muss sie nicht nutzen. Gut, das es sie gibt. Sonst hätte ich AE nicht. Und trotzdem nutzt man sie ständig, oft, ohne es zu wissen.
Um festzustellen, wie welche Schalter und Modi gesetzt sind, muss man sie in einem Programm überprüfen. Geht nicht anders. Okay, das kostet nicht viel.
Ist ein Schalter "aus", heißt das jedoch nicht automatisch "keine Reaktion", "Funktion deaktiviert", das wäre ein gewaltiger Irrtum! - Es heißt zunächst nur: eine andere Reaktion, eine andere Funktion als bei "an". Tatsächlich können sich hinter beiden Zuständen umfangreiche Verarbeitungen anschließen. Beispiele: "Klassisch 3D" an heißt ja auch "Ray-traced 3D" aus und umgekehrt, oder die Verabeitung wird anders realisiert, wenn "Frameüberblendung" ein-, halbein- oder ausgeschaltet ist. Oder Du wechselt den Überblendmodus von "Normal" auf "Addieren". Damit muss das Programm in die entsprechende Verarbeitung. Dort addiert es nun die Inhalte des aktuellen Layers mit dem darunter. Ist da keiner, passiert optisch nichts, vom Programmablauf aber sehr viel.
Was in Abhängigkeit eines Schalters passiert, ist Sache der Programmierung, nicht transparent für uns (i.d.R.). Wir können nur Auswirkungen sehen und haben manchmal den Eindruck, dass nichts passiert. Warum also dauert das so lang?, fragt man sich dann. Man darf sicher sein: Das Programm tut was! Und zwar etwas sehr Vernünftiges im Sinne des Werkzeugs. Das ist gut so. Selbst echtes Nichtstun, wenn nötig, muss übrigens programmiert werden.
Und warum können das andere schneller? Weil sie eben sehr viel einfachere Methoden wählen, die in der Konsequenz aber auch nicht diese Möglichkeiten bieten, Frame-Inhalte zu manipulieren und zu gestalten - bei Bedarf. Dieser Bedarf ist jedoch der Hauptzweck von AE. Dafür schafft man es sich an. Das wollen Schnittprogramme beispielsweise gar nicht - sind ja Schnittprogramme, verfolgen einen anderen Anwendungszweck.
Mit anderen Worten: Gesetzt sind immer alle zu einem Zeitpunkt relevanten Schalter. Keineswegs alle möglichen! Folglich werden nur relevante Algorithmen abgearbeitet, je nach Zustand der Schalter.
Es werden immer schalterabhängig Algorithmen ausgeführt, es gelten immer die Regeln der zeitlichen Verarbeitung (nicht der framebasierten), die dann in eine framebezogene überführt werden muss (fps), es gelten immer (die eingestellten) Bitbreiten für Farben (auch, wenn Du nichts einstellst) und für Farbräume (auch, wenn Du keinen wählst, jedes Pixel wird konvertiert; Du könnstest aber z. B. Rec709 16-235 vorwählen o. a., entsprechend greifen Algorithmen), es gilt immer das Layer-Konzept, nicht das Spur-Konzept, usw.
Ich finde es gut, dass AE einen einzelnen, einsamen Clip in der Timeline nach den gleichen Regeln abarbeitet (also als Layer-Content bedient, nicht als Video-Spur), die auch dann greifen, wenn weitere Ebenen dazukommen. Wäre es anders, würde das womöglich den verfügbaren Funktionsumfang einschränken, vor allem aber: es könnte sich auf das Ergebniss auswirken.
Beste Grüße,
Reiner
Antwort von dienstag_01:
Ich finde es gut, dass AE einen einzelnen, einsamen Clip in der Timeline nach den gleichen Regeln abarbeitet (also als Layer-Content bedient, nicht als Video-Spur), die auch dann greifen, wenn weitere Ebenen dazukommen. Wäre es anders, würde das womöglich den verfügbaren Funktionsumfang einschränken, vor allem aber: es könnte sich auf das Ergebniss auswirken.
Ich frag mal andersrum: Kennst du ein Programm, was eine Timeline mit mehreren Clip anders behandelt als mit einem einzelnen?
Was genau meint: *also als Layer-Content bedient, nicht als Video-Spur*? Du betonst das so. Weisst du da was oder glaubst du an die Überzeugungskraft differierender Begriffe?
Noch ein kleiner persönlicher Wunsch zum Schluß: wegen mir musst du hier keine Romane vefassen. Ich weiss wohl, dass hier alle für die gesamte videointeressierte Menschheit schreiben, aber deine den Text aufblähenden Vergleiche aus der Mechanik und Automobilindustrie sind ja hin und wieder mal ganz nett, aber...
Wie gesagt, das würde ich mir wünschen.
Antwort von Reiner M:
Was genau meint: *also als Layer-Content bedient, nicht als Video-Spur*? Du betonst das so. Weisst du da was oder glaubst du an die Überzeugungskraft differierender Begriffe?
Ein Unterschied ist der:
Beim Layer-Konzept wird eine Arbeitsbühne geschaffen. Diese Bühne besitzt unabhängig vom physischen Merkmalen bestimmter Objekte eigenständige Eigenschaften, von denen viele während der Arbeit variable bleiben.
Objekte werden als Layer in die Arbeitsbühne eingebracht. Dafür müssen sie an die Bühne angepasst werden.
Der Vorteil für die Verarbeitung: Die Merkmale der Bühne können jederzeit verändert werden, die Daten der Layer bleiben in korrekter Korrelation zu einander.
Der Nachteil: Die Umwandlungen sind aufwändig und wenn sie zur erst zur Anzeigezeit vorgenommen werden können, verlangsamen sie die Anzeige.
So arbeiten z.B. After Effects und Photohop.
Die Anpassung von Layer-Inhalten an die Bühnen-Parameter ist enormer Rechenaufwand. Dafür erhalte ich im Gegenzug die gewünschte Flexibilität in der Verarbeitung.
In AE kann ich also z. B. die fps der Komposition (Arbeitsbühne) jederzeit neu festlegen (gilt für weitere Parameter mit großen Auswirkungen gleichermaßen; Framesize, Render-Engine, Farbmodell, Pixelseitenverhältnis, usw. ). Sie befindet sich außerhalb des Objektes Video-Clip.
Durch eine Veränderung der fps verändert sich die Spieldauer des Clips nicht. Erst in einem zweiten Schritt werden also die Daten (Inhalte) der Layer an die neue Situation angepasst. Der Video-Content muss gewandelt werden, was zahlreiche Umrechnungen zur Folge hat.
Da dabei enorme Datenmengen anfallen, und bestimmte Parameter sowie die verfügbare Hardware eine Vorausberechnung nicht
erlauben, werden die Berechnungen der Anpassungen erst dann vorgenommen, wenn man sie braucht. Also z.B. unmittelbar vor der Anzeige/Ausgabe eines Frames.
Adobe hat in der CS6 dieses Problem mit dem neuen Cache etwas entschärft: Im Hintergrund findet die Vorausberechnung statt und wird im Cache zwischengespeichert.
In Premiere Pro z. B., das nicht Layer-basiert arbeitet, liegen Clips in Spuren und Sequenzen. Ich muss vor der Verarbeitung die Sequenz auf das zum Clip passende Format einstellen. Danach sind die Inhalte der Frames, also bestimmter Positionen, fix und können schneller verarbeitet werden. Im Gegenzug kann ich z. B. die fps-Rate einer Sequenz oder die Framesize, oder das Pixelseitenverhältnis nicht mehr ändern.
Eine Verlangsamung kann man auch hier beobachten, wenn z. B. die Frameraten von Sequenz und Clip nicht übereinstimmen. Aber dann muss Premiere Pro immer noch nur einen Parameter neu berechnen - nicht viele, wie beim Layer-Konzept.
Eine Video-Spur repräsentiert also direkt die Frames eines Clips mit ihren physischen Ausprägungen.
In einem Layer liegen nur Daten. Die übergeordnete Komposition repräsentiert das Ergebnis und vererbt ihre Eigenschaften dynamisch an die Layer.
Beste Grüße,
Reiner
Antwort von dienstag_01:
Ok, das leuchtet mir mehr oder weniger ein.
Wenn aber gar nichts verändert ist? Wenn, wie z.B. in meiner Frage gemeint, die Framerate des Clips mit der der Komposition übereinstimmt, warum tut sich da AE trotzdem so schwer? Übersehe ich da Schwierigkeiten/Komplexitäten? Dann wäre es Konzept von AE und keine Schwäche. Welche könnten das sein?
Ist der *unsichbare* Raum um das Kompositionsfenster bis hin zur maximal verarbeitbaren Auflösung plus noch die Z-Dimension einer der Gründe? Der entscheidende? Oder ist die Programmierung doch nur geschludert ;)
Antwort von Reiner M:
AE kann nicht wissen, dass Du nichts veränderst - in Deinem Sinn nichts veränderst. Es sieht das Video ja nicht.
In seinem eigenen Sinn muss es die Veränderungen technisch durchführen, denn sie sind da und auch nötig. Dein Video kommt z.B. mit einem YUV-Signal rein ...
Eine Umwandlung findet also sowieso immer statt. Sie besteht in AE eben aus sehr viel mehr Schritten als in einem Schnittprogramm.
Wir haben schon eine Zugriffsschicht mehr:
Es gibt das Quellformat (Video, Foto, usw.).
Es gibt das Datenformat innerhalb der Komposition (Layer), das z.B. keine fps oder Pixelseitenverhältnisse kennt.
Es gibt das Format der Komposition.
Es gibt das Anzeige-/bzw. Ausgabeformat.
In einem Schnittprogramm muss nur von Quellfomat nach Sequenzformat nach Anzeige-/Ausgabeformat konvertiert werden.
Beste Grüße,
Reiner
Antwort von dienstag_01:
AE kann nicht wissen, dass Du nichts veränderst
Ich denke, das kann AE sehr schnell wissen, dafür gibt es ja die die Eigenschaften der Quelle und dann die Eigenschaften der Komposition. Was aber AE zusätzlich abzufragen hat, sind die Eigenschaften der Ebene im Bezug zur Zeitmarke.
Vielleicht liegt es daran.
(Weiter denke ich heute nicht mehr darüber nach.)
Antwort von Reiner M:
Ich denke, das kann AE sehr schnell wissen, dafür gibt es ja die die Eigenschaften der Quelle und dann die Eigenschaften der Komposition.
Und die stimmen eben nicht überein. Nur in Deinem Sinn, als Anwender, nicht im Sinne des Systems. Das liegt womöglich daran, dass Du immer das Ergebnis siehst, wenn Du was siehst, nicht die Schritte davor.
Wenn Du Dir ein Video auf dem Bildschirm anschaust, ist das nicht der Inhalt der Datei des Videos, das Du gerade betrachtest. Es ist eine für die Anzeige aufbereitete Version davon.
Eine Quelle wird immer konvertiert. Z. B. muss das Farbmodell angepasst werden, ein Codec muss dekodiert werden usw. Es werden alle Schritte durchlaufen, die nötig sind, um von der Quelle zur Anzeige zu kommen.
Das ist applikationsabhängig. Ein Video-Player schafft das auf kurzem Weg, ein Schnittprogramm benötigt bereits Zwischenergebnisse, weil es möglich ist, Effekte anzuwenden und Videospuren zu stapeln (auch, wenn man das nicht nutzt) und wird deshalb immer langsamer reagieren und mehr Ressourcen verschlingen als ein Video-Player.
Die Kompositionsparameter unterscheiden sich übrigens auch noch eimal von den Parameterm der Ausgabe bzw. des Exports, die ich wiederum an Bedürfnisse anpassen kann und muss. Die Kompositionsparameter sind weder für die Anzeige noch für einen Export vollständig. Es fehlen noch Informationen, die für das Zielmedium benötigt werden, und die nachträglich das Ergebnis verändern. Auch da muss gewandelt werden.
Eine Information in der Quelldatei muss also mehrfach angefasst werden. Sie fließt mehrfach in Berechnungen ein und verändert sich unterwegs, damit daraus eine sichtbare Anzeige enstehen kann.
Auch Schnittprogramme machen das so, stützen sich aber auf weniger Parameter, haben eine Datenebene und die nötigen Konvertierungen weniger (keine Layer), arbeiten häufig mit konstanten Werten (wie fps, Pixelseitenverhältnis, Farbraum usw.) und mit begrenzten Arbeitsbereichen (fixe Framesize, nur eine räumliche Ebene, keine Beziehungen zwischen Video-Spuren, usw.). Die Folge: Die Daten sind schneller aufbereitet.
Systeme, die das mehrfache Konvertieren vermeiden wollen, stützen sich für den Export auf Smart-Rendering. Das geht aber auch nur für den Export in eine Datei, nicht für die Ausgabe auf den Bildschirm, weil z. B. native mpeg-Daten keine sinnvolle Anzeige ergeben. Der Vorteil für die Bearbeitungsphase (Cutter) ist klar, der Nachteil für das Ergebnis (Zuschauer) auch. Umstritten. Kommt eben darauf an, wen man glücklich machen will.
Für AE ist Smart-Rendering keine Option.
Beste Grüße,
Reiner
Edit: Ich hatte mal für Premiere Pro einen Ablaufplan gezeichnet, der das in etwa zeigt. Ist beigefügt.
Für AE wäre das Bild wesentlich komplexer. Die hereinkommenden Assets würden in der Komposition (an der Stelle, wo hier "Sequenz" steht) auf Layer verteilt werden, die einerseits unabhängig von einander aufbereitet und bearbeitet werden (ebenenspezifisch), andereseits (im Unterschied zu Schnittprogrammen) nach vom Anwender gestaltbaren Regeln miteinander verrechnet werden müssen.
Vor der Ausgabe, am Ende der Verarbeitungsphase, nach der Zusammenführung der Layer, würde noch die Anpassung der aus den Layern gewonnen Daten an die Komposition mit ihren Merkmalen stattfinden (z. B. fps), damit abschließend im Speicher das Ergebnis liegt, das die Komposition repräsentiert. Danach folgt die Trennung und Aufbereitung für Bildschirm (Vorschau) bzw. Export.
D. h., es kommen in AE gegenüber diesem Bild mehrere Arbeitsschritte hinzu, die von der CPU zu bewältigen sind. Aber es sind immer die gleichen. Gibt es mehr Layer oder Effekte, steigt nur die Anzahl nötiger Zwischenberechnungen, deren Ergebnisse für die Weiterverabeitung vorgehalten werden müssen. Das allerdings produziert erheblichen Rechenaufwand und riesige Datenmengen.
--------------------
Abschließend zu der Frage: Ist das nun schlecht designed im Vergleich zu einem Schnittprogramm? Nun, es ist anders. Genauso, wie sich auch ein Schnittprogramm in der internen Verarbeitung gewaltig von einem Video-Player unterscheidet, so unterscheidet sich AE von einem Schnittprogramm. Nicht vergleichbar.
Das Wesentliche ist: Ob Video-Player, Schnittprogramm oder AE - sie sind so konzipiert, dass sie den Zweck erfüllen, für den sie gedacht sind. Und da unterscheiden sich die Programme deutlich voneinander, was eben unterschiedliche Methoden und Verfahren in der Programmierung bedingt.