Frage von hinhey.chung@googlemail.com:Hallo,
ich will ein Backup von einer DVD mit DVD-Shrink machen,
meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
dauert?
Die Rate beträgt gerade mal um die 1000 kb/s.
Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
könnte.
Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
sollte es doch schneller gehen, oder nicht?
Eigenartig ist auch, dass bei einer anderen DVD beim Backup die Größe
der Auslagerungsdatei unaufhörlich steigt, bis es das Maximum erreicht
hat und dann bricht der ganze Prozess ab.
Wäre für jeden Lösungsansatz dankbar
Antwort von Benjamin Spitschan:
hinhey.chung@googlemail.com schrieb:
> ich will ein Backup von einer DVD mit DVD-Shrink machen,
> meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
> dauert?
> Die Rate beträgt gerade mal um die 1000 kb/s.
> Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
> könnte.
> Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
> sollte es doch schneller gehen, oder nicht?
Genau daran liegt es. DVDShrink benutzt (;RAM-)Buffer von AFAIK 80MB
Größe, die zuerst vollgeschrieben und dann auf Platte entleert werden.
Wenn Deine Maschine nun die ganze Zeit rumswappen muß, dauert es Ewigkeiten.
> Eigenartig ist auch, dass bei einer anderen DVD beim Backup die Größe
> der Auslagerungsdatei unaufhörlich steigt, bis es das Maximum erreicht
> hat und dann bricht der ganze Prozess ab.
S. o.
> Wäre für jeden Lösungsansatz dankbar
RAM kaufen. Wundert mich sowieso, daß Du mit 256MB und DVD-Brennen usw.
glücklich wirst...
Grüße, Benjamin
Antwort von Günter Hackel:
On 22.12.2005 13:49, hinhey.chung@googlemail.com wrote:
> Hallo,
>
> ich will ein Backup von einer DVD mit DVD-Shrink machen,
> meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
> dauert?
> Die Rate beträgt gerade mal um die 1000 kb/s.
> Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
> könnte.
> Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
> sollte es doch schneller gehen, oder nicht?
Wie denn, 256MB ist jenseits von allem, was gut laufen kann. Wenn Du
Videobearbeitung machen willst und auch solche Geschichten flüssig
laufen sollen, sind, abhängig vom Betriebssystem 512MB bis 2GB sinnvoll,
gh
Antwort von Christian Schroeder:
Günter Hackel schrieb:
> On 22.12.2005 13:49, hinhey.chung@googlemail.com wrote:
>
>> Hallo,
>>
>> ich will ein Backup von einer DVD mit DVD-Shrink machen,
>> meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
>> dauert?
>> Die Rate beträgt gerade mal um die 1000 kb/s.
>> Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
>> könnte.
>> Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
>> sollte es doch schneller gehen, oder nicht?
>
>
> Wie denn, 256MB ist jenseits von allem, was gut laufen kann. Wenn Du
> Videobearbeitung machen willst und auch solche Geschichten flüssig
> laufen sollen, sind, abhängig vom Betriebssystem 512MB bis 2GB sinnvoll,
Da muss ich Ralf rechtgeben. Normalerweise ist da der RAM ziemlich
wurst, der limitierende Faktor bei DVD-Shrink ist entweder die
Auslesegeschwindigkeit des Laufwerks oder die CPU-Geschwindigkeit.
--
Gruß Chris
Wir müssen uns Sisyphos als glücklichen Menschen vorstellen!
Antwort von Volker Abraham:
hinhey.chung@googlemail.com wrote:
> Hallo,
>
> ich will ein Backup von einer DVD mit DVD-Shrink machen,
> meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
> dauert?
> Die Rate beträgt gerade mal um die 1000 kb/s.
> Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
> könnte.
> Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
> sollte es doch schneller gehen, oder nicht?
>
> Eigenartig ist auch, dass bei einer anderen DVD beim Backup die Größe
> der Auslagerungsdatei unaufhörlich steigt, bis es das Maximum erreicht
> hat und dann bricht der ganze Prozess ab.
>
> Wäre für jeden Lösungsansatz dankbar
Die DVD ist kopiergeschützt?!
--
MfG Volker
Antwort von Manfred Ginger:
hinhey.chung@googlemail.com wrote:
> ich will ein Backup von einer DVD mit DVD-Shrink machen,
> meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
> dauert?
Für ein reines Backup ist das nicht normal.
Falls Du gleichzeitig aber noch shrinkst, könnte ich mir,
je nach Programmeinstellung, Hardware und erforderlichem
Komprimierungsgrad, Laufzeiten von 2 Stunden durchaus vorstellen.
> Die Rate beträgt gerade mal um die 1000 kb/s.
Antwort von Hans-Georg Michna:
On 22 Dec 2005 04:49:51 -0800, hinhey.chung@googlemail.com
wrote:
>ich will ein Backup von einer DVD mit DVD-Shrink machen,
>meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
>dauert?
>Die Rate beträgt gerade mal um die 1000 kb/s.
>Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
>könnte.
>Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
>sollte es doch schneller gehen, oder nicht?
>
>Eigenartig ist auch, dass bei einer anderen DVD beim Backup die Größe
>der Auslagerungsdatei unaufhörlich steigt, bis es das Maximum erreicht
>hat und dann bricht der ganze Prozess ab.
>
>Wäre für jeden Lösungsansatz dankbar
Zum Abbruch kann ich nichts sagen, aber die Geschwindigkeit ist
für einen langsameren Computer normal, wenn du rekomprimierst.
Wie schnell ist denn der Prozessor?
Hans-Georg
--
No mail, please.
Antwort von Detlef Wirsing:
Christian Schroeder schrieb am 23. Dezember:
> Günter Hackel schrieb:
> > On 22.12.2005 13:49, hinhey.chung@googlemail.com wrote:
> >
> >> Hallo,
> >>
> >> ich will ein Backup von einer DVD mit DVD-Shrink machen,
> >> meine Frage ist nun, ist es normal, dass der Prozess über 2 Std
> >> dauert?
> >> Die Rate beträgt gerade mal um die 1000 kb/s.
> >> Mein Laufwerk läuft unter Ultra-DMA-Modus 2, kA woran es liegen
> >> könnte.
> >> Vielleicht daran, dass mein Rechner nur 256mb RAM hat, aber trotzdem
> >> sollte es doch schneller gehen, oder nicht?
> >
> >
> > Wie denn, 256MB ist jenseits von allem, was gut laufen kann. Wenn Du
> > Videobearbeitung machen willst und auch solche Geschichten flüssig
> > laufen sollen, sind, abhängig vom Betriebssystem 512MB bis 2GB sinnvoll,
>
> Da muss ich Ralf rechtgeben. Normalerweise ist da der RAM ziemlich
> wurst, der limitierende Faktor bei DVD-Shrink ist entweder die
> Auslesegeschwindigkeit des Laufwerks oder die CPU-Geschwindigkeit.
Entschuldigt bitte das Vollzitat, aber da darf nichts fehlen. Ich habe
hier 2 PCs - einen AMD 2000 und einen AMD 3200 . Der erste hat 256
MB, der zweite 1 GB Arbeitsspeicher. Bei meinen nicht verschlüsselten
eigenen Aufnahmen (;DVB), die ich auf DVD bringen möchte, entspricht
der Unterschied in der Rechenzeit von DVD-Shrink dem Unterschied in
der Prozessorleistung. Ich sehe keinen Zusammenhang zwischen
DVD-Shrink und Speicherbestückung, zumindest nicht in diesem Rahmen.
Mit freundlichen Grüßen
Detlef
Antwort von Detlef Wirsing:
Hans-Georg Michna schrieb:
[...]
> Zum Abbruch kann ich nichts sagen, aber die Geschwindigkeit ist
> für einen langsameren Computer normal, wenn du rekomprimierst.
[...]
Ich glaube, daß sich die Rechenzeit erhöht, je mehr komprimiert werden
muß. Also würde 100 auf 90% schneller gehen als 100 auf 80%. Da ich
nie darauf achten mußte, ist diese Aussage aber mit Vorsicht zu
genießen. Bei Bedarf kann ich gern mal darauf achten. Verständlich
wäre es allerdings für meine Begriffe.
Mit freundlichen Grüßen
Detlef
Antwort von Andre Beck:
Detlef Wirsing
writes:
> Hans-Georg Michna schrieb:
>
> Ich glaube, daß sich die Rechenzeit erhöht, je mehr komprimiert werden
> muß. Also würde 100 auf 90% schneller gehen als 100 auf 80%. Da ich
> nie darauf achten mußte, ist diese Aussage aber mit Vorsicht zu
> genießen. Bei Bedarf kann ich gern mal darauf achten. Verständlich
> wäre es allerdings für meine Begriffe.
Bei einem CDT wäre ein mehr als zufälliger Zusammenhang zwischen der
(;Neu)Quantisierungsstufe und der Laufzeit überhaupt nicht verständlich.
Ein marginaler Einfluss ist denkbar, weil die neu quantisierten Koeffi-
zienten natürlich andere Einflüsse auf das folgende Entropie- und Lauf-
längencoding haben, aber die dürften sich statistisch eher rausmitteln.
Im Endeffekt erzeugt eine höhere Quantisierung dann weniger Daten, die
weggeschrieben werden müssen, und ist daher tendenziell sogar schneller.
Das ist natürlich auch geraten, erschiene *mir* aber verständlich ;)
--
The S anta C laus O peration
or "how to turn a complete illusion into a neverending money source"
-> Andre "ABPSoft" Beck ABP-RIPE Dresden, Germany, Spacetime <-
Antwort von Hans-Georg Michna:
On Mon, 26 Dec 2005 14:49:18 0100, Andre Beck wrote:
>Detlef Wirsing writes:
>> Hans-Georg Michna schrieb [nicht]:
>> Ich glaube, daß sich die Rechenzeit erhöht, je mehr komprimiert werden
>> muß. Also würde 100 auf 90% schneller gehen als 100 auf 80%. Da ich
>> nie darauf achten mußte, ist diese Aussage aber mit Vorsicht zu
>> genießen. Bei Bedarf kann ich gern mal darauf achten. Verständlich
>> wäre es allerdings für meine Begriffe.
>Bei einem CDT wäre ein mehr als zufälliger Zusammenhang zwischen der
>(;Neu)Quantisierungsstufe und der Laufzeit überhaupt nicht verständlich.
>Ein marginaler Einfluss ist denkbar
Das leuchtet mir auch eher ein. Ich hatte das da oben auch nicht
geschrieben.
Hans-Georg
--
No mail, please.
Antwort von Manfred Ginger:
Andre Beck wrote:
>> Ich glaube, daß sich die Rechenzeit erhöht, je mehr komprimiert werden
>> muß. Also würde 100 auf 90% schneller gehen als 100 auf 80%.
>
> Bei einem CDT wäre ein mehr als zufälliger Zusammenhang zwischen der
> (;Neu)Quantisierungsstufe und der Laufzeit überhaupt nicht verständlich.
> Ein marginaler Einfluss ist denkbar, weil die neu quantisierten Koeffi-
> zienten natürlich andere Einflüsse auf das folgende Entropie- und Lauf-
> längencoding haben, aber die dürften sich statistisch eher rausmitteln.
> Im Endeffekt erzeugt eine höhere Quantisierung dann weniger Daten, die
> weggeschrieben werden müssen, und ist daher tendenziell sogar schneller.
Könnten "deep analysis" oder "high quality adaptive error compensation"
die Laufzeit, je nach Quantisierungsstufe, beeinflussen?
> Das ist natürlich auch geraten, erschiene *mir* aber verständlich ;)
Antwort von Andre Beck:
Manfred Ginger writes:
> Andre Beck wrote:
>
>> Bei einem CDT wäre ein mehr als zufälliger Zusammenhang zwischen der
>> (;Neu)Quantisierungsstufe und der Laufzeit überhaupt nicht verständlich.
>> Ein marginaler Einfluss ist denkbar, weil die neu quantisierten Koeffi-
>> zienten natürlich andere Einflüsse auf das folgende Entropie- und Lauf-
>> längencoding haben, aber die dürften sich statistisch eher rausmitteln.
>> Im Endeffekt erzeugt eine höhere Quantisierung dann weniger Daten, die
>> weggeschrieben werden müssen, und ist daher tendenziell sogar schneller.
>
> Könnten "deep analysis" oder "high quality adaptive error compensation"
> die Laufzeit, je nach Quantisierungsstufe, beeinflussen?
Da ich nicht weiß, wie diese Features genau implementiert sind, ist es
nicht ausgeschlossen, dass sie auf eine höher eingestellte Kompression
mit einer Laufzeitzunahme reagieren. Gerade "deep analysis" klingt so,
als würde man zunächst ausgiebig das Quellmaterial begutachten, um den
jeweils optimalen Quantisisierungsverlauf zu ermitteln, und je "deeper"
man das einstellt, um so länger wird es sicher dauern. Ich wollte nur
darauf hinaus, dass ein CDT an sich keine Abhängigkeit der Komplexität
von der Quantisierungsstufe selbst zeigt. Alle problematischen Dinge
sind schon passiert (;MV-Suche, MB-Typentscheidung mit eventuellem
Backtracking etc), der CDT packt nur einen Haufen Zahlen aus einem Lauf-
längen-Entropie-Code aus, rundet sie etwas grober als sie vorher waren
und packt sie wieder in RLE Huffman ein. Allerdings ist es nicht ganz
trivial, ihn bei dieser Rundung optimal zu parametrisieren, und in dieser
Logik kann durchaus variabel viel Rechenzeit verbrannt werden.
--
The S anta C laus O peration
or "how to turn a complete illusion into a neverending money source"
-> Andre "ABPSoft" Beck ABP-RIPE Dresden, Germany, Spacetime <-
Antwort von Sven Bötcher:
Benjamin Spitschan schrieb:
> RAM kaufen. Wundert mich sowieso, daß Du mit 256MB und DVD-Brennen usw.
> glücklich wirst...
Entschuldigung aber das ist absoluter Unfug. Bei mir steht ein alter
Celeron 1100 mit 256 MB SDRAM und 98SE rum, der um noch zu irgendetws
nutze zu sein, als reiner Brenn-PC nochmal mit einem DVD-Brenner
ausgestattet wurde.
Der zieht mit AnyDVD und DVD-Shrink jede Video-DVD aus der Videothek in
max. 30 Minuten rüber wenn nicht grade Tiefenanalyse und
Qualitätsverbesserungen aktiviert sind. Daran kannes also nicht liegen.
Und jetzt bitte mal ein paar Gründe, warum man grade für solche Lapalien
wie DVD brennen einen Monster-Ram benötigen sollte. Da werden ein paar
Daten über den IDE-Bus geschoben und das war's. Dafür wird fast gar kein
Speicher für benötigt. Erst beim konvertieren und rendern wird
CPU-Leistung verlangt.
Bye
Sven