-paleface- hat geschrieben: ↑Mi 07 Aug, 2019 04:07
Hab mich immer gefragt warum Blender so. Klein ist. Von der Datenmenge.
Was ist deren Geheimnis?
nix geheimnisvolles:
- Marketing: wer Geld auf den Tisch legt will dafür auch viele Bits bekommen.
- Programierstil: man kann zB große Matrizen erst zur Laufzeit anlegen, man kann die
aber auch (leer) in den Quellcode mit rein-programmieren. Letzteres beschleunigt
(meist unmerklich) den Programmstart etwas.
- dyn Libraries: etliche Encoder/decoder sind im System schon enthalten und müssen nicht nochmals
neu installiert werden. Dadurch können aber auch gelegentlich inkompatibilitäten zw den
unterschiedlichen Release-Kombinationen auftreten.
- shared Progs: jedes Prog ist im System nur einmal für alle enthalten, nicht für jedes Programm/user eine eigene
inkarnation.
In der Gründerzeit der Microcomputer hatten wir in 56 KB Ram (ja, KiloByte!) Multitasking- und Multiuser-betrieb
gemacht. War alles hochoptimiert. Macht aber kaum noch jemand, weil's mehr Aufwand bedeutet:
je größer desto geringer optimiert. Wie beim cutting:
der 1. Rohschnitt ist immer größer als alles folgende optimierte.