Seite 2 von 2

Re: Künstliche Intelligenz einfach erklärt - Perzeptron, Backpropagation und Loss

Verfasst: Do 10 Aug, 2023 11:08
von Jalue
@TheBubble: Habe deine Antwort erst jetzt entdeckt (die "Slashcam-KI" benachrichtigt scheinbar nicht immer zuverlässig über Antworten ;-). Vielen Dank, dass du dir die Mühe machst, diese komplexe Materie so ausführlich zu erklären!

Die Funktionsweise ist mir nun etwas, wenn auch keinesfalls hinreichend klar. Die für mich interessantesten Eindrücke:

- Die hier besprochenen KI's können noch nicht autonom dazulernen (so wie ein Mensch sich vielleicht sagt: "Ah, das Thema interessiert mich jetzt, dazu sammele ich mal Informationen und bilde mir eine Meinung."), sie können nur verknüpfen, kombinieren und gewichten, womit man sie gefüttert hat.

- Es ist ständig von "Black Boxen" die Rede und du gibst auch zu, dass niemand völlig versteht, was wo genau in diesen neuronalen Netzwerken geschieht, nicht einmal jemand wie du, der Experte zu sein scheint. Erinnert ein bisschen an die gain-of-function-Forschung in der Virologie. Man könnte daraus schlussfolgern, dass es sich um eine Hochrisiko-Technologie handelt, spätestens dann, wenn man ihr Entscheidungen überlässt, die über das "Malen bunter Bildchen" hinausgehen.

Re: Künstliche Intelligenz einfach erklärt - Perzeptron, Backpropagation und Loss

Verfasst: Do 10 Aug, 2023 15:06
von cantsin
TheBubble hat geschrieben: Mo 07 Aug, 2023 23:03
Jalue hat geschrieben: Sa 05 Aug, 2023 13:31 Das wird nun an den nächsten Layer aus Neuronen weitergeleitet, in dem, so meine Vermutung, die Ergebnisse aus dem ersten Layer weiter summiert und fehlerkorrigiert werden. Je mehr Neuronen pro Layer und je mehr Layer insgesamt, desto präziser das Endergebnis und desto schneller der Prozess. So in etwa?
Ob ein oder mehrere Schichten muss man als Blackbox sehen, die vom Problem abhängt. Jedenfalls kann man nicht grundsätzlich sagen, dass viele Schichten und viele Neuronen immer bessere Ergebnisse liefern (im Extremfall werden überflüssige Neuronen durch entsprechende Null-Gewichte einfach ausgeblendet).

Man kann auch nicht grundsätzlich sagen, dass weitere Schichten ein Ergebnis verfeinern, so dass man z.B. schon nach der Hälfte der Schichten abbrechen könnte, um ein zwar ungenaueres aber doch in die richtige Richtung gehendes Ergebnis zu extrahieren.

Je nach Aufgabenstellung könnte sogar eine Schicht bestehend aus einem einzigen Perzeptron ausreichen (z.B. Nachbildung der booleschen NAND Funktion mittels Perzeptron).
Mal 'ne neugierige Praxisfrage: Entspricht die bei Stable Diffusion in "Steps" einstellbare Rechentiefe der Anzahl der Schichten des neuronalen Netzwerks? Denn der Effekt dieses Parameters ist ziemlich genau der oben beschriebene.