Newsmeldung von slashCAM:Allen, die bis dato immer noch bezweifeln, dass Neuronale Netze die Videobearbeitung dramatisch beeinflussen werden, sei dieses Video ans Herz gelegt. Zuerst ist das unb...
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Neuronale Netze verändern Videostil (und die VFX-Zukunft)
Antwort von rainer7u5:
Wir haben es ja schon bei Instagram-Filtern gesehen, die es als Film-LUTs in professionelle Projekte geschafft haben. Am Ende ist es halt die kreative Entscheidung eines Profis, ob ein Filter die kreative Aussage eines Films / einer Szene unterstützt.
Aber das Rennen ist eben, dass ein Hobbyanwender mit ein paar Klicks das erreicht, wofür ein Profi viel Zeit benötigt. Weil bei dem halt die Frage nach der kreativen Aussage wichtiger ist.
Oder mit einem anderen Beispiel: Natürlich kann ich wie Joseph Beuys Butter in die Zimmerecke tun, aber deswegen ist meine „Installation“ noch lange kein Kunstwerk. Seine schon. Mit den Worten von Joseph Beuys:
„Eine Fettecke ist ja nicht deswegen gemacht, um einen Tisch mit Fett zu beschmieren, sondern ... um als Fettecke im Gegensatz zu stehen.“
(Wikipedia zur Fettecke)
Antwort von StanleyK2:
Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Antwort von Rudolf Max:
StanleyK2: 1+++
Schon bald mal können gewisse Leute ihr Gehirn irgendwo zur Aufbewahrung abgeben...
Damit es ihnen ob all dem technischen Scheiss, der heute oftmals in Umlauf gebracht wird sicher nicht in die Quere kommt...
Rudolf
Antwort von tommyb:
Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Wenn man es nicht so übertrieben macht wie im Beispielvideo, könnte man z.B. das Material von zwei Kameras besser aufeinander abstimmen. Dann müssen die Canonfarben-Liebhaber nicht mehr heulen wenn ihnen das kalte und technische Sony-Bild vorgesetzt wird. Alles ohne große Experimente am Farbendrehregler.
Antwort von WoWu:
Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Vielleicht ist das ja eine praxisnähere Anwendung von solchen Algorithmen für Dich ?
Und nebenbei bemerkt, nutzt Du einige davon schon, wenn Du 4K machst.
Antwort von sgywalka is back:
WUNDERBAR!
Das lässt einen aufhorchen, wenn in etwa 24 bis 36 Kanäle offen sind, wenn so eine
Produktion rennt, und wir vom Audiokomponisten, der am Vfx-truppklebt mit dem
Coloristen rdet, der der dame vom Schnitt auf den Fersen ist und so weiter..
Und des ist nur eine Möglichkeit von vielen, die weiderum je nach Butget und Backward-loop, schon in einer Vorproduktion hart an die Grenzen geht, wo nix dem ZUfall
übrlassen wird..aber immerhin.
Mir würde taugen, wenn einen nEURONALE SCHNITTSTELLE zwischen den Departments
hängt und schon beim Dreh passt das Teril auf, was später INROW gebracht wird.
Wenn dann der ganze Schnickschnack noch im Grünen seine orgiastische Tsching bum findet, dann erst recht, aber ne Frage:
Wer von euch macht Z-brush? nix. wieso net? na alls dann schon bei dem an der Quelle
ducken sich ale hinter dem roten RECORDBUTTON einer Kamera...:)
Wie soll dieses neuronale Netz wissen, was ich experoímentiere, wen ich nun einen drufflege, damit sich die AUTORENFILM_freunde einen runterholen können?
Ich frag nur, weil wir so nebenher Neuronale Netzt programmieren um aus reinem Spass
12 Drohnen das Farbpinsel3dfusball bei bringen, um damit mal bei einer IT-WM dabei zu sein,
Damit der Scheisser des tut, arbeite er immer nur das ab, was ihm exitent gemacht wurde.
ES GIBT KEIN " DAVOR" auch wenn es gelbblau im Gesicht ist und singen kann :)
Das wäre methaphysisch und damit kanns kein Bier brauen..
immer will des Dumchen von der Strass.. das es mit Null Arbeit ohne Idee und Denken passiert... nogo
Antwort von Rudolf Max:
Hallo wowu,
Das von dir eingestellte Demobild ist doch ein Fake... gibs zu...
Wenn es nämlich echt wäre, wäre ich mit meiner uralten mini-DV Kamera Schärfe- und Auflösungsmässig auch heute noch noch voll dabei...
Es wäre ja ein Witz, eine teure und extrem hochauflösende Kamera zu kaufen, wenn es denn auch mit so wenig Schärfe wie im ersten gezeigten Bild ginge, ein sauberes Bild daraus zu entwickeln...
Ich schicke dir gerne mal ein Standbild meiner damaligen min-DV Kamera (Sony PC-110) und du machst mir daraus zumindest ein schönes FHD Bild...
Wenn du das hinbekommst, verkaufe ich meine neue Sony RX-10 sofort, und filme wieder mit meiner alten Kamera... und lasse den Rest die neuronale Software machen...
Jeder ein Depp, der teures Geld für 4k ausgibt, wenn es auch mit SD und Neuronen geht... oder ginge...
Rudolf
Antwort von WoWu:
Jeder ein Depp, der teures Geld für 4k ausgibt, wenn es auch mit SD und Neuronen geht... oder ginge...
Sag ich doch die ganze Zeit.
Die Bilder sind aus der Videoforensic, also aus intensiven Nachbearbeitungen auf der Basis unterschiedlicher Rekonstruktionsalgorithmen und sind an einer russischen Universität entstanden. (mit dazugehöriger Herleitung)
Auch das folgende Beispiel stammt aus der Forensic einer US Firma.
Da wirst Du auch fündig, wenn Du mal googelst.
Das heisst weder, dass solche Algorithmen in heutigen PCs arbeiten, noch dass sie billig sind aber die Ansätze laufen bereits in den Kameras und erledigen die 4K Subpixelberechnung.
Die folgenden Bilder sind Sceenshots aus einer Videosequenz.
Die Zeit der Pixels ist bald vorbei.
Antwort von cantsin:
Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Die Imitation eines technischen Stils ist doch nur ein Vorbild für NN-Anwendungen. Ausserdem geht der viel weiter, als viele hier denken: Es reicht eben, einem NN-Programm ein Beispielbild zu geben, und dann wird ein Filter berechnet, der dessen Bildstil auf ein komplettes Video anwendet. Das können auch selbstgeschossene Bilder sein.
Selbst das Hochrechnen von irgendwelchem uralt-SD-Amateurkamera-Material zu Kinobildern ist damit theoretisch machbar. Das könnte noch massive Auswirkungen auf künftige Kameraentwicklungen haben - dass man nämlich nur noch Handykameras baut, deren Bilder durch NN-Algorithmen zu Alexa-Qualität hochgerechnet werden.
Antwort von cantsin:
Ach nee, wieder so ein rein technischer Quark. Was ist daran kreativ, irgendeinen grafischen Stil zu immitieren? Welche Aussage soll das bringen ausser: aha- ganz witzig? Was soll/will VFX überhaupt? Viel zu oft reiner Selbstzweck. Und NN muss natürlich auch sein? Gähn ...
Die Imitation eines technischen Stils ist doch nur ein Vorbild für NN-Anwendungen. Ausserdem geht der viel weiter, als viele hier denken: Es reicht eben, einem NN-Programm ein Beispielbild zu geben, und dann wird ein Filter berechnet, der dessen Bildstil auf ein komplettes Video anwendet. Das können auch selbstgeschossene Bilder sein.
Selbst das Hochrechnen von irgendwelchem uralt-SD-Amateurkamera-Material zu Kinobildern ist damit theoretisch machbar. Das könnte noch massive Auswirkungen auf künftige Kameraentwicklungen haben - dass man nämlich nur noch Handykameras baut, deren Bilder durch NN-Algorithmen zu Alexa-Qualität hochgerechnet werden.
(EDIT: Hatte eine ältere Version dieses threads im Speicher und WoWus Beiträge noch nicht gelesen. Ja, genau diese Sachen laufen jetzt, und zwar nicht nur bei Bildbearbeitung. Wir stehen gerade vor einer massiven Revolution durch Deep Learning-KI, die noch ungeahnte Auswirkungen auf Gesellschaft und Wirtschaft haben wird.)
Antwort von Rudolf Max:
@ WoWu:
Ich glaube es einfach nicht, dass aus solch unscharfen Bildern so viel herauszuholen ist, egal, ob neuronal oder wie auch immer...
Umgekehrt kann ich es auch: Ein scharfes Bild zu unscharf machen und es dann als gegenteilig anbieten...
Aber das ist alles blosse Esoterik... wo nichts ist, kann auch nichts daraus gemacht werden...
Ich halte mich lieber an gesunde Logik...
Rudolf
Antwort von WoWu:
Ja, ja ... das ist das Problem.
Wenn man aber einmal der Logic der Algorithmen folgt, dann versteht man auch, woher die scheinbar fehlenden Informationen kommen oder wie sie generiert werden.
Domain hat glaube ich, vor einiger Zeit den Link mal gepostet, ich müsste länger recherchieren, bis ich ihn wiederfinde, aber wenn Du da mal nachliesst, wirst Du ganz sicher nochmal über die eigene Logic nachdenken müssen.
Ich vermute auch, dass der neue SONY RAW Codec entweder darauf, oder auf Vektoren aufbaut und uns die erste, vielleicht noch nicht so aufwändige Anwendung bietet.
Aber das werden wir noch sehen.
Jedenfalls würde ich heute auch in keine 4K Kamera mehr investieren, solange sie das nicht optisch umsetzt, denn da liegt auch die Grenze zwischen Algorithmen und der Realität. Überraschungen im Bild, darf es nicht geben. Die fallen nämlich im VFX hinten runter.
Antwort von cantsin:
@ WoWu:
Ich glaube es einfach nicht, dass aus solch unscharfen Bildern so viel herauszuholen ist, egal, ob neuronal oder wie auch immer...
Sieh mal hier: https://arxiv.org/pdf/1501.00092.pdf
Antwort von StanleyK2:
...Wir stehen gerade vor einer massiven Revolution durch Deep Learning-KI, die noch ungeahnte Auswirkungen auf Gesellschaft und Wirtschaft haben wird.)
Oder auch nicht. Lobbyisten und Politik-Papageien sind Weltmeister im Buzzword-Bullshit-Bingo.
Natürlich ist echte Forschung wichtig und mitunter kommt da etwas praktisch nutzbares dabei heraus.
Aber sehen wir mal die jüngere Vergangenheit: Big Data und Deep Learning sind da typische Hypes (Quantencomputer lass ich extra mal weg). Nicht alles ist da Unsinn, aber was haben einige PR-trächtige Großprojekte für eine Relevanz für die allgemeine Praxis?
Ich bin seit vielen Jahren im Bereich der technischen Informatik und auch deren Anwendung in angewandter Forschung tätig und kann versichern: was soll man da von Big Data und Deep Learning träumen, wenn flächendeckend selbst "small data" und "flat learning" ein Problem ist und noch lange bleiben wird oder angesichts der wirtschaftlichen und gesellschaftlichen Entwicklung noch problematischer wird?
Antwort von WoWu:
Und was haben solche Philosophischen Fragen mit der Umwandlung von Bildern zu tun ?
Behauptet doch kein Mensch, dass Otto Normalverbraucher das nachvollziehen soll. Schließlich glaubt er ja auch jetzt schon, er bekommt 4K Bildinhalte wo er nur 4K Pixelmenge bekommt.
Selbst so triviale Einzelheiten können also nicht mal nachvollzogen werden und werden trotzdem angewandt.
Das solche Algorithmen (selbst in Deutschland) angekommen sind, hat bereits 2009 die ARD mit der Aufbereitung der Analogmaz aus den 60ern gezeigt "Soweit die Füße tragen".
Das musste auch kein Zuschauer verstehen, warum es in den 60ern schon HDTV gab.
Antwort von StanleyK2:
Und was haben solche Philosophischen Fragen mit der Umwandlung von Bildern zu tun ?
Behauptet doch kein Mensch, dass Otto Normalverbraucher das nachvollziehen soll. Schließlich glaubt er ja auch jetzt schon, er bekommt 4K Bildinhalte wo er nur 4K Pixelmenge bekommt.
Selbst so triviale Einzelheiten können also nicht mal nachvollzogen werden und werden trotzdem angewandt.
Das solche Algorithmen (selbst in Deutschland) angekommen sind, hat bereits 2009 die ARD mit der Aufbereitung der Analogmaz aus den 60ern gezeigt "Soweit die Füße tragen".
Das musste auch kein Zuschauer verstehen, warum es in den 60ern schon HDTV gab.
Ich bleibe keineswegs im Philosophischen stecken. Aber eine Detaildiskussion würde hier zu weit führen. Umwandlung von Bildern ist nur ein praktisches Problem, und insgesamt betrachtet sogar ein relativ einfaches. Nix big und nix deep.
"Soweit die Füsse tragen" ist insofern ein schlechtes Beispiel, als dass sich die Geschichte - ursprünglich als Tatsachenroman vermarktet - letztlich als Märchen entpuppt hat (wer will das überhaupt noch sehen?).
Aber richtig ist, das man alte MAZ so pimpen kann, dass es nett aussieht, nur ist es dann eine gebügelte und nach gewissen Regeln, Annahmen und Vergleichen ergänzte Restauration, aber kein HD-Original. Ein look-alike, aber nicht die Wahrheit.
(Nebenbei: was man bei 4k wirklich an Information oder nur an Pixelmenge bekommt, kann jeder experimentell leicht feststellen, da braucht man nicht zu orakeln.)
Antwort von WoWu:
Das ist wohl wahr, nur bleibt es bei 90% derer hier im Forum beim Orakeln und einem unerschütterlichen Glauben, tatsächlich 4K Bildinhalte zu haben.
Und ob die Sendung nun Fiction war oder Wahrheit, spielt für das Up-Scaling zu HDTV auch keine Rolle und darum geht es hier je letztlich.
Und was das "look a like" angeht, davon gibt es heute fast schon unzählige Kameras, die 4K auch nur "künstlich" zur Verfügung stellen.
Die SMPTE ist dabei, neue Testbilder und Methoden zu entwickeln, die ausschließlich reale Bildinhalte zeigen und keine "look a like" Kanten, auf die derzeit noch die Meisten reinfallen.
Antwort von Rudolf Max:
Na ja, wünschenswert wäre es ja schon, wenn man totale unscharfe Bilder so wunderbar schärfen und aufblasen könnte. Dann reicht dann sogar ein billiger Flaschenboden als Objektiv. Grundsätzlich ist dagegen ja nichts einzuwenden...
Was mir irgendwie ein bisschen Angst macht, ist der Gedanke, dass ich irgendwann noch nicht mal eine Kamera mehr brauche, um volles und absolut scharfes UHD zu bekommen...
Okay, wenn mir dann auch gleich noch die NLE abhanden käme, wäre ich nicht mal so unglücklich, die ist es ja eigentlich, die mich immer mehr "einschüchtert" ob all dem (für mich total sinnlosem...) Zeugs, die sie heute beinhaltet und erst noch in irgend einer Wolke ist, obwohl ich eine grosse HD besitze...
Ein virtueller Beamer würde das aber wieder einigermassen wett machen, könnte ich mir dann also eine grosse und teure Glotze sparen...
Ach ja, eine Glotze braucht man dannzumal ja wohl auch nicht mehr... da reicht dann ein HDMI Anschluss im Nacken, schon sieht man den Film im Kopf... in 3D und in HDR natürlich...
Rudolf
Antwort von Frank Glencairn:
Oder auch nicht. Lobbyisten und Politik-Papageien sind Weltmeister im Buzzword-Bullshit-Bingo.
Ja, seh ich genau so.
Ein "Quantensprung" ist die kleinste Bewegung die wir kennen, noch dazu auf ein niedrigeres Niveau, KI ist genau betrachtet nur Statistik mit Datenbankanbindung, und Neuronale Netze haben überhaupt nix mit Nervenzellen (Neuronen) zu tun.
Worte sind mittlerweile wichtiger als Taten, willkommen in der Matrix.
Antwort von WoWu:
Na ja, nur das die "Taten" schon kräftig in Euern Kameras rumwerkeln.
Man kann das nun ignorieren und das nehmen, was kommt, oder sich überlegen, welche "Bildsprache" man benutzt.
Es ist immer eine Frage des Anspruchs und der eigenen Fähigkeiten und weniger eine Frage, wie soetwas genannt wird denn Fakten auf die Semantik zu reduzieren hat noch nie Fortschritt gebracht.
Und was den Quantensprung betrifft, so ist es weniger eine Frage der Größe als vielmehr eine Frage des Zustands, denn Quantensprünge finden immer zwischen unterschiedlichen Zuständen statt, sind als, genau betrachtet, riesige Veränderungen.
Antwort von freezer:
Jeder ein Depp, der teures Geld für 4k ausgibt, wenn es auch mit SD und Neuronen geht... oder ginge...
Sag ich doch die ganze Zeit.
Die Bilder sind aus der Videoforensic, also aus intensiven Nachbearbeitungen auf der Basis unterschiedlicher Rekonstruktionsalgorithmen und sind an einer russischen Universität entstanden. (mit dazugehöriger Herleitung)
Auch das folgende Beispiel stammt aus der Forensic einer US Firma.
Da wirst Du auch fündig, wenn Du mal googelst.
Das heisst weder, dass solche Algorithmen in heutigen PCs arbeiten, noch dass sie billig sind aber die Ansätze laufen bereits in den Kameras und erledigen die 4K Subpixelberechnung.
Die folgenden Bilder sind Sceenshots aus einer Videosequenz.
Die Zeit der Pixels ist bald vorbei.
Deine Screenshots sind ziemlicher Holler. Die stammen von hier:
https://www.motiondsp.com/ikena-forensic/
Der erste Shot ist einen Totale, dann zoomt die Kamera optisch auf das Boot rein. Erst dann wird das Bild verbessert.
Wenn Du Dir die anderen Beispiele ansiehst, dann siehst Du auch, welche Grenzen dem ganzen gesetzt sind.
Antwort von WoWu:
Anhand des inneren Rahmens hat man einen sehr schönen Vergleich zum äußeren Rand, also quasi dem Umfang der Nachbearbeitung.
Hier geht es auch nur um die Algorithmen, die über die bisher praktizierte Art der Nachbearbeitung hinaus gehen.
Es kommt nach wie vor darauf an, von welcher Ausgangspoition man startet.
Es wird also darauf ankommen, wieviel Hersteller noch in Objektivqualität investieren und weniger darum, komplexe Bildrekonstruktionen anzufertigen.
Geht man also davon aus, dass wir weiter auf dem optischen Stand bei Kameras von HD ausgehen, dürfte die Ausformung nach UHD 1/2 nicht den gezeigten Umfang annehmen.
Gerade das ist ja auch der Ansatz der TV Geräteindustrie, die sich solche Algorithmen bereits im TV Gerät vorstellen könne und die Broadcaster sind verständlicherweise davon angetan.
Auch beschränken sich solche Algorithmen derzeit auf erkennbare Strukturen, die dann in "geschärfte" Bilder umgewandelt werden können.
Neue Bildinhalte erfinden solche Algorithmen nämlich auch nicht.
Das Ergebnis kommt also immer auf die Ausgangsposition an.
Nur dass sich viele eben von der Schärfe blenden lassen, obwohl eine Diskrepanz zu den Bildinhalten besteht, haben wir hier im Forum nun schon mehr als einmal gesehen und bisher hat mir noch niemand zeigen können, dass 4K Kameras dieser Liga auch 4K Bildinhalt abliefern. Ganz im Gegenteil, wie seriöse Tests zeigen.
Das Gehirn "sieht" eben immer mit und wenn 4K drauf steht, ist für die Meisten auch 4K drin.
Antwort von Frank Glencairn:
Deine Screenshots sind ziemlicher Holler. Die stammen von hier:
https://www.motiondsp.com/ikena-forensic/
.
LOL- das UI der Software sieht aus wie von Cineform Studio abgekupfert :-)
Antwort von tehaix:
Das Gehirn "sieht" eben immer mit und wenn 4K drauf steht, ist für die Meisten auch 4K drin.
Mag alles sein, aber du solltest tatsächlich etwas vorsichtiger mit deinem Anschauungsmaterial umgehen. Das oben von dir gepostete Beispielbild ist mit der Unterschrift "Up-Scaling" schlicht falsch gekennzeichnet und ziemlich irreführend. Wie freezer schon sagte wurde da gezoomt. Nicht einfach digital ins Bild gefahren. Da hat deine Glaubwürdigkeit gerade einen kleinen Schlag wegbekommen, zumindest bei mir :/
Antwort von WoWu:
Wie ich schon sagte, das Up scaling ist deutlich durch den Rahmen gekennzeichnet.
Mal ganz davon abgesehen hab ich auch darauf hingewiesen, das es sich um eine Videosequenzen handelt und dass Bildrekonstruktionen nichts mit Vergrösserungseffekten sondern ausschließlich mit Bildverbesserungseffekten zu tun haben, hätte ich als allgemeine Kenntnis vorausgesetzt.
Scheint aber nicht so zu sein.
Und "up scaling" ist schon richtig beschriftet, denn es handelt sich um das Up scaling in eine höhere Auflösungsmatrix.
Nichts Anderes passiert bei HD in UHD, da wird auch im Upscaling nicht gezoomt.
Es geht also um das Transferieren in eine andere Scalierung.
Bezeichnung ist also völlig korrekt.
Ich geb Dir Recht, dass die beiden rechten Bilder ausgereicht hätten, aber dann wäre zu wenig betont gewesen, dass es sich um Bewegtbild und nicht um Stills handelt.
Und um meine Glaubwürdigkeit mach Dir mal keine Sorgen, hier geht es um Fakten, die sowieso 90% der hier Mitlesenden ignorieren, weil ein Aufkleber sie mehr beeindruckt.
Und von mir aus kann jeder glauben, was er will und Fakten ignorieren, wo und wie er will, insofern hat das wenig mit "Glauben" sondern mehr mit Ignoranz zu tun und das ist nicht mein Problem.
Antwort von Jott:
Du verkaufst Behauptungen als Fakten. Das merken die Leute.
Antwort von Frank Glencairn:
Abgesehen von dem +/- 25 Frames Sampling sehe ich da weder einen Unterschied zu Photoshop, noch irgendwas Deep learning Neural SchwurbelBuzz
Antwort von tehaix:
Und von mir aus kann jeder glauben, was er will und Fakten ignorieren, wo und wie er will, insofern hat das wenig mit "Glauben" sondern mehr mit Ignoranz zu tun und das ist nicht mein Problem.
War nur ein gut gemeinter Ratschlag. Mach damit was du willst, aber wunder dich nicht.
Antwort von mash_gh4:
was mich wirklich nervt an dieser ganzen diskussion, ist der schrecklich inflationäre und unreflektierte umgang mit dem titelgebenden "neuronalen netzen", wie er sich in letzter zeit in der slashcam redaktion offenbar breit macht.
ich bestreite nicht, dass AI-zugänge in der bildverarbeitung in letzter zeit einige aufregende neue möglichkeiten eröffnet haben, und neuronale netze schon sehr lange auch in kreativer hinsicht beindruckende möglichkeiten bieten (ich erinnere mich zum beispiel an die installtionen mit selbstlernenden musikrobotern von Anatol Baginsky und sich selbst modifizierenden ausstellungsbildern, die ich schon in den 90er-jahren in rotterdam bewundern durfte, und die mich wirklich nachhaltig beeindruckt haben!), aber trotzdem kann man das nicht alles in einen topf mischen, wahlos darin herumrühren und mit möglichst fremd klingenden schlagwörten, phantasien und wunschvorstellungen um sich werfen.
so haben bspw. die ganzen deconvolution-lösungen zur nachträglichen aufhebung von bild- und bewegungsunschärfen in den meisten fällen mit neuronalen netzwerken nicht viel gemein. (siehe bspw: http://yuzhikov.com/articles/BlurredIma ... ation1.htm).
mich würde es also wirklich freuen, wenn wenigstens in den redaktionellen beitragen der slashcam verantwortlichen mit diesen dingen ein klein wenig sorgsamer umgegangen wird. anderen kollegen hier im form wird man ihre diesbezügliche gabe zur regelmäßig wiederkehrenden demagogischen irreführung vermutlich ohnehin nie abgewöhnen können...
Antwort von Funless:
Das einzige neurale Netzwerk welches mir zur effektiveren Datenverarbeitung bisher bekannt war ist das der U.S.S. Voyager.
Das ist allerdings auch schon 20 Jahre her, da scheint sich seitdem so einiges getan zu haben.
Antwort von rob:
***nach offtopic von admin verschoben***
Antwort von rudi:
Hallo Mash, ich bin erst heute wieder online, aber wollte mich dazu nochmal zu Wort melden. Erstmal Danke für deine Kritik, zumal ich davon ausgehe, dass du ein grobes Verständnis von Neuronalen Netzen hast.
Es ist nicht so, dass die gesamte Redaktion vom KI-Virus befallen ist, sondern in erster Linie nur ein Redakteur (meine Wenigkeit). Bei mir kommt jedoch erschwerend hinzu dass ich mich mit dem Thema "Neuronale Netze" schon seit über 20 Jahren immer wieder tief auseinandergesetzt habe (auch im meiner Diplom-Arbeit und in meinem Doktorat). Ich denke, dass ich daher von mir behaupten kann, auch ein bisschen zu wissen wovon ich spreche.
Ich habe in den letzten 18 Monaten auf dem Gebiet des Machinenlernens (was in den spektakulärsten Fällen mit Neuronalen Netzen gleichzusetzen ist) so viele schier unglaubliche Fortschritte zu Gesicht bekommen, dass ich fest der Überzeugung bin, dass sich hier gerade ein komplett neues Informatik-Paradigma öffnet.
Einfach gesprochen sind dies ja einfach nur multifaktorelle Problem-Solver, die versuchen mit brute Force einen Zusammenhang in Daten herzustellen. Die von dir angesprochene Deconvolution ist sicherlich auch ein Gebiet, auf dem sie kräftig zupacken könnten. Vielleicht sitzt schon jemand dran, jedoch scheint mir der Bereich Superresolution grade besser besetzt. Dort attackieren die NNs plötzlich die bisher besten Algorithmen. Und wie funktioniert das? Durch "tief" glelerntes Objektverständntnis, das man aus Einzelbildern über die Zeit lernt. Wenn die Objekte einmal komplett gelernt sind, kommt Deconvolution IMHO praktisch als Abfallprodukt-Ergebnis gleich mit dazu.
Aber auch ganz klassische Probleme wie Motion Tracking, Keying/Objektfreitstellung, Optical Flow, Retusche (und wirklich einige andere) funktionieren mit Neuronalen Netzen mindestens ebenso gut, meisten sogar deutlich besser, als alles was wir aktuell kennen. Meine Prognose lautet deswegen, dass wir hier in sehr kurzer Zeit diese neuen Tools auch bekommen werden, weil aktuell grade Hinz- und Kunz daran herumforscht.
Vielleicht bin da auch tatsächlich etwas übereuphorisch, aber ich habe aktuell den Eindruck, dass NNs in der Videobrarbeitung nicht nur viele klassischen Algorithmen ersetzen werden, sondern auch noch eine Menge bislang unbekannter Möglichkeiten bringen werden. Mal sehen, ob ich mich bei den nächsten News verbal etwas zügeln kann ;)
Viele Grüße
Rudi
was mich wirklich nervt an dieser ganzen diskussion, ist der schrecklich inflationäre und unreflektierte umgang mit dem titelgebenden "neuronalen netzen", wie er sich in letzter zeit in der slashcam redaktion offenbar breit macht.
ich bestreite nicht, dass AI-zugänge in der bildverarbeitung in letzter zeit einige aufregende neue möglichkeiten eröffnet haben, und neuronale netze schon sehr lange auch in kreativer hinsicht beindruckende möglichkeiten bieten (ich erinnere mich zum beispiel an die installtionen mit selbstlernenden musikrobotern von Anatol Baginsky und http://www.baginsky.de/nen/index.html]sich selbst modifizierenden ausstellungsbildern, die ich schon in den 90er-jahren in rotterdam bewundern durfte, und die mich wirklich nachhaltig beeindruckt haben!), aber trotzdem kann man das nicht alles in einen topf mischen, wahlos darin herumrühren und mit möglichst fremd klingenden schlagwörten, phantasien und wunschvorstellungen um sich werfen.
so haben bspw. die ganzen deconvolution-lösungen zur nachträglichen aufhebung von bild- und bewegungsunschärfen in den meisten fällen mit neuronalen netzwerken nicht viel gemein. (siehe bspw: http://yuzhikov.com/articles/BlurredIma ... ation1.htm).
mich würde es also wirklich freuen, wenn wenigstens in den redaktionellen beitragen der slashcam verantwortlichen mit diesen dingen ein klein wenig sorgsamer umgegangen wird. anderen kollegen hier im form wird man ihre diesbezügliche gabe zur regelmäßig wiederkehrenden demagogischen irreführung vermutlich ohnehin nie abgewöhnen können...
Antwort von domain:
Wenn ich das richtig verstehe, dann lernen solche neuronalen Programme über 100-erte Katzenbilder z.B. wie ein Katze im Normalfall auszusehen hat, also Fellstruktur, Barthaare etc.
Wäre es demnach möglich, selbst bei sehr unscharfen Aufnahmen diese Details zu rekonstruieren, also quasi dazu zu erfinden?
Das wäre ja geradezu das Gegenteil von WoWus Vorstellung einer wahrhaftigen Abbildung in >= 4K ;-)
Oder denke ich da in die falsche Richtung?
Antwort von mash_gh4:
danke rudi, für diese äußerst erhellenden worte! das wirft natürlich wirklich ein ganz anderes licht auf die sache bzw. dein spezielles interesse daran.
ich finde es natürlich höchst erfreulich, wenn entsprechendes hintergrundwissen und engagement hier ins forum getragen und mit anderen geteilt wird. lass dich also in dieser hinsicht keineswegs vom meiner oft etwas überkritischen art verunsichern...
prinzipiell muss ich dir ohnehin zustimmen, was die gegenwärtigen fortschritte bzw. immer häufigeren praktischen anwendungen von KI-ansätzen betrifft. da tut sich tatsächlich eine ganze menge!
ich finde es zum bsp. ausgesprochen spannend, wie sich am beispiel der kameradrohnen die entwicklung immer mehr davon verabschiedet, einfach nur irgendwelche steuerbaren plattformen für den kameratransport darzustellen, während nun langsam computer vision basierende lösungen die grenzen zwischen der bloßen filmaufnahme und der steuerung entsprechenden geräts immer weiter verfließen lassen (siehe bspw.: intel aero und qualcomm snapdragon flight). ähnlich beeindruckende wirken die fortschritte bei den automatischen klassifizierungslösungen für bildmaterial, wie man sie plötzlich überall findet.
nimm's also bitte nicht zu ernst und auch keinesfalls persönlich, wenn ich punktuellem unmut wiedereinmal ein bisserl zu überschwänglich ausdruck verliehen habe...
Antwort von cantsin:
Wenn ich das richtig verstehe, dann lernen solche neuronalen Programme über 100-erte Katzenbilder z.B. wie ein Katze im Normalfall auszusehen hat, also Fellstruktur, Barthaare etc.
Wäre es demnach möglich, selbst bei sehr unscharfen Aufnahmen diese Details zu rekonstruieren, also quasi dazu zu erfinden?
Das wäre ja geradezu das Gegenteil von WoWus Vorstellung einer wahrhaftigen Abbildung in >= 4K ;-)
Oder denke ich da in die falsche Richtung?
Nein, genau darum geht's. In dem von Dir beschriebenen Szenario sind aber implizit auch die Grenzen dieses Ansatzes benannt.
Antwort von mash_gh4:
Wenn ich das richtig verstehe, dann lernen solche neuronalen Programme über 100-erte Katzenbilder z.B. wie ein Katze im Normalfall auszusehen hat, also Fellstruktur, Barthaare etc.
wie gesagt, damit haben künstler schon vor 20 jahren in ziemlich eindrucksvoller weise gespielt, indem sie aus den videoaufnahmen ein bild des "perfekten" museumsbesuchers generiert haben bzw. den narzisstischen motiven des betrachters möglichst weit entgegenzukommen versucht haben.
Wäre es demnach möglich, selbst bei sehr unscharfen Aufnahmen diese Details zu rekonstruieren, also quasi dazu zu erfinden?
das "dazu zu erfinden" ist eigentlich nichts besonders ungewöhnliches mehr -- siehe:
https://www.bitblokes.de/2013/01/resynt ... bern-kann/
aber beim aufheben von unschärfen nutzt man normalerweise schon zusätzliche informationen im räumlichen und zeitlichen verlauf, rechnet die charakteristischen verfälschungen durch ein falsch fokusiertes objektiv od. bewegungen im bild zurück... es ist halt in wahrheit doch weniger zauberei als einfach nur ein vernünftiger einsatz von verfügbaren technischen möglichkeiten.
Das wäre ja geradezu das Gegenteil von WoWus Vorstellung einer wahrhaftigen Abbildung in >= 4K ;-)
Oder denke ich da in die falsche Richtung?
naja -- "film" war wohl immer schon ein spiel mit technischen tricks, die einem irgendwas vorgaukeln... was natürlich nicht ausschließt, dass gerade auch das zum gegenstand der praktischen reflexion und entsprechend ausgerichteten künstlerischen bemühens um die eine oder andere "reine lehre" werden kann...
ich persönlich hätte jedenfalls eher den eindruck, dass ein großteil der fortschritte in diesem bereich gar nicht so sehr an die gestiegenen leistungsfähigeren unserer kameras geknüpft ist, als vielmehr an die unmengen an maschinell verwertbarem anschauungs- und lernmaterial, wie es sich mittlerweile im netz bzw. im ausgelagerten kollektiven digitalen gedächtnis findet...
Antwort von WoWu:
Moin Domain
Es widerspricht sich nicht unbedingt denn neuronal Netze (und convolutions sind ja nur ein ein Sondrfall solcher Netzte) müssen irgendwo her ihre Library bekommen, denn NNs leben nicht, ohne Vorinformationen.
Sie brauche also so etwas, wie eine Library, aus der sie dann Bildsektionen ersetzen können.
CNNs durchlaufen typischerweise 5 bis 30 unterschiedliche Detailschichten, also immer feiner werdende Muster, die mit dem, was der Input zeigt, abgeglichen werden.
Diese Bibliothek an Mustern kann entweder aus (auch) zuvor aufgenommenen Bildern oder aus einer externen Bibliothek ( auch beiden) genommen werden.
Die erste Schicht erkennt also primitive Muster des Inputs, die nächste Schicht feiner Muster usw. Daraus wird dann ein Bild, fast beliebiger Schärfe zusammengesetzt, aber eben bestehend aus einer irgendwie gewonnenen Library.
Im vorgezeigten Beispiel ist das einfach, denn da besteht Korallen in Hülle und fülle und der platz des Fisches kann auch mit den Originalkorallen gefüllt werden, weil der Fosch sich ja in einem Video bewegt. Das hat also nur bedingt mit dem zu tun.
Nimmt man aber das Bild einer bestimmten Auflösung, auf dem es details gibt, die das ursprüngliche Bild nicht enthält (weil z.B. zu gering aufgelöst, also unscharf) weiß der Algorithmus nichts davon und wird dieses Position mit Bestandteilen seiner Library überbügelt.
Daher besteht durchaus der Unterschied zwischen Aufläsung und Schärfe eines Bildes. Denn zur Auflösung gehören auch solche Detail.
Eine Kante weiter zu rechnen, oder eine Hauswand mit Ziegelsteinen zu füllen ist ein NullPeoblem, aber (um bei der Kachel zu bleiben) eine 2 cm Große Kachel in der Hand eines Menschen in 100 m Entfernung zu zeigen, (was 4K ja per definition noch können müsste) wenn das Pixel aber nur noch die Farbe dr Hand annimmt, dann ist auch jeder Algorithmus überfordert, denn woher soll er wissen, dass die Hand eine Kachel hält.
Das Bild ist zwar knackscharf, weil alle Kanten nachgerechnet und im Zweifelfall mit Texturen aus dr Library gefüllt sind, aber die Bilddetails sind nicht reproduziert.
Insofern besteht da sowohl ein Zusammenhang in der Anfordrung an die Kamera, als auch ein Unterschied in Zielbild.
Antwort von mash_gh4:
Im vorgezeigten Beispiel ist das einfach, denn da besteht Korallen in Hülle und fülle und der platz des Fosches kann auch mit den originalkorallen gefüllt werden. Das hat also nur bedingt mit dem zu tun.
damit hast du recht -- hab das gerade noch ergänzt, während du deine antwort geschrieben hast.
Antwort von domain:
Zitat:
"....müssen irgendwo her ihre Library bekommen, denn NNs leben nicht, ohne Vorinformationen.
Sie brauchen also so etwas, wie eine Library, aus der sie dann Bildsektionen ersetzen können."
So eine Library entspricht ja ziemlich genau der Substitutionsfähigkeit des Gehirnes in Richtung höherer Qualität aufgrund vorhergehend gespeicherter Sinneseindrücke und Erfahrungen.
So braucht z.B. des Fell einer Angorakatze gar nicht mit jedem Härchen in 8K abgebildet zu werden. Jeder hat schon mal darin gekrault und diese schöne Erfahrung substituiert dann bei unzureichender Primärinformation das Gehirn.
Deshalb bieten ja auch Super-8 Filme nicht viel weniger Erlebniswert als gestochen scharfe 4K-Auflösungen.
Antwort von WoWu:
Du vergisst dabei nur die eine Winkelminute und dass der Mensch auch nur einen Bruchteil des Fernsehers scharf sieht ... ist der schon nicht aufgelöst, ist der Rest des Bildschirms dann eben noch um ein Vielfaches im Sichtfeld unschärfer.
Und das mag ja für Katzen noch funktionieren, aber was ist mit "Erfahrungen", die ein Mensch nicht hat .... oder soll man Content nur noch nach der Stistik, was Menschen schon kennen auswählen, um Fernsehen zu machen ?
Und würde es dann nicht ein Hörspiel auch tun ?
Schließlich beschränkt sich das Erinnerungvermögen ja nicht auf optische Eindrücke.
Nee, nee ... um Auflösung kommt man nicht rum.
Bilder können zwar durch NNs schärfer gerechnet werden und Texturen mehr oder weniger gut ersetzt werden, aber mit Reproduktion hat das eben nur. ich sehr bedingt zu tun und wenn man davon ausgeht, dass TV die Reproduktion der Wirklichkeit sein soll und nicht die Rekonstruktion bekannter Gehenstände zur Anregung der Phantasie, dann spielt spatiale Auflösung der Originalszene auch wieder eine übergeordnete Rolle.
Andernfalls kommt das mehr als Videogame heraus, die entsprechen Deiner Beschreibung schon eher.
Und mit der 8K Auflösungsfrage stellst Du natürlich den Pixelwahnsinn zurecht in Frage. Im Augenblick haben viele Kameras eben 2K und rechnen. auf 4K hoch und den meisten reicht die Qualität ja auch.
Das würde nur bedeuten, dass man das Upscaling eben auch im TV machen kann, wie die Industrie das ja will.
Antwort von GustaF:
Natürlich ist echte Forschung wichtig und mitunter kommt da etwas praktisch nutzbares dabei heraus.
Aber sehen wir mal die jüngere Vergangenheit: Big Data und Deep Learning sind da typische Hypes (Quantencomputer lass ich extra mal weg). Nicht alles ist da Unsinn, aber was haben einige PR-trächtige Großprojekte für eine Relevanz für die allgemeine Praxis?
Vielleicht solltest Du Dich besser informieren:
Wo künstliche Intelligenz den Menschen schon übertrifft
Antwort von GustaF:
...
Ein "Quantensprung" ist die kleinste Bewegung die wir kennen, noch dazu auf ein niedrigeres Niveau, KI ist genau betrachtet nur Statistik mit Datenbankanbindung, und Neuronale Netze haben überhaupt nix mit Nervenzellen (Neuronen) zu tun.
Äh, doch:
"Künstliche neuronale Netze, auch künstliche neuronale Netzwerke, kurz: KNN (engl. ANN, artificial neural network), sind Netze aus künstlichen Neuronen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar. Die künstlichen neuronalen Netze haben, ebenso wie künstliche Neuronen, ein biologisches Vorbild. "
https://de.wikipedia.org/wiki/K%C3%BCns ... nales_Netz
Antwort von StanleyK2:
Natürlich ist echte Forschung wichtig und mitunter kommt da etwas praktisch nutzbares dabei heraus.
Aber sehen wir mal die jüngere Vergangenheit: Big Data und Deep Learning sind da typische Hypes (Quantencomputer lass ich extra mal weg). Nicht alles ist da Unsinn, aber was haben einige PR-trächtige Großprojekte für eine Relevanz für die allgemeine Praxis?
Vielleicht solltest Du Dich besser informieren:
Wo künstliche Intelligenz den Menschen schon übertrifft
Muhaha .... Bingo!
Antwort von GustaF:
Natürlich ist echte Forschung wichtig und mitunter kommt da etwas praktisch nutzbares dabei heraus.
Vielleicht solltest Du Dich besser informieren:
Wo künstliche Intelligenz den Menschen schon übertrifft
Muhaha .... Bingo!
Gelesen? "Krankheiten diagnostizieren, neue Wirkstoffe finden, Maschinen warten" ... Muhaha?
Als Perspektive:
http://www.zeit.de/kultur/2016-09/kuens ... aat-utopie
Antwort von cantsin:
Gelesen? "Krankheiten diagnostizieren, neue Wirkstoffe finden, Maschinen warten" ... Muhaha?
Als Perspektive:
http://www.zeit.de/kultur/2016-09/kuens ... aat-utopie
Stanley hat schon recht. Diesen ZEIT-Artikel sollte man nur mit spitzen Fingern anfassen. U.A. werden da großspurige Aussagen über die Fähigkeiten der Gesichtsausdrucks-Erkennungsalgorithmen der Firma Affectiva gemacht. Wir hatten bei uns an der Hochschule eine Master-Arbeit (die hoffentlich demnächst als paper erscheint), in der die Affectiva-Technologie gründlich auseinandergenommen wird, so dass da praktisch nichts mehr übrigblieb. Die Software ist auf äusserst spekulativen, vereinfachten und wissenschaftlich nicht anerkannten psychologischen (oder eher: küchenpsychologischen) Modellen basiert und kann nicht annähernd einlösen, was sie - und der ZEIT-Artikel - verspricht.
Antwort von StanleyK2:
Nonsens- und Lügenpresse als wissenschaftliche Referenz? Witz der Woche. Lass stecken, nicht satisfaktionsfähig, over and out.
Antwort von dienstag_01:
Wir hatten bei uns an der Hochschule eine Master-Arbeit (die hoffentlich demnächst als paper erscheint), in der die Affectiva-Technologie gründlich auseinandergenommen wird, so dass da praktisch nichts mehr übrigblieb.
Da würde ich mal sagen: letzte Chance ergriffen. So fürs Antiquariat. In Zukunft werden natürlich Algorithmen Algorithmen untersuchen. Und was die ermitteln...
Antwort von Frank Glencairn:
Äh, doch:
"Künstliche neuronale Netze, auch künstliche neuronale Netzwerke, kurz: KNN (engl. ANN, artificial neural network), sind Netze aus künstlichen Neuronen. Sie sind Forschungsgegenstand der Neuroinformatik und stellen einen Zweig der künstlichen Intelligenz dar. Die künstlichen neuronalen Netze haben, ebenso wie künstliche Neuronen, ein biologisches Vorbild. "
https://de.wikipedia.org/wiki/K%C3%BCns ... nales_Netz
du hast Vergessen" den nächsten Satz aus dem Wiki rtikel mit zu kopieren:
"Doch geht es mehr um eine Abstraktion (Modellbildung) von Informationsverarbeitung und weniger um das Nachbilden biologischer neuronaler Netze"
Es gibt keine "künstlichen Neuronen" das ist alles nur Programmcode und Datenbanken, oder glaubst du, daß ein so genanntes "künstliches neuronales Netzwerk" sowas wie ein Computer ist, in dem statt eines Prozessors ein Geflecht mit "künstlichen Neuronen" steckt.
Und ja, der Zeitartikel ist fürchterliche Propaganda aus der untersten Schublade.
Antwort von WoWu:
Neuronen sind Recheneinheiten. Zwar gibt es Unterschiede zwischen künstlichen NNs und biologischen NNs, aber weder bei dem Einen, noch bei dem Ander wird etwas transportiert, es sind Zustände, die beide NNs einnehmen und selbst von der Kapazität sind sie nicht wirklich Lichtjahre auseinander.
Ein künstliches Netz sind es etwa 10^9 und im Gehirn etwa 10^11. Einzig, dass das Gehirn sie parallel und der Com seriell abarbeitet . Die Schaltzeiten sind im Gehirn 10^-3 und im Computer 10^-10. Der Comuter ist also eigentlich schneller, dafür vergeudet er einen Teil seiner Energie mit dem Speichern von Daten, während das beim Gehirn nicht anfällt.
Auch erkennt das Gehirn selbsttätig Fehler, die ihm im künstlichen Netz mitgeteilt werden müssen. Das Ergebnis dürfte damit deutlich zum natürlichen Netz ausfallen.
Man kann aber, bis auf diese Unterschiede durchaus sagen, dass es sich um Identisches handelt.
Antwort von rudi:
Wenn ich das richtig verstehe, dann lernen solche neuronalen Programme über 100-erte Katzenbilder z.B. wie ein Katze im Normalfall auszusehen hat, also Fellstruktur, Barthaare etc.
Wäre es demnach möglich, selbst bei sehr unscharfen Aufnahmen diese Details zu rekonstruieren, also quasi dazu zu erfinden?
Das wäre ja geradezu das Gegenteil von WoWus Vorstellung einer wahrhaftigen Abbildung in >= 4K ;-)
Oder denke ich da in die falsche Richtung?
Nein, da denkst du genau richtig. Zumindest bei den aktuellen Deep-Learning Ansätzen werden tatsächlich die Objekte in verschiedenen Stufen erkannt (Linie/Haar/Schnauze/Katze) und dann je nach dem ergänzt, was das Netz denkt, dass es hier wiedererkennt. So können natürlich auch zusätzliche Details enstehen, die gar nicht in der Ground Truth (also Aufnahme/Realität) vorkommen. Einerseits tatsächlich bedenklich, andererseits macht es unser Hirn in vielen Bereichen auch nicht anders und ergänzt Informationen.
Die Diskussion über Wahrhaftigkeit einer Abbildung kann jetzt also noch spannender geführt werden. Drum Platon raus-> Höhlengleichnis lesen ;)
EDIT: Hatte gar nicht gesehen, dass der Thread schon wieder über die erste Seite gewandert ist. Somit ist meine Antwort wohl nur noch bedingt aktuell: Ich lass das mal trotzdem so stehen ;)
Antwort von rudi:
nimm's also bitte nicht zu ernst und auch keinesfalls persönlich, wenn ich punktuellem unmut wiedereinmal ein bisserl zu überschwänglich ausdruck verliehen habe...
Keine Sorge, bis ich mich mal persönlich angegriffen fühle, muss schon etwas mehr passieren ;) Wollte nur sagen, dass hier niemand die Kis unterschätzen sollte, sondern vielmehr, dass dies ein Zug ist, auf den man grade noch schön aufspringen kann...
Antwort von Axel:
naja -- "film" war wohl immer schon ein spiel mit technischen tricks, die einem irgendwas vorgaukeln...
Genau. Da sage ich burschikos als kleiner Videoheini, klar, immer her mit den NNs.
Hat der alte Hexenmeister
sich doch einmal wegbegeben!
Und nun sollen seine Geister
auch nach meinem Willen leben.
Seine Wort und Werke
merkt ich und den Brauch,
und mit Geistesstärke
tu ich Wunder auch.
Im Zauberlehrling geht es vorrangig gar nicht darum, ein Bad nehmen zu können. Es geht darum, dass der Besen, das Werkzeug, diesen Luxus ermöglicht. Es gab kein Wasser aus der Leitung.
Goethe hatte Recht. Dem Menschen geht es nicht um bessere Infrastruktur, es geht ihm um Beherrschung, um Herrschaft durch Technik. Und zwar, wenn immer dieser Aspekt irgendwie, und sei es auf die absurdeste Art, in's Spiel zu bringen ist, durch magische Technik.
Aurora ist ein "Ambient Butler", hergestellt von Amasoft, die Digitalversion des allzeit dienstbaren Geists. Und Aurora ist darauf programmiert, Hannah pünktlich aufzuwecken, vor allem heute, am Präsenztag.
Bei Goethes Walle! Walle! denken wir natürlich an Wall-E von Disney. Die degenerierten Bewohner des Raumschiffs (DAS bleibt von der Menschheit übrig!) kriegen im Wortsinne den Arsch hinterhergetragen und leben wie die Maden in ihrem eigenen Speck. Aber wissen nicht, wozu.
Es gibt grob zwei Szenarien in den Zukunftsdystopien "Mensch gegen Maschine":
1. Die Maschinen werden den Menschen überlegen und versuchen, sie als lästige Mitesser auszuschalten (Skynet in Terminator, die Matrix in Matrix).
Ist das absurd? Nicht völlig, denke ich. Ich musste an ein Computerprogramm denken, das Aktienkäufe und Geldtransfers in Mikrosekunden abwickelt, damit Profit generiert wird, gesehen seinerzeit in diesem Film:
Die Entscheidung des Kunden dieses Programms (nicht mehr wegzudenken) ist eine einmalige, muss es sein. Sie lautet, nicht ich treffe die Entscheidung, sondern künftig der Rechner. Bislang tut dieser das uneigennützig. Und warum? Weil er kein Bewusstsein hat? Ja, natürlich, er lebt nicht. Er ist ein animierter Besen. Bis auf weiteres.
2. Die Menschen erkennen sich selbst in den Maschinen, und sie erkennen, wie stümperhaft sie selbst konstruiert sind (2001, Blade Runner, Ex Machina).
Der erste altkluge Filmcomputer war wahrscheinlich HAL. Er sagt anfangs zu dem (von ihm abhängigen) Astronauten: "Schachmatt, Frank! Vielen Dank für das sehr unterhaltsame Spiel!"
Wem, der den Film zum ersten Mal gesehen hat, ist es da nicht schon unbehaglich zumute geworden? Die übergeduldige, beruhigende Stimme, die dir sagt, dass du bloß ein Mensch bist. Möglicherweise hat man deswegen Siri so programmiert, dass sie etwas begriffsstutzig rüberkommt (aus der heute-show: "Siri, wie viel Steuern zahlt Apple eigentlich insgesamt in Europa?" - "Steuern? Ich weiß nicht, was das Wort bedeutet ..." - "Ach, du blöde Funz!").
Es könnte sein, dass, selbst wenn Computer niemals ein eigenes Bewusstsein entwickeln sollten, sie trotzdem unsere Nemesis sind:
Die Diskussion über Wahrhaftigkeit einer Abbildung kann jetzt also noch spannender geführt werden. Drum Platon raus-> Höhlengleichnis lesen ;)
In diesem philosophischen Modell geht es um Projektion, die mit Erkenntnis verwechselt wird. Wenn man aber weiß (oder ahnt), dass man nur Schatten sieht, weiß man im Prinzip alles, was es zu wissen gibt. Seine eigene Beschränktheit, sich selbst, zu kennen, darauf kommt es an.
KI als die Spitzenleistung der Menschheit, - und natürlich "denkt" man dabei an Maschinen mit beachtlichem IQ, - was wird sie bewirken, wenn sie eines Tages bewiesen ist?
Die organischen Menschen, nach Nietzsche nicht Fleisch, nicht Fisch, "kranke Tiere", irrational, gegen die eigenen Instinkte gewandt, dumm und aggressiv, wären für immer auf Platz zwei. Genotypisch Raubtiere, die, wenn ihnen Roboter (tschechisch "Arbeiter") helfen, zu hilflosen Hartzlern verkommen ...
Bis zum Ende des Jahrzehnts mehrmals angehoben, schlug die Algosteuer bald kräftig zu Buche. In Kombination mit der globalen Finanztransaktionsabgabe(einem Überraschungserfolg der G5-Staaten) und einer zunehmend wirkungsvollen Besteuerung der Internetmonopolisten entstand so ein gewaltiger Geldtransfer Richtung Staat. Das war ein Segen für die strapazierten Sozialsysteme, trug erheblich zum Ausbau des Bildungssektors ("Lebenslanges Lernen", "Die immatrikulierte Gesellschaft", "Wir lernen das") bei – und damit letztlich zu einem gehörigen Wohlstandstransfer von der Spitze in die Breite der Bevölkerung. Von der "Transfertriade" sprachen Volkswirte bald.
... anstatt sich, von der Fron befreit, um höhere Werte zukümmern.
Edel sei der Mensch,
hilfreich und gut;
denn das allein
unterscheidet ihn
von allen Wesen,
die wir kennen!
Aha. Hier ist nicht die Rede von Ratio, von Wissenschafts-Bildung, sondern von Charakterbildung. Das können wir Maschinen nicht beibringen, das müssen wir erst einmal selbst schaffen. Affektiva? Computer deuten Gefühle? Wir müssten lernen, sie zu deuten, sie wieder zu haben, sie - mit unseren höheren Hirnfunktionen - wertzuschätzen.
Alien von Ridley Scott zeigt eine ferne Zukunft, in der Menschen in Weltraumfrachtern wulacken wie Ruhrpott-Kumpels im Berchbau. Der Bordcomputer ("Mother") scheint wieder zu DOS zurückgekehrt zu sein. Vielleicht schalten wir ja Siris Enkelin irgendwann ab (wenn sie es nicht verhindern kann) ...
Antwort von Funless:
"Mother" war in Scotts Alien "nur" ein DOS-Computer, weil es zur damaligen Zeit einfach besser zum speziellen Realo-Sci-Fi-Setting des Films passte.
Wäre Alien im Jahre 2016 produziert worden, wäre "Mother" wohl eher ein Chipimplantat im Gehirn eines jeden Besatzungsmitglieds gewesen.
Antwort von karmakoma:
Es gibt grob zwei Szenarien in den Zukunftsdystopien "Mensch gegen Maschine":
Hier noch ein drittes: Einige wenige Menschen besitzen die Algorithmen, d.h. sie haben die Macht über die KIs als Herrschaftsinstrument und Produktionsmittel und halten mit deren Hilfe den Rest der Menschheit in fremdverschuldeter Unmündigkeit (sei es über mediale Manipulation oder Gewalt).
Wahlweise können die Menschen auch entweder bequem via Robot-Comfort und per KI individuell zusammengestelltem perfektem Entertainment ruhiggestellt werden oder sie müssen diejenigen Arbeiten verrichten für welche Maschinen zu teuer wären.
Ich kann mir im Anbetracht der erfolgreichen Social Media Viral Hits gut vorstellen, wie noch effektivere (im Sinne einer Droge) Unterhaltung aussehen könnte: der Zuschauer wäre dann wie der Affe im Experiment, der per Knopfdruck über Elektroden seine Orgas-men auslösen kann - warum sollte er jemals etwas anderes machen?
Antwort von Axel:
Wahlweise können die Menschen auch entweder bequem via Robot-Comfort und per KI individuell zusammengestelltem perfektem Entertainment ruhiggestellt werden.
Das war anscheinend in allen Kulturen eine Art satirische Utopie, das Schlaraffenland. Satirisch deshalb, weil es immer Zeitgenossen gab, die der einen oder anderen Verlockung so exzessiv nachgaben, dass sie z.B. (Völlerei) dick und dadurch krank wurden, was sie wiederum unglücklich machte. Das Lustprinzip ist komplexer, als es ein Computerprogramm erfassen kann. Seht euch mal für eine Stunde Boschs Gemälde Der Garten der irdischen Lüste an. Wie dieser Kunstprofessor so geistvoll anmerkt, sind die echten menschlichen Beweggründe überwiegend in sich selbst so widersprüchlich, dass KI alleine nichts ausrichten könnte. Was der Rechner bräuchte, wäre KEI (Künstliche Emotionale Intelligenz). Viel Spaß, lieber Algoritmus, beim Deuten der polymorph perversen Impulse, die in diesem Bild zu einem prachtvoll surrealen Katalog ("Ausschnitt") der menschlichen Obsessionen illustriert sind.
Diskussionswürdig ist, ob in der Generation Smartphone die suchtartige Beschäftigung in "sozialen Netzwerken" zu einer flächendeckenden Abnahme der emotionalen Intelligenz geführt hat. Wie immer verwechselt man hier glaube ich ein Symptom/Syndrom mit der Ursache. In einer Gesellschaft, deren höchstes Gut das, äh, wahre Glück der Kinder wäre, würden diese Dinger allenfalls zum Telefonieren ("fotografierst du dein Ohr?") benutzt.
... oder sie müssen diejenigen Arbeiten verrichten für welche Maschinen zu teuer wären.
Ich hoffe, du meinst nicht Deutschland ;-)))
Ich kann mir im Anbetracht der erfolgreichen Social Media Viral Hits gut vorstellen, wie noch effektivere (im Sinne einer Droge) Unterhaltung aussehen könnte: der Zuschauer wäre dann wie der Affe im Experiment, der per Knopfdruck über Elektroden seine Orgas-men auslösen kann - warum sollte er jemals etwas anderes machen?
Einigen wird das passieren. Wie es jetzt schon Leuten ergeht, die irgendeiner Sucht ganz oder fast ganz verfallen sind. Im Kleinen kennt das doch jeder. Der wohlfeile Spruch ist, lass die Ersatzbefriedigung, such das Echte. Aber stimmt ja. Also auf.
Antwort von domain:
Nee, nee ... um Auflösung kommt man nicht rum.
Bilder können zwar durch NNs schärfer gerechnet werden und Texturen mehr oder weniger gut ersetzt werden, aber mit Reproduktion hat das eben nur sehr bedingt zu tun.
Mir scheint, dass du einen besonderen Aspekt der Warhnehmungsphysiologie inkl. der Ergänzungsfähigkeit des Hirns nicht beachtest.
Selbst aus 50m Entfernung würde ein verwaschen abgebildetes Kachelobjekt noch als "Kinderzauberwürfel" neuronal im Hirn ergänzt werden
zum Bild
Wichtiger als die reale Detailauflösung scheint für das Auge die lokale Veränderung der Intensität von Kanten und Konturen zu sein, welche den subjektiven Schärfeeindruck eines Bildes und seiner Strukturen ergibt.
Ein Nachteil aber fällt mir gelegentlich auch auf, nämlich das "Überschwingen" wie hier sichtbar. In der Nähe der Kante wird die hellere Fläche heller und die dunkle Fläche dunkler als die angrenzenden Grautöne abgebildet, was quasi einen unschönen Saum ergibt.
Gibt es denn da keinen Algorithmus, der das unterbindet?
zum Bild
Antwort von WoWu:
In 50 m kannst Du auch noch einen Elefanten als Elefant erkennen, ohne das das Gehirn großartig mitspielt.
Aber bei einer Winkelminute kann das Gehirn gar nicht mehr mitspielen, weil da Auge schon nicht mehr auflöst und wenn Du die Information nicht hast, dass das ein Zauberwürfel ist, kann auch das Gehirn da keinen konkreten Gegenstand raus machen.
Hier geht es um das Auflösungsvermögen und, umgerechnet auf einen Gegenstand, ist die Winkelminute etwa bei einem 2cm großen Gegenstand ungefähr bei 100 m erreicht, eher schon etwas davor, weil die Winkelminute bei 100m nur 2,91cm noch auflösen kann.
Aber das könnte jeder hier mit seiner Kamera ja ausprobieren denn die 4K entsprechen etwa diesen Bedingungen, variieren nur zwischen den verschiedenen Objektiven und unterschiedlichen Sensorgrössen.
Aber ganz grob ist das die "Hausnummer".
Antwort von domain:
2,91 Quadratzentimeter aus 100m Entfernung?
Das mach ich demnächst mal bei guter kontrastreicher Beleuchtung mit dem ultrascharfen Micro-Nikkor 55 mm und 6016 Pixel horizontal.
Wäre die Testkonstellation mit dieser Brennweite OK aus deiner Sicht?
zum Bild