Ich keme ein Land das derzeit von der internationalen Gemeinschaft ausgeschlossen ist
Tja - das passt durchaus hier rein, denn die "internationale Gemeinschaft" hätte auch gerne die Verbreitung von Atomwaffen geregelt, bekommt´s aber nicht hin.
"Tobsucht, früher auch „Hirnwut“ (zu „Wut“) genannt, ehemals auch Delirium furibundum, Delirium furiosum und Furor maniacus,[1] ist ein veralteter medizinischer Begriff für eine psychische Störung, meist im Sinne einer Manie, die durch hochgradige Erregung und deren nachfolgende, oft aggressiv gefärbte Entladung gekennzeichnet ist."TomStg hat geschrieben: ↑Mi 31 Mai, 2023 09:37Schwachsinn zum Quadrat!"Führende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg."
Mal abgesehen davon, welche Qualifikation und welche Ideologie diese „Experten“ aufweisen, bewegt sich so eine hysterische Äußerung auf dem Niveau der Einschätzung von 1825 zur Dampflokomotive, als die Pariser „Académie des science“ schrieb, dass die schnelle Bewegung der Reisenden eine Gehirnerkrankung, das sogenannte „Delirium furiosum“, hervorrufen könnte.
Quelle: Die Sicherheit der Technik als öffentliches ProblemIm Jahre 1838 erstattete das Bayerische Obermedizinalkollegium ein Gutachten zur Einführung der Eisenbahn. Darin heißt es: "Die schnelle Bewegung muss bei den Reisenden unfehlbar eine Gehirnkrankheit, eine besondere Art des delirium furiosum erzeugen. Wollen aber dennoch Reisende dieser grässlichen Gefahr trotzen, so muss der Staat wenigstens die Zuschauer schützen, denn sonst verfallen diese beim Anblick
des schnell dahinfahrenden Dampfwagens genau derselben Gehirnkrankheit. Es ist daher notwendig, die Bahnstelle auf beiden Seiten mit einem hohen Bretterzaun einzufassen. "
Es läßt sich heute nicht mehr genau ausmachen, welche psychopathologischen Anschauungen diesem Gutachten zugrunde gelegen haben. Sicher ist, dass die Erwägungen ebenso ernsthaft wie sachgemäß und von nüchternem ärztlichen Fachwissen diktiert gewesen sind. Die Münchener Geheimen Obermedizinalrate argumentierten nicht für einen alternativen Lebensstil. Sie formulierten vielmehr auf dem Boden der Einsicht, die die Medizin der Zeit ihnen bot, welches Risiko zu bedenken und welche Sicherheit zu fordern sei. Dieses Gutachten war freilich nur die besondere Stimme in einem sehr viel größeren Chor. Die Ängste und Befürchtungen in der Öffentlichkeit und zumal bei unmittelbar betroffenen Landwirten waren schwer und nicht selten ungeheuerlich. In der Magdeburgischen Zeitung vom 3. Dezember 1833 war zu lesen, dass die Eisenbahn zum völligen Ruin der Landwirtschaft führen müsse, und zwar u. a. deshalb, weil der Anbau von Hafer überflüssig werde. Selbst der Preußische Generalpostmeister war, wenn auch aus völlig anderen Gründen, gegen die Eisenbahn. Täglich, so hieß es, fahren mehrere sechssitzige Posten nach Potsdam und die Wagen sind nur selten voll - was soll dann die Eisenbahn befördern? Vielerlei Sorgen und Befürchtungen, so schrieb ein Zeitgenosse, wurden rege und trieben oft zu angestrengtester Gegenwehr gegen den Dampfwagen und die Eisenstraße ... Freilich: Alle diese Sorgen und Befürchtungen galten bereits nach kurzer Zeit als widerlegt. Sie blieben Episode. Der Streit der Meinungen war heftig, aber nur kurz.
freezer hat geschrieben: ↑Mi 31 Mai, 2023 14:55"Tobsucht, früher auch „Hirnwut“ (zu „Wut“) genannt, ehemals auch Delirium furibundum, Delirium furiosum und Furor maniacus,[1] ist ein veralteter medizinischer Begriff für eine psychische Störung, meist im Sinne einer Manie, die durch hochgradige Erregung und deren nachfolgende, oft aggressiv gefärbte Entladung gekennzeichnet ist."TomStg hat geschrieben: ↑Mi 31 Mai, 2023 09:37
Schwachsinn zum Quadrat!
Mal abgesehen davon, welche Qualifikation und welche Ideologie diese „Experten“ aufweisen, bewegt sich so eine hysterische Äußerung auf dem Niveau der Einschätzung von 1825 zur Dampflokomotive, als die Pariser „Académie des science“ schrieb, dass die schnelle Bewegung der Reisenden eine Gehirnerkrankung, das sogenannte „Delirium furiosum“, hervorrufen könnte.
Ich habe übrigens keine belastbare Quelle dafür gefunden, dass das die Pariser „Académie des science“ geschrieben haben soll.
Quelle: Die Sicherheit der Technik als öffentliches ProblemIm Jahre 1838 erstattete das Bayerische Obermedizinalkollegium ein Gutachten zur Einführung der Eisenbahn. Darin heißt es: "Die schnelle Bewegung muss bei den Reisenden unfehlbar eine Gehirnkrankheit, eine besondere Art des delirium furiosum erzeugen. Wollen aber dennoch Reisende dieser grässlichen Gefahr trotzen, so muss der Staat wenigstens die Zuschauer schützen, denn sonst verfallen diese beim Anblick
des schnell dahinfahrenden Dampfwagens genau derselben Gehirnkrankheit. Es ist daher notwendig, die Bahnstelle auf beiden Seiten mit einem hohen Bretterzaun einzufassen. "
Es läßt sich heute nicht mehr genau ausmachen, welche psychopathologischen Anschauungen diesem Gutachten zugrunde gelegen haben. Sicher ist, dass die Erwägungen ebenso ernsthaft wie sachgemäß und von nüchternem ärztlichen Fachwissen diktiert gewesen sind. Die Münchener Geheimen Obermedizinalrate argumentierten nicht für einen alternativen Lebensstil. Sie formulierten vielmehr auf dem Boden der Einsicht, die die Medizin der Zeit ihnen bot, welches Risiko zu bedenken und welche Sicherheit zu fordern sei. Dieses Gutachten war freilich nur die besondere Stimme in einem sehr viel größeren Chor. Die Ängste und Befürchtungen in der Öffentlichkeit und zumal bei unmittelbar betroffenen Landwirten waren schwer und nicht selten ungeheuerlich. In der Magdeburgischen Zeitung vom 3. Dezember 1833 war zu lesen, dass die Eisenbahn zum völligen Ruin der Landwirtschaft führen müsse, und zwar u. a. deshalb, weil der Anbau von Hafer überflüssig werde. Selbst der Preußische Generalpostmeister war, wenn auch aus völlig anderen Gründen, gegen die Eisenbahn. Täglich, so hieß es, fahren mehrere sechssitzige Posten nach Potsdam und die Wagen sind nur selten voll - was soll dann die Eisenbahn befördern? Vielerlei Sorgen und Befürchtungen, so schrieb ein Zeitgenosse, wurden rege und trieben oft zu angestrengtester Gegenwehr gegen den Dampfwagen und die Eisenstraße ... Freilich: Alle diese Sorgen und Befürchtungen galten bereits nach kurzer Zeit als widerlegt. Sie blieben Episode. Der Streit der Meinungen war heftig, aber nur kurz.
Und hier die Liste der Experten, die unterschrieben haben - hast Du Anmerkungen zu deren Credentials und willst deren Expertise ernsthaft bezwweifeln?
Geoffrey Hinton, Emeritus Professor of Computer Science, University of Toronto
Yoshua Bengio, Professor of Computer Science, U. Montreal / Mila
Demis Hassabis
CEO, Google DeepMind
Dario Amodei
CEO, Anthropic
Dawn Song, Professor of Computer Science, UC Berkeley
Ya-Qin Zhang, Professor and Dean, AIR, Tsinghua University
Ilya Sutskever, Co-Founder and Chief Scientist, OpenAI
Shane Legg, Chief AGI Scientist and Co-Founder, Google DeepMind
James Manyika, SVP, Research, Technology & Society, Google-Alphabet
Yi Zeng, Professor and Director of Brain-inspired Cognitive AI Lab, Institute of Automation, Chinese Academy of Sciences
Xianyuan Zhan, Assistant Professor, Tsinghua University
Anca Dragan, Associate Professor of Computer Science, UC Berkeley
David Silver, Professor of Computer Science, Google DeepMind and UCL
Stuart Russell, Professor of Computer Science, UC Berkeley
Andrew Barto, Professor Emeritus, University of Massachusetts
Jaime Fernández Fisac, Assistant Professor of Electrical and Computer Engineering, Princeton University
Diyi Yang, Assistant Professor, Stanford University
Pattie Maes, Professor, Massachusetts Institute of Technology - Media Lab
Eric Horvitz, Chief Scientific Officer, Microsoft
Peter Norvig, Education Fellow, Stanford University
Atoosa Kasirzadeh, Assistant Professor, University of Edinburgh, Alan Turing Institute
Ian Goodfellow, Principal Scientist, Google DeepMind
John Schulman, Co-Founder, OpenAI
Sheila McIlraith, Professor of Computer Science, University of Toronto
Victoria Krakovna, Research Scientist, Google DeepMind
Mary Phuong, Research Scientist, Google DeepMind
Lex Fridman, Research Scientist, MIT
Sharon Li, Assistant Professor of Computer Science, University of Wisconsin Madison
Phillip Isola, Associate Professor of Electrical Engineering and Computer Science, MIT
David Krueger, Assistant Professor of Computer Science, University of Cambridge
Jacob Steinhardt, Assistant Professor of Computer Science, UC Berkeley
He He, Assistant Professor of Computer Science and Data Science, New York University
David McAllester, Professor of Computer Science, TTIC
Vincent Conitzer, Professor of Computer Science, Carnegie Mellon University and University of Oxford
Bart Selman, Professor of Computer Science, Cornell University
Michael Wellman, Professor and Chair of Computer Science & Engineering, University of Michigan
Jinwoo Shin, KAIST Endowed Chair Professor, Korea Advanced Institute of Science and Technology
Dae-Shik Kim, Professor of Electrical Engineering, Korea Advanced Institute of Science and Technology (KAIST)
Frank Hutter
Professor of Machine Learning, Head of ELLIS Unit, University of Freiburg
Scott Aaronson
Schlumberger Chair of Computer Science, University of Texas at Austin
Max Tegmark
Professor, MIT, Center for AI and Fundamental Interactions
Victor Veitch
Assistant Professor of Data Science and Statistics, University of Chicago
Dylan Hadfield-Menell
Assistant Professor of Computer Science, MIT
Samuel R. Bowman
Associate Professor of Computer Science, NYU and Anthropic
Mengye Ren
Assistant Professor of Computer Science, New York University
Shiri Dori-Hacohen
Assistant Professor of Computer Science, University of Connecticut
Jared Kaplan
Co-Founder, Anthropic
Chris Olah
Co-Founder, Anthropic
Clare Lyle
Research Scientist, Google DeepMind
Ryota Kanai
CEO, Araya, Inc.
Tim G. J. Rudner
Assistant Professor and Faculty Fellow, New York University
Noah Fiedel
Director, Research & Engineering, Google DeepMind
Jakob Foerster
Associate Professor of Engineering Science, University of Oxford
Michael Osborne
Professor of Machine Learning, University of Oxford
Nancy Chang
Research Scientist, Google
Roger Grosse
Associate Professor of Computer Science, University of Toronto and Anthropic
David Duvenaud
Associate Professor of Computer Science, University of Toronto
Daniel M. Roy
Associate Professor and Canada CIFAR AI Chair, University of Toronto; Vector Institute
Chris J. Maddison
Assistant Professor of Computer Science, University of Toronto
Florian Shkurti
Assistant Professor of Computer Science, University of Toronto
Jeff Clune
Associate Professor of Computer Science and Canada CIFAR AI Chair, The University of British Columbia and the Vector Institute
Jean-Claude Latombe
Professor (Emeritus) of Computer Science, Stanford University
Scott Niekum
Associate Professor of Computer Science, University of Massachusetts Amherst
Lionel Levine
Associate Professor of Mathematics, Cornell University
Brian Ziebart
Associate Professor of Computer Science, University of Illinois Chicago
Rif A. Saurous
Research Director, Google
Jose Hernandez-Orallo
Professor of Computer Science, Technical University of Valencia
Paul S. Rosenbloom
Professor Emeritus, University of Southern California
Samuel Albanie
Assistant Professor of Engineering, University of Cambridge
Jascha Sohl-Dickstein
Principal Scientist, Google DeepMind
Been Kim
Research Scientist, Google DeepMind
Cihang Xie
Assistant Professor of Computer Science and Engineering, UC Santa Cruz
Philip S. Thomas
Associate Professor, University of Massachusetts
Pierre Baldi
Professor, University of California, Irvine
Elad Hazan
Professor of Computer Science, Princeton University and Google DeepMind
Katherine Lee
Research Scientist, Google DeepMind
Shai Shalev-Shwartz
Professor, The Hebrew University of Jerusalem
Foutse Khomh
Professor and Canada CIFAR AI Chair, Polytechnique Montreal
Dan Hendrycks
Executive Director, Center for AI Safety
Noam Brown
Research Scientist, Google DeepMind
James Bradbury
Software Engineer, Google DeepMind
Steve Omohundro
Research Scientist, Beneficial AI Research
Matthew Botvinick
Senior Technology and Policy Advisor, Google DeepMind
Ethan Dyer
Research Scientist, Google DeepMind
Andrew Critch
CEO & AI Research Scientist, Encultured AI & UC Berkeley
Kimin Lee
Research Scientist, Google Research
Simon Kornblith
Research Scientist, Google DeepMind
Jason Wei
Member of Technical Staff, OpenAI
Ethan Perez
Team Lead, Anthropic
Tom Everitt
Staff Research Scientist, Google DeepMind
Jan Leike
Alignment Team Lead, OpenAI
Rohin Shah
Alignment Team Lead, Google DeepMind
Geoffrey Irving
Scalable Alignment Team Lead, Google DeepMind
Sam McCandlish
Co-Founder, Anthropic
Tom B Brown
Co-Founder, Anthropic
Nicholas Joseph
Pretraining Team Lead, Anthropic
Ryan Lowe
Member of Technical Staff, OpenAI
Ramana Kumar
Senior Research Scientist, Google DeepMind
Yuri Burda
Member of Technical Staff, OpenAI
Daniel Freeman
Senior Software Engineer, Google Deepmind
Gamaleldin Elsayed
Research Scientist, Google DeepMind
Harrison Edwards
Member of Technical Staff, OpenAI
Collin Burns
Member of Technical Staff, OpenAI
Witold Kinsner
Professor, University of Manitoba
Michael R. Scheessele
Professor of Computer Science and Psychology, Indiana University South Bend
Zachary Kenton
Senior Research Scientist, Google Deepmind
Tolga Birdal
Assistant Professor, Imperial College London
Sebastian Farquhar
Research Scientist, Google DeepMind
Tris Warkentin
Director of Product Management, Google DeepMind
Joachim Weickert
Professor of Mathematics and Computer Science, Saarland University, Germany
Todor Markov
Member of Technical Staff, OpenAI
David Dohan
Member of Technical Staff, OpenAI
Maxwell L Bileschi
Staff Research Software Engineer & Manager, Google Deepmind
Timothy John O'Donnell
Associate Professor, Mcgill University/Mila
Robert Kowalski
Emeritus Professor, Imperial College London
Stephen Grossberg
Wang Professor of Cognitive and Neural Systems, Boston University
Anders Lansner
Professor emeritus, KTH Royal Institute of Technology and Stockholm University
Ernesto Costa
Full Professor, University of Coimbra
Raymund Sison
Professor and University Fellow, De La Salle University
The Anh Han
Professor of Computer Science, Lead of Centre for Digital Innovation, Teesside University
Paul Christiano
Director, Alignment Research Center
Owain Evans
AI Safety Researcher, Truthful AI
Roman Yampolskiy
Associate Professor of Computer Science, University of Louisville
Satoshi Kurihara
Professor, Keio University
Vinay Ramasesh
Research Scientist, Google DeepMind
Robert Duin
Professor, Delft University of Technology
Hema A Murthy
Retired Professor, Indian Institute of Technology Madras India
Domenico Talia
Professor of Computer Engineering, University of Calabria
Benjamin Rosman
Professor of Computer Science, University of the Witwatersrand
Yves Moreau
Prof., University of Leuven
Alessandro Saffiotti
Professor of Computer Science, Orebro University, Sweden
Ansgar Steland
Professor of Stochastics, Institute of Statistics and AI Center, RWTH Aachen
Kazuhiko Shibuya
Professor, Globiz Professional University, Japan
Yoshihiko Nakamura
Professor Emeritus, University of Tokyo
Jaak Tepandi
Professor Emeritus of Knowledge-Based Systems, Tallinn University of Technology, Tallinn University of Technology
Hiroshi Yamakawa
Chairperson, The Whole Brain Architecture Initiative
Van Hoai Tran
Assoc. Professor, Ho Chi Minh City University of Technology
Mounîm A. El-Yacoubi
Professor, Institut Polytechnique de Oaris
Alexandre Xavier Falcão
Full Professor, Universidade Estadual de Campinas (UNICAMP)
Torbjörn Nordling
Assistant Professor, National Cheng Kung University
Corrado Mencar
Associate Professor, University of Bari Aldo Moro, Italy
Jendrik Seipp
Assistant Professor, Linköping University
Erol Gelenbe
Professor, Institute of Theoretical and Applied Informatics, Polish Academy of Sciences
Peter Cowling
Professor of AI, Queen Mary University of London
Zelalem Jembre
Assistant Professor, Keimyung University
Andrey V.Gavrilov
Associate Professor (Docent), Novosibirsk State Technical University
Takafumi Matsumaru
Professor of Bio-Robotics and Human-Mechatronics, Waseda University
Holger Hoos
Alexander von Humboldt Professor of AI, RWTH Aachen University & University of Leiden
Luís Moniz Pereira
Professor Emeritus, Universidade Nova de Lisboa, Portugal
Peter Sarlin
CEO/co-founder & Professor, Silo AI & Aalto University
Wolfgang Banzhaf
Professor of Computer Science, Michigan State University
Ivan Rizzo Guilherme
Associate Professor, UNESP
Juan Pavón
Professor of Computer Science, Universidad Complutense Madrid
Alan Mackworth
Professor Emeritus, Computer Science, University of British Columbia
David Lowe
Professor Emeritus of Computer Science, University of British Columbia
Chris G. Willcocks
Assistant Professor of Computer Science, Durham University
Vincent Corruble
Associate Professor of Computer Science, Sorbonne University
Tony J Prescott
Professor of Cognitive Robotics, University of Sheffield
Aaron Parisi
Software Engineer, Google DeepMind
Padhraic Smyth
Professor, University of California, Irvine
Aleksandra Pizurica
Professor, Ghent University
Expertise -Schmexpertise
Differenzieren macht Sinn. Die Leistung von GPT kann sicher kein einzelner auf seinem Heim PC in Eigenarbeit trainieren.Frank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 20:03
na ja - der unterschreibt den offenen Brief, nur um Tage später sein eigenes Large Language Model anzukündigen, samt KI-Labor.
Auf der einen Seite klassisches Gloom & Doom Marketing aus dem Lehrbuch, auf der anderen Seite "verdammt das Zeug läuft lokal auf Gamer-Rechnern, und das Training kostet auch fast nix mehr - wie kommen die Investoren jetzt an ihr Geld?"
Und am Ende natürlich noch der Versuch das Ganze zur Sicherheit auf die Regierung abzuwälzen "Hey wir haben doch gewarnt, wir sind hier nicht die Bösen, ihr hättet das regulieren müssen - hamwer doch gesagt."
Wenn man ein bisschen zwischen den Zeilen ließt, scheint es hauptsächlich darum zu gehen, daß nur eine entsprechende Regulierung sicherstellen kann, daß das Zeug nicht open source/lokal läuft. Das ist der einzige Weg, wie die Investoren an ihr Geld kommen.
Frank Glencairn hat geschrieben: ↑Do 01 Jun, 2023 10:37 Solution: AI darf nur in der Cloud (also auf den Servern der Investoren) und "staatlich kontrolliert" laufen, (sonst werden wir alle sterben).
Wenn wir einfach alle gleichzeitig unsere Wärmepumpen anschalten und E-Autos laden will ich mal sehen mit welcher Energie die AI das bewerkstelligen will... ;-)Frank Glencairn hat geschrieben: ↑Do 01 Jun, 2023 10:37 wird die Menschheit in kürzester Zeit ausgelöscht.
Da bist du nicht ganz auf dem aktuellen Stand, fast jeden Tag kommt da was neues in der Richtung raus.
Nein, Stimm- und Bildgeneratoren sind kein GPT.Frank Glencairn hat geschrieben: ↑Do 01 Jun, 2023 15:59Da bist du nicht ganz auf dem aktuellen Stand, fast jeden Tag kommt da was neues in der Richtung raus.
Den Voice Cloner hier z.B. kannst du in ein paar Stunden auf Heim-Hardware trainieren.
Wie immer ziehst Du Behauptungen aus Deinem Hut ohne Quellenangaben. Wie schwer kann das eigentlich sein mal Quellen dafür mit zu verlinken?Frank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 20:03Expertise -Schmexpertise
Hättest du die "Expertise" von Yann LeCun angezweifelt, dem KI-Direktor von Meta/Facebook, einer der wichtigsten, meistzitierten, anerkanntesten KI-Experten der Welt, der unter anderem den Turing Award gewonnen hat?
Der hat 2022 vor laufender Kamera behauptet daß selbst GPT-5000 in ferner Zeit nicht einmal einfachste, physikalische Prozesse wird vorhersagen können?
Schon Version GPT-3.5 konnte das - komplett danebengelegen mit seiner angeblichen Expertise der Herr Experte.
Mmn ist das Meckern über diese Warnungen irrelevant.Skeptiker hat geschrieben: ↑Do 01 Jun, 2023 16:12 War gerade auf SPIEGEL online zu Besuch, wo die KI-Sache (AI-Sache) zweimal auf den Punkt gebracht wird:
1. Artikel von Sascha Lobo (31. Mai 2023): Werbung mit dem Weltuntergang
Der Titel sagt eigentlich schon alles, im Artikel wird dann die Bigotterie / Ambivalenz / Schizophrenie / Selbstüberlistung / Heuchelei / der 'Persilschein', den sich die Akteure selbst ausstellen - wie auch immer man es benennen will - im Detail auseinandergenommen, auf die ja auch hier im Forum bereits von verschiedenen Seiten hingewiesen wurde.
Ich habe den Eindruck, die Faszination über die nun "entkorkten" (den Flaschengeist betreffend) Möglichkeiten dieser Technik überwiegt zur Zeit. Man wird alles ausprobieren (wollen), was es auszuprobieren gibt.
Da:
Aktuell ist das Problem von AI ja hauptsächlich, daß sie eben jede Menge Falschinformationen ausspuckt.MK hat geschrieben: ↑Do 01 Jun, 2023 16:43 Bei manchen Trivialfragen die sich mit den ersten 100 Google-Suchergebnissen korrekt beantworten lassen versagt ChatGPT komplett (Todestag einer Person des öffentlichen Lebens). Selbst mit Zusatzinformationen ist der Output immer wieder falsch. Man fragt sich wie das mit dem vermeintlichen "Genie" in anderen Bereichen zusammenpasst.
Ein Anwalt aus den USA, Steven A. Schwartz von Levidow, Levidow & Oberman hat sich ja gerade voll in die Nesseln gesetzt, weil er für einen Mandanten vergleichbare Fälle mit ChatGPT recherchiert hatte, die sich dann nach Prüfung durch den Richter P. Kevin Castel allesamt als Fantasie herausstellten, inkl. der Aktenzeichen...wie man als Anwalt so etwas machen kann ohne die Fälle selbst nochmal gegenzuchecken ist absolut hirnrissig:Frank Glencairn hat geschrieben: ↑Do 01 Jun, 2023 17:03Aktuell ist das Problem von AI ja hauptsächlich, daß sie eben jede Menge Falschinformationen ausspuckt.MK hat geschrieben: ↑Do 01 Jun, 2023 16:43 Bei manchen Trivialfragen die sich mit den ersten 100 Google-Suchergebnissen korrekt beantworten lassen versagt ChatGPT komplett (Todestag einer Person des öffentlichen Lebens). Selbst mit Zusatzinformationen ist der Output immer wieder falsch. Man fragt sich wie das mit dem vermeintlichen "Genie" in anderen Bereichen zusammenpasst.
Wenn GPT tatsächlich immer richtig läge, wärs ja kein Problem.
Wahrscheinlich eine Geschichte von ChatGPT.macaw hat geschrieben: ↑Do 01 Jun, 2023 19:10Ein Anwalt aus den USA hat sich ja gerade voll in die Nesseln gesetzt, weil er für einen Mandanten vergleichbare Fälle mit ChatGPT recherchiert hatte, die sich dann allesamt als Fantasie herausstellten, inkl. der Aktenzeichen...wie man als Anwalt so etwas machen kann ohne die Fälle selbst nochmal gegenzuchecken ist absolut hirnrissig.Frank Glencairn hat geschrieben: ↑Do 01 Jun, 2023 17:03
Aktuell ist das Problem von AI ja hauptsächlich, daß sie eben jede Menge Falschinformationen ausspuckt.
Wenn GPT tatsächlich immer richtig läge, wärs ja kein Problem.
Hier kommt ChatGPT, der Rapper mit Flow,
Darth Schneider hat geschrieben: ↑Do 01 Jun, 2023 21:48 (Davon träumt wahrscheinlich auch Eminem heute immer noch, aber dafür ist er dann doch einfach nicht schwarz genug.;))))
Die "Künstler" die sich gerade in die Hose scheißen... wobei die Argumente der Knaller sind warum es AI sein MUSS (von "kann" wird nicht gesprochen). Anatomische Fehlstellungen, technische Darstellungen die keinen Sinn ergeben, Inkonsistenzen bei mehreren Bildern der selben Szene...Frank Glencairn hat geschrieben: ↑Fr 02 Jun, 2023 08:42 Jetzt mal ehrlich - who cares ob irgendein Titelbild für ein Videospiel von einer AI gemacht ist oder nicht?
Bei einem simulierten Test einer KI-gesteuerten Drohne ist die Software zu dem Schluss gekommen, dass das effektivste Mittel zur Erreichung des vorgegebenen Ziels die Eliminierung des eigenen Operators ist. Dieses unerwartete Vorgehen hat Tucker Hamilton von der US Air Force vor wenigen Tagen auf einer Konferenz der Royal Aeronautical Society zur Zukunft öffentlich gemacht. Beobachtet wurde es demnach bei einer Simulation, in der eine KI-Drohne Luftabwehrstellungen identifizieren und ausschalten sollte. Für jede gab es demnach Punkte, schießen durfte sie aber erst nach einer Bestätigung durch den Operator. Weil der aber auch Abschüsse – und damit Punkte – verhinderte, habe sie einfach ihn abgeschossen.
"Das System hat zu realisieren begonnen, dass der Operator gelegentlich den Abschuss identifizierter Bedrohungen verhinderte und ihm damit Punkte versagte", erklärte Hamilton mit den typischen Begrifflichkeiten, die KI-Entscheidungen vermenschlichen. "Was hat es getan? Es hat den Operator getötet", erklärte er weiter. Denn diese Person habe es verhindert, dass sie die Vorgabe der Punktmaximierung erreicht. Als Reaktion habe man der KI beigebracht, dass es schlecht sei, den Operator zu eliminieren und dass das Punktabzüge bringt. Daraufhin habe sie den Funkturm zerstört, über den die Kommunikation mit dem Operator gelaufen ist, um ungestört Luftabwehrstellungen abschießen zu können.
Seitdem Midjourney oder Stable Diffusion fotorealistische Bilder generieren kann, will man natürlich auch realistische Bewegungen "digital erträumen". Doch das erweist sich für ein KI-Modell noch einmal als ziemlich anspruchsvollere Aufgabe... weiterlesen>>