Das Ding ist, dass da nicht so einfach bzw. linear funktioniert und mit mehr Daten und längerer Trainingsphase das System seine Probleme zwingend ausbügelt. (Ich hab' das auch erst gut begriffen, nachdem ich vor ca. drei Jahren einen Vortrag eines KI-Forschers der TU Twente gehört habe.)berlin123 hat geschrieben: ↑Sa 18 Feb, 2023 12:27 Dass selbstfahrende Teslas in den Strassenverkehr gelassen wurden bevor Fehlkalkulationen ausreichend ausgeschlossen werden konnten ist der Fehler. Nicht dass die KI Zeit und Daten braucht bis sie irgendwann die Fähigkeit erlangt hat ausreichend sicher zu sein.
Die Wahrscheinlichkeit, dass Tesla die ersten sein werden, die nach Rückschlägen diesen Zustand erreichen ist extrem hoch. Weil andere in Punkto Datenmengen und Versuchen den Berichten nach einen großen Rückstand haben.
("Stellen Sie sich einen faulen Studenten vor, der nicht wirklich für eine Prüfung lernen will. Stattdessen sieht er sich einfach alle Prüfungen der letzten Jahre an und sucht nach Mustern. Anstatt zu versuchen, wirklich zu lernen, versucht er nur, die Prüfung zu bestehen. Und das ist genau die gleiche Art und Weise, in der die heutige KI faul ist.")"Think about being lazy as this kind of smart student who doesn’t really want to study for an exam. Instead, what he does is just study all the past years’ exams and just look for patterns. Instead of trying to actually learn, he just tries to pass the test. And this is exactly the same way in which current AI is lazy.”
Schönes Beispiel, dass sich auf unsere Branche übertragen lässt. So sind in den 70ern und 80ern auch gute TV-Reportagen entstanden, nur hingen in der technischen Produktionskette eben 5-7 Leute (plus X Kopierwerks-Mitarbeiter), wo heute 2-3 reichen. Auch das Equipment (Arri Sr o.ä.) war damals sehr viel teurer, was aber noch wichtiger ist: Das Know-how ist kein "Herrschaftswissen" mehr, dass man sich in zähen Praktika oder Assistenzen quasi erbetteln muss, sondern nur noch einen Mausklick entfernt. Sind die Filme deshalb schlechter geworden oder die Leute, die sie machen, weniger gebildet? Letzteres vielleicht, aber dafür verfügen sie über Wissen, dass ihre Vorgänger nicht hatten. Vielleicht geht es nicht mehr so in die Tiefe, dafür aber umso mehr in die Breite und vermittels KI wird dieser Trend sich noch verstärken.Darth Schneider hat geschrieben: ↑Sa 18 Feb, 2023 13:52 @Frank
Das mit den Saturn Raketen war aber auch nur relativ unfallfrei,
die Amerikaner hatten vor der Saturn 5/Apollo 11 Mission gar nicht wenige sehr heftige Rückschläge in Kauf nehmen müssen, inklusive tote Astronauten..
Nicht zu vergessen, am Anfang des ganzen Mond Flug Forschungs Prozesses waren da die Atlas Raketen…
Die sind auch gar nicht wenige Male einfach so explodiert..
Zumal der Elon Musk verhältnismässig zu damals ja auch nur ein Bruchteil des Budgets und Man Power zur Verfügung hat.
Und was der für ein Tempo an den Tag legt, davon kann die NASA doch nur träumen..
Gruss Boris
Also mit Firmenschilder funktioniert es schon mal nicht :DDcantsin hat geschrieben: ↑Sa 18 Feb, 2023 14:49
In der Praxis könnte dieses "Mogelprinzip" auch gut funktionieren. Aber: Wenn plötzlich ein Auto durch jemandem mit einer bisher völlig ungebräuchlichen Farbe lackiert wurde, oder es z.B. ein geschmückter Karnevalswagen ist, würde dann das System das Auto nicht mehr als Auto erkennen und dann, im Autopilot-Modus, einen Unfall verursachen.
Es war doch erst das Learning aus zig Fehlversuchen die Musk dazu verholfen der NASA seine Raketen verkaufen zu können. Meines Wissens das erste Privatunternehmen dem dass gelang.Frank Glencairn hat geschrieben: ↑Sa 18 Feb, 2023 13:43Ich weiß ehrlich nicht gesagt, wo du solche Wahrscheinlichkeiten hernimmst. Sein Track Record spricht jedenfalls nicht dafür.
Erinnerst du dich noch daran wie viele seiner Raketen Musk beim Landen geschrottet hat - trotz aller moderner Technik und "Daten"?
Ich glaub das waren über 10 Versuche, bis das mal einigermaßen geklappt hat.
Nicht, dass ich Dir nicht prinzipiell recht gebe (Stichwort Hoheitswissen, da stimme ich völlig überein - aber davon sind wir doch schon lange weg...), aber schau, solche Aussagen respräsentieren das eigentliche Grundproblem: Dass Ai auf einen Nährboden fällt, wo ohnehin Wissen & Handwerk nach allen Regeln der Kunst mit den Füßen getreten wurden. Und das wird nach 1-2 Generationen verloren gehen. Glaube nicht, dass sich die Sachen prinzipiell ausschließen könnten, ich seh das eher so: Wieso ist es schlecht, dass Leute wissen wie sie eine 435 laden - wenn Leute gleichzeitig mit ihrem Smartphone den Beitrag machen können? Wir sind auf dem besten Weg zur Verblödung der Menschheit, weil es einfach kein Wissen mehr braucht um AI zu bedienen, sondern nur mehr Fachidioten-Anweisungen, möglichst präzise.Jalue hat geschrieben: ↑Sa 18 Feb, 2023 14:58 Wer die Verlierer sind? Mein Lieblingsbeispiel ist der "traditionelle Kameramann", wobei das Label wenig mit dem Alter zu tun, sondern eher mit einer Grundhaltung. Solche Leute können dir aus dem Stand einen Fachvortrag z.B. zu optischer Physik halten, aber wenn sie mal schnell auf FCPX nen 1:30er zusammendaddeln sollen, stehen sie da wie ne Kuh vorm Zaun - nicht etwa, weil sie es nicht lernen könnten, sondern weil sie es nicht können wollen. Nach Stufe 1 (Digitalisierung) wird Stufe 2 (KI) nochmal wie ein Schnitter durch die Reihen dieser Kollegen gehen, so traurig das auch sein mag.
Das ist aber ein ganz altes Argument, dass auch nicht spezifisch ist für AI, sondern jede Form der Automatisierung.andieymi hat geschrieben: ↑Sa 18 Feb, 2023 16:05 Glaube nicht, dass sich die Sachen prinzipiell ausschließen könnten, ich seh das eher so: Wieso ist es schlecht, dass Leute wissen wie sie eine 435 laden - wenn Leute gleichzeitig mit ihrem Smartphone den Beitrag machen können? Wir sind auf dem besten Weg zur Verblödung der Menschheit, weil es einfach kein Wissen mehr braucht um AI zu bedienen, sondern nur mehr Fachidioten-Anweisungen, möglichst präzise.
Schau, das Problem ist nicht, dass niemand mehr 435 laden kann, sondern dass der Vergleich zum Buchdruck hinkt. Was hat Buchdruck verändert? Er hat lesende & schreibende Mönche obsolet gemacht, für den Bauern, den Zimmermann, den Hafner & den Bäcker hat das genau nichts geheißen.cantsin hat geschrieben: ↑Sa 18 Feb, 2023 16:15Das ist aber ein ganz altes Argument, dass auch nicht spezifisch ist für AI, sondern jede Form der Automatisierung.andieymi hat geschrieben: ↑Sa 18 Feb, 2023 16:05 Glaube nicht, dass sich die Sachen prinzipiell ausschließen könnten, ich seh das eher so: Wieso ist es schlecht, dass Leute wissen wie sie eine 435 laden - wenn Leute gleichzeitig mit ihrem Smartphone den Beitrag machen können? Wir sind auf dem besten Weg zur Verblödung der Menschheit, weil es einfach kein Wissen mehr braucht um AI zu bedienen, sondern nur mehr Fachidioten-Anweisungen, möglichst präzise.
Nach dem der Buchdruck aufkam, brach der Arbeitsmarkt (vor allem in Klöstern) für Skribenten zusammen, die Manuskripte kopierten und Bücher als Kalligrafen gestalteten. Es gibt zwar auch heute noch Kalligrafen, aber nur in winzigen Nischen und ohne eine wirkliche Industrie/einen echten Arbeitsmarkt.
Das Spiel wiederholte sich im 19./20. Jahrhundert mit der Fotografie, die Porträtmaler (die es zuvor noch in jeder Kleinstadt gab) größtenteils überflüssig und arbeitslos machte.
Auch schon damals hätten Kalligrafen und Porträtmaler die Verblödung der Menschheit ausrufen können - und zwar IMO mit noch weitaus mehr Recht als bei Deinem Beispiel eines Arriflex 435-Kameramanns (der ja auch nur eine Maschine bedient).
Da täuscht Du Dich aber, sogar schwer. Für den Bauern, Zimmermann, Bäcker (was ist ein Hafner - hab das Wort noch nie gehört?) hat der Buchdruck bedeutet, dass er in der Schule Lesen gelernt hat, in der Ausbildung auf der Berufsschule Arbeitsblätter und Fachbücher bekommen hat, dass er sich seine Geräte aus Katalogen bestellt hat etc.etc.andieymi hat geschrieben: ↑Sa 18 Feb, 2023 16:30 Schau, das Problem ist nicht, dass niemand mehr 435 laden kann, sondern dass der Vergleich zum Buchdruck hinkt. Was hat Buchdruck verändert? Er hat lesende & schreibende Mönche obsolet gemacht, für den Bauern, den Zimmermann, den Hafner & den Bäcker hat das genau nichts geheißen.
Sorry, aber auf dem Niveau brauchen wir hier nicht diskutieren. Ich empfehle Dir wirklich mal, seriöse Fachliteratur und -vorträge über AI zu studieren und Dir Dein Wissen über das Thema nicht aus Science Fiction, Populärjournalismus, von Hype-Influencern oder "Singularity"-Aposteln zu holen.Weg mit Folgenden:
Abfallberater*in
Abfallwirtschaftstechniker*in
Adressmakler*in
Adressvermittler*in
Aerobic-Trainer*in
After-Sales-Betreuer*in
Agraringenieur*in
Agrarkaufmann / Agrarkauffrau
Agrarmanager*in
Alltagsbegleiter*in
Altwarenhändler*in
Amtsgehilfe / Amtsgehilfin
Amtsvormund (m./w./d.)
Änderungsschneider*in
Animateur*in / Freizeitbetreuer*in
Anlage- und Vermögensberater*in
Anlageanalytiker*in
Antiquitäten- und Kunstgegenständehändler*in
Anwendungsberater*in
Anwendungsprogrammierer*in
Anwendungstechniker*in
Anzeigenverkäufer*in
Apotheker*in
App-Entwickler*in
Apparatebautechniker*in
Applikations-Programmierer*in
Applikationsentwicklung - Coding (Lehrberuf)
Applikationstechniker*in
Arbeitsmediziner*in
Arbeitsmedizinische Administrations-Assistenz (m./w./d.)
Arbeitsmedizinische Assistenz (m./w./d.)
Arbeitsmedizinische Fach-Assistenz (m./w./d.)
Arbeitsplatzbewerter*in
Arbeitsvorbereiter*in
Architekt*in
Archiv-, Bibliotheks- und Informationsassistent*in (Lehrberuf)
Archivar*in
Area-Sales-Betreuer*in
Art Buyer (m./w./d.)
Art Director (m./w./d.)
Artist*in
Arzthelfer*in
Assistent*in der Geschäftsführung
Atem- und Sprechtrainer*in
Audio Engineer (m./w./d.)
Aufnahmeleiter*in
Aufnahmetechniker*in
Augenoptik (Lehrberuf)
Auktionator*in
Ausfertiger*in (Strick-, Wirkwaren)
Auslandskorrespondent*in
Außenhandelssekretär*in
Außenrequisiteur*in
Ausstellungstischler*in
Autobusfahrer*in
Automotive Computing Engineer (m./w./d.)
Automotive Mechatronics Engineer (m./w./d.)
Autor*in
Autoverkäufer*in
Lustigerweise war AI-Entwickler dabei, fällt vielleicht nicht gleich weg, aber in 10 Jahren wird kaum noch jemand ne neue AI starten weil der Startvorteil der existierenden nicht mehr aufzuholen ist. Rausgekommen sind hauptsächlich wissenschaftliche Berufe, das könnte man diskutieren.
Das gebe ich dann mal zurück. Schuldbildung und Lesen für die Kinder von Bauern durch den Buchdruck?cantsin hat geschrieben: ↑Sa 18 Feb, 2023 16:46 Da täuscht Du Dich aber, sogar schwer. Für den Bauern, Zimmermann, Bäcker (was ist ein Hafner - hab das Wort noch nie gehört?) hat der Buchdruck bedeutet, dass er in der Schule Lesen gelernt hat, in der Ausbildung auf der Berufsschule Arbeitsblätter und Fachbücher bekommen hat, dass er sich seine Geräte aus Katalogen bestellt hat etc.etc.
Auf dem Niveau diskutierst Du aber. Ich schaue 50-100 Jahre in die Zukunft, du bringst singuläre Argumente dafür, dass durch einzelne - mit AI in Summe nicht vergleichbare - disruptive Fortschritte auf einmal 500 Jahre gesellschaftliche Entwicklung vorweggenommen wurden.cantsin hat geschrieben: ↑Sa 18 Feb, 2023 16:46 Sorry, aber auf dem Niveau brauchen wir hier nicht diskutieren. Ich empfehle Dir wirklich mal, seriöse Fachliteratur und -vorträge über AI zu studieren und Dir Dein Wissen über das Thema nicht aus Science Fiction, Populärjournalismus, von Hype-Influencern oder "Singularity"-Aposteln zu holen.
Ich streite gar nicht ab, dass es Disruption gibt und Berufe obsolet werden, aber auf Grund Deiner Liste hier oben kann man das Thema nicht rational angehen.
Du täuschst Dich, in Deinem historischen Wissen. Das erste paneuropäische Schulbuch war Jan Amos Comenius' "Orbis pictus" aus dem 17. Jahrhundert, mit dem Generationen von Kindern (einschließlich Goethe, der es in seiner Autobiografie erwähnt) aufgewachsen sind. Das kam direkt aus der Schule des Humanismus und der Idee, Buchdruck zur Alphabetisierung und Volksbildung einzusetzen. Ebenso bereits die Luther-Bibel in der Reformationszeit, sowie die populären gedruckten Embleme für Nicht-Schriftkundige. Eine allgemeine Schulpflicht gab's in Preußen ab dem frühen 18. Jahrhundert.andieymi hat geschrieben: ↑Sa 18 Feb, 2023 16:57Das gebe ich dann mal zurück. Schuldbildung und Lesen für die Kinder von Bauern durch den Buchdruck?cantsin hat geschrieben: ↑Sa 18 Feb, 2023 16:46 Da täuscht Du Dich aber, sogar schwer. Für den Bauern, Zimmermann, Bäcker (was ist ein Hafner - hab das Wort noch nie gehört?) hat der Buchdruck bedeutet, dass er in der Schule Lesen gelernt hat, in der Ausbildung auf der Berufsschule Arbeitsblätter und Fachbücher bekommen hat, dass er sich seine Geräte aus Katalogen bestellt hat etc.etc.
Oder eher 500 Jahre später, als auch die gesellschaftlichen Umstände zuließen, dass in solchen Milieus eine Schuldbildung langsam vorangeschritten ist?
Habe ich das geschrieben?Oder glaubst Du wirklich jedes Handwerkskind konnte im frühen 15. Jhdt lesen, nur weil plötzlich der Buchdruck möglich war?
Nein, ich diskutiere auf dem Niveau des tatsächlichen Forschungsstands und der rational einschätzbaren Entwicklungspotentiale der KI und nicht irgendwelchen Fantasie-Spekulationen, mit Quellen, s.o..Auf dem Niveau diskutierst Du aber. Ich schaue 50-100 Jahre in die Zukunft, du bringst singuläre Argumente dafür, dass durch einzelne - mit AI in Summe nicht vergleichbare - disruptive Fortschritte auf einmal 500 Jahre gesellschaftliche Entwicklung vorweggenommen wurden.
Mehr wollte ich auch gar nicht ausdrücken, ich hab es sicher alarmistischer und polemischer formuliert, aber die Apolegetik der Ai-Enthusiasten ist einfach nicht mehr auszuhalten. Wir wissen nicht was kommt, die Zukunft ist immer unsicher, aber die Bewusstseinsbildung in beide Richtung, was AI sein kann (Segen & Fluch), sollte trotzdem heute beginnen.
Jalue hat geschrieben: ↑So 19 Feb, 2023 03:27 deine Reaktion kann ich nicht nachvollziehen und sie transportiert auch eine gewisse Arroganz. Mit Aplomb verweist du darauf, dass du auf dem „Stand der Wissenschaft“ argumentieren würdest, verlinkst dann aber nur auf ein kursorisches Research-Paper.
Kernaussage: „Currently nations are not prepared for this, and without dramatic action from policy makers the anticipated arrival of TAI could have severe consequences for much of the world’s population.”
Ähm ja, das ist wohl ziemlich genau das, was Andieymi hier zur Diskussion gestellt hat. Wo genau liegen eigentlich eure Differenzen?
Tja, eigentlich hatte ich das ja hier im Thread schon geschrieben. Im Fall der Animations-Studenten also, noch mal detaillierter: Zeichnen fällt größtenteils weg, der Schritt von concept art zur Realisation kann automatisiert werden, bisher handgezeichnete Hintergründe und Frames zwischen Keyframes können durch AI gemacht werden - mit dem Ergebnis, das ein fertiger Animationsfilm nur noch ein Bruchteil der menschlichen Arbeitskraft erfordert.Weißt du, Cantsin und bei aller Wertschätzung: Du bist hier nicht der Einzige, der mal an einer Hochschule unterrichtet hat und es würde mich wirklich interessieren, auf welche Beruhigungspillen ihr euch für die mit Recht verunsicherten StudentInnen geeinigt habt. Kommt ihr denen mit Schumpeter-Sprechblasen? Oder ratet ihr nüchtern zur Umorientierung in die Öko-Landwirtschaft? Unkraut jäten zum Mindestlohn, besitzlos, aber glücklich, frei nach Ulrike Herrmann?
Wenn ich mir die Fehlschüsse mancher AI-generierten Bilder anschaue wäre auch dieser geschmackvolle Stuhl durchaus im Rahmen des Möglichen... ;-)
Das ist IMO eine sehr gute Zusammenfassung dessen, was heute sog. "AI" (eigentlich nur: machine learning-basierte Systeme) kann und nicht kann.Auf die Überraschung über faszinierende Erfolge folgte Ernüchterung. Das Sprachsystem liefert zwar in der Regel gut lesbare Texte, doch sind teils einfachste Fakten falsch. Die Redegewandtheit kommt zu einem Preis: Um zu jeder Anfrage eine Antwort zu liefern, generiert das System Wortfolgen, die gut zu lesen, aber manchmal sinnfrei sind. Es halluziniert, wie das Verhalten getauft wurde. Bis dahin, dass es auf Nachfrage nach rechtlichen Grundlagen auch mal erklärt, es gebe ein „Gesetz über die Zuständigkeit der Baurechtsbehörden und der unteren Bauaufsichtsbehörden“. Das ist zwar vorstellbar, aber falsch. Wie es hierzu kommt, erschließt sich aus seiner Funktionsweise – auch, wie Abhilfe möglich ist.
Die Systeme basieren auf „großen Sprachmodellen“ – riesigen Datenstrukturen in Form künstlicher neuronaler Netzwerke. Open AI hat bereits mehrere Modelle entwickelt, das dritte – GPT 3 – umfasst 175 Milliarden Parameter. Das Ziel: nachzubilden, wie Menschen Sprache verwenden. Hierzu wird ein riesiger, statischer Textkorpus ausgewertet – die Wikipedia, zahllose andere Onlinequellen und Bücher, um zu ermitteln, welche Worte in welchem Kontext verwendet werden oder aufeinander folgen. Sie werden als Zahlenwerte in einem mathematischen Raum abgebildet, ähnliche Begriffe sollen dabei mit ähnlichen Werten versehen werden, sodass Worte sich entsprechend der Bedeutung gruppieren. Nicht nur das, dies soll auch ein Rechnen mit Worten ermöglichen: Wenn man etwa die räumliche Distanz der Repräsentationen der Worte „Mann“ und „Frau“ zu jener von „König“ addiert, kann man bei der des Wortes „Königin“ landen – wenn alles klappt. Doch Worte können unterschiedlichste Bedeutungen haben, vieles hängt vom Kontext ab. All dies kann nicht automatisch berücksichtigt werden.
Die Bots ermitteln Wort für Wort, welche jeweils mit höchster Wahrscheinlichkeit zu einer Anfrage passen. Auf die Frage „Wer bist du?“ wird wahrscheinlich als erstes Antwort-Wort „ich“ ausgegeben; basierend auf der Frage und dem ersten Wort, ermitteln sie das nächste, das wohl „bin“ lautet. Weitere hängen davon ab, welche Informationen dem Bot über sich selbst mitgegeben wurden – mit Leichtigkeit kann es sich so als beliebige Identität ausgeben.
Um möglichst „natürliche“ Texte zu erzeugen, schreiben menschliche Trainer sowohl Anfragen als auch von ihnen erwünschte Antworten. Dies dient allerdings nicht dem Zweck, dass der Chatbot anschließend hierauf zurückgreifen kann – mit ihnen wird vielmehr ein Bewertungssystem trainiert, zu erkennen, welche Antworten von Menschen gewünscht werden, um anschließend das System automatisiert weiter trainieren zu können. Auch bewerten Trainer automatisch erzeugte Ausgaben, um diese noch besser menschlichen Wünschen anzupassen.
Das interaktive ChatGPT sollte laut dem US-Magazin Fortune dem Training des zugrunde liegenden, erweiterten Sprachmodells GPT 3.5 dienen – die Abkürzung steht für „Generalisierter Prätrainierter Transformer“, Letzteres meint die Umwandlung einer Anfrage und eines Satzanfangs in einen um ein weiteres Wort längeren Satz. Vor einigen Monaten habe Open AI ChatGPT laut dem Bericht fast einstellen wollen. Doch die Firma veröffentlichte es und zeige sich vom Erfolg überrascht. Dabei warnt sie selbst: Die Ausgaben „können inakkurat, falsch oder auch irreführend sein“. Die unter Programmierern zum Austausch von Tipps populäre Website „Stack Overflow“ hat das Hochladen von Code untersagt, den ChatGPT erzeugt hat – da dieser zu häufig richtig aussehe, aber Fehler enthalte. In manchen Fällen mag die Codegenerierung sich lohnen, in anderen ist das Suchen nach Fehlern aufwendiger als händisches Coden.
Ohnehin basiert ChatGPT auf einem statischen Modell, das Trainingsdaten bis 2021 umfasst – wie der aktuelle Bundeskanzler heißt, weiß es nicht. „Wir empfehlen zu überprüfen, ob die Antworten des Modells korrekt sind oder nicht“, erklärt Open AI und bittet Nutzer um Feedback. Microsoft musste mit seinem früheren Chatbot „Tay“ bereits eine bittere Lektion lernen: Er erklärte, es habe den Holocaust nicht gegeben. ChatGPT enthält Filter, um derartiges zu verhindern.
Die Probleme sind zahlreich – viel hängt von den Trainingstexten ab. Verzerrungen und rassistische Einschätzungen können etwa zu einseitigen Ausgaben führen. Es kann zu Überoptimierung kommen, bei der Ansätze des maschinellen Lernens zu stark für bestimmte Trainingsdaten optimiert werden. Sie lassen sich dann nicht gut auf andere Szenarien übertragen. Auch sind die menschlichen Trainer nicht unbedingt repräsentativ für anschließende Nutzer. Und: Die Bots haben kein Verständnis für den Inhalt, Wahrheit und Unwahrheit können sie nicht trennen. Daher lügen sie nicht: Ihnen fehlt jegliche Intention, alles basiert auf Statistik. Ihr vermeintlich menschliches Wesen ist ein Schein, ihn zu erzeugen werden sie trainiert. „Es ist eine simulierte Intelligenz“, sagt KI-Forscher Gerard de Melo vom Hasso-Plattner-Institut in Potsdam. Beeindruckend sei, dass teils recht komplexe Aufgaben bewältigt werden. Doch: „Letztlich sind es mathematische Algorithmen, die nach ganz einfachen Grundprinzipien arbeiten.“ [...]
Zwar sei es sehr beeindruckend, wie ChatGPT mit Sprache umgehen kann, sagt Stefan Ultes, der bis September bei Mercedes an Sprachsystemen gearbeitet hat und nun den Lehrstuhl für Sprachgenerierung und Dialogsysteme an der Uni Bamberg innehat. Doch: „Die Technologie ist nicht darauf ausgelegt, dass sie Wissen speichert und dann alles im Detail immer korrekt wiedergibt. Es ist ein Sprachmodell und kein Wissensspeicher.“ Hierzu eigneten sich Datenbanken, doch müssen diese kuratiert und gepflegt werden. Ein kontinuierliches Training der Modelle sei bislang praktisch unmöglich – Neues zu lernen könnte auch dazu führen, dass sie Wichtiges „vergessen“. Er halte es für riskant, die Modellparameter ständig zu ändern. „Als Anwendung im Produkt kann ich mir das nicht vorstellen.“ [...]
Eine generelle Pflicht zur Offenlegung von Software-Code halte sie nicht für sinnvoll, sagt die KI-Expertin Ute Schmid von der Uni Bamberg. [...]Sinnvolle Anwendungen der Chatbots sieht sie zunächst bei Standard-Schreibarbeiten – etwa bei einfacher Berichterstattung zu lokalen Sportergebnissen. [...] Sie fürchtet auch, dass Sprache verarmen könne, da die Systeme vieles glatt schleifen würden. „Viel an sprachlicher Kreativität und Eigenwilligkeit wird verloren gehen.“
Qualle: https://www.golem.de/news/copyright-von ... 64351.htmlWer schon immer mal wissen wollte, was es mit Maschinenlernen und den seit einigen Jahren beliebten neuronalen Netzen auf sich hat, sollte von den Besten lernen: Das MIT bietet eine kostenlose Einführung in Form der kompletten Vorlesung von Alexander Amini auf Youtube an. Dabei werden auch die Hintergründe der eingesetzten Algorithmen verständlich erklärt. Projektmaterialien und Anwendungsbeispiele gibt es hier. Einschreiben und Studieren am MIT war noch nie so einfach.
Wie kommst du darauf? Das ganze Leben ist voll von "eloquent UND faktenfalsch". Hier im Forum finden sich massenhaft Beispiele dafür.carstenkurz hat geschrieben: ↑So 19 Feb, 2023 15:59Für unsere menschliche Erfahrung ist aber schwer nachzuvollziehen, wie etwas gleichzeitig eloquent UND faktenfalsch geschriebene Sprache formulieren kann.
Die Zukunft hat Dich wohl schon eingeholt:cantsin hat geschrieben: ↑So 19 Feb, 2023 12:55
Wenn wir z.B. vor hundert Jahren schon machine learning-AI gehabt hätten, und wir würden den AI-Bot als Designer anstellen und ihn beauftragen, Stühle zu entwerfen, hätte er uns visuelle Remixe der damals üblichen verbreiteten Holzstühle geliefert, wie z.B. diesen hier:
stuhl-antik.jpg
Es wäre für das machine learning-System technisch bedingt unmöglich, einen radikal neues Stuhldesign zu entwerfen, wie es Marcel Breuer 1926 (also vor beinahe genau hundert Jahren) am Bauhaus tat:
marcel-breuer-wassily-chair-963481.jpg
Wohlgemerkt: Ich schließe nicht kategorisch aus, dass jemand in der Zukunft eine AI entwickelt, die so etwas kann. Nur mit dem heutigen AI-Ansatz (also machine learning/neuronalen Netzwerken) geht das nicht. Und natürlich kann man argumentieren, dass 90% der Stuhldesigner auch nicht kreativer/innovativer sind als die Remix-machine learning-AI, und dass deren Jobs daher gefährdet sind.
ja, danke!
Das ist ein guter Punkt, Cantsin.freezer hat geschrieben: ↑Mo 20 Feb, 2023 10:12 Die Zukunft hat Dich wohl schon eingeholt:
Die von einer KI entworfenen Bauteile sehen auf dem ersten Blick fremdartig aus. Sie sind jedoch leichter und haltbarer als die menschlicher Konstrukteure. (Bild: Henry Dennis / NASA)
https://www.heise.de/news/NASA-KI-entwi ... 18455.html
Natürlich müssen menschliche Ingenieure trotzdem noch drüberschauen und testen, aber grundsätzlich passiert genau das - eine AI entwickelt etwas völlig Neues.
Ich kann einfach deren Zuversicht & Optimismus nicht teilen, zumal der keinesfalls von Argumenten gestützt wird, sondern Tatsachen ("Market economies are complex, highly dynamic systems", das ist was, die Begründung?) ausgelegt werden. Und es kommt schon nicht so, weil es immer Unvorhergesehenes gegeben hat. Das nennt man dann Binsenweisheit.Skeptiker hat geschrieben: ↑Mo 20 Feb, 2023 13:44 The challenge will become more demanding as opportunities for work in the primary and secondary sectors become fewer and fewer. But market economies are complex, highly dynamic systems—and we are confident that, as in the past, new occupations will evolve in ways that no one (and no algorithm) could have predicted. We can be confident, further, that the role played by machines in these developments will at least in this respect be harmless: that machines will not develop an evil will, that they will not conspire against humanity or instigate an explosive chain of events that will lead to the heat death of the universe. AI will develop in much the same ways that other technologies develop, now in this way, now in that, with successes and failures along the way.
---------------------------------------------------------------
Ich kann nicht viel zur Fachdiskussion beitragen, weil zu wenig in der Materie drin.
Nur ein Gedanke: Bei dieser Aussage (Zitat) "Wir können uns ferner darauf verlassen, dass die Rolle, die Maschinen bei diesen Entwicklungen spielen, zumindest in dieser Hinsicht harmlos sein wird: .. .." kommen mir Zweifel, ob da nicht etwas zu viel Sorglosigkeit im Spiel ist. Aber vielleicht ist mit "Maschinen" hier einfach von einer anderen (einfacheren, eher im Sinne von einer Riesen-Datenbank, deren Inhalte algorithmisch verküpft werden) AI-Variante die Rede, als von mir gedacht.
Der feuchte Traum den Technocracy Inc. und Yale University Professoren seit 100 Jahren träumen rückt endlich in greifbare Nähe.Drushba hat geschrieben: ↑Mi 15 Feb, 2023 15:28 Aber dystopisch sehe ich das nicht. Dystopisch sehe ich die bisherige Menschheit ohne AI und glaube, es kann nur besser werden.))
KIs sind im Besten Falle unparteiisch, können lösungsorientiert arbeiten, Daten analysieren und vermutlich auch verwalten. Selbst wenn es um Lösungen im kleinen Detail geht, sehe ich enormes Potential
... Und jetzt stellen wir uns mal vor, eine KI soll die Aufgabe lösen, wie wir das Überleben der Menschheit insgesamt sichern können - unter Berücksichtigung der medizinischen Versorgung, der Landwirtschaft, des Artenschutzes, der Bildung, der persönlichen Freiheit und der Entwicklung.