Ich mag Laporte aber hier liegen er und seine Gäste daneben. Sein Beispiel mit den Frisbee Spielern zeigt das.
berlin123 hat geschrieben: ↑Di 30 Mai, 2023 22:46 https://www.tagesschau.de/wirtschaft/te ... t-100.html
dosaris hat geschrieben: ↑Mo 06 Mär, 2023 12:57 der Vollständigkeit halber zum Aspekt:
Rechte am Output der KI:
https://irights.info/artikel/welche-reg ... genz/30724
Medienkompetenz scheint nicht so dein Ding. Lies einfach nochmal wer in dem Artikel als Experte alles genannt wird.Frank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 06:15berlin123 hat geschrieben: ↑Di 30 Mai, 2023 22:46 https://www.tagesschau.de/wirtschaft/te ... t-100.html
"Führende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg."
Wow! Und diese angeblich "führenden Experten" vom " Center of Ai Safety" sind wer?
Laut ihren LinkedIn Profilen:
Dan Hendrycks, der letztes Jahr mit dem Studium fertig geworden ist,
und außer ein paar Praktika keine Erfahrung aufzuweisen hat ist Executive & Research Director von dem Laden.
Brianna L. Treece, Marketing Tante die selten länger als ein Jahr bei einer Firma war, und bisher weitgehend im Bereich HealthCare tätig war
Oliver Zhang, der Preisauschreiben für griffige Slogans betreffs "AI Sicherheit" macht, weil ihm selbst dazu offensichtlich nicht viel einfällt. https://www.greaterwrong.com/posts/3eP8 ... ompetition
Das sind also die "Experten".
Die ganze Seite ist so fragwürdig wie diese drei Figuren - scheint mit ne typische NGO Front, finanziert von anderen Interessen zu sein.
Dann wüsstest du auch dass deine Auflistung eben Unsinn war, weil mit „führenden Experten“ die Unterzeichner des Aufrufs gemeint sind:
Ja, diese Frage haben ja auch andere schon gestellt. Die warnenden Stimmen kommen allerdings keineswegs nur aus dem Bereich der führenden kommerziellen Anbieter.Frank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 08:43
Hast du dich eigentlich mal gefragt, warum ausgerechnet die Leute,
die ihr Geld mit AI verdienen (und Milliarden investiert haben) plötzlich ne "Pause" einlegen wollen?
Wie sähe die Bewertung aus wenn James Cameron Terminator nie gedreht hätte... :DFrank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 06:15 "Führende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg."
Schwachsinn zum Quadrat!"Führende Experten warnen davor, die Risiken Künstlicher Intelligenz zu unterschätzen. Sie bewerten die Gefahren durch KI ähnlich hoch wie bei Pandemien oder einem Atomkrieg."
Ob durch einen Wackelkontakt oder einen Programmierfehler der rote Knopf gedrückt wird kommt auf das Selbe raus. Die Vorstellung von der bösen intelligenten Maschine die plötzlich eigenständig auf die Idee kommt die Menschheit auszuradieren klingt für die Allgemeinbevölkerung halt besser.TomStg hat geschrieben: ↑Mi 31 Mai, 2023 09:37 Mal abgesehen davon, welche Qualifikation und welche Ideologie diese „Experten“ aufweisen, bewegt sich so eine hysterische Äußerung auf dem Niveau der Einschätzung von 1825 zur Dampflokomotive, als die Pariser „Académie des science“ schrieb, dass die schnelle Bewegung der Reisenden eine Gehirnerkrankung, das sogenannte „Delirium furiosum“, hervorrufen könnte.
… und wer solchen Schwachsinn der öffentlich-rechtlichen Erziehungsanstalten auch noch zitiert, der sollte auf keinen Fall von „Medienkompetenz“ faseln.berlin123 hat geschrieben: ↑Di 30 Mai, 2023 22:46 https://www.tagesschau.de/wirtschaft/te ... t-100.html
Das ist aber kein AI Problem.
Trump :DFrank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 10:47 Das Problem sind Leute die Politiker wählen, die eine AI an den roten Knopf lassen.
Du verstehst offensichtlich gar nicht, was "Medienkompetenz" bedeutet. Mach dich mal über den Unterschied zwischen Medium, Quelle und Inhalt schlau.TomStg hat geschrieben: ↑Mi 31 Mai, 2023 10:33… und wer solchen Schwachsinn der öffentlich-rechtlichen Erziehungsanstalten auch noch zitiert, der sollte auf keinen Fall von „Medienkompetenz“ faseln.berlin123 hat geschrieben: ↑Di 30 Mai, 2023 22:46 https://www.tagesschau.de/wirtschaft/te ... t-100.html
Das ist der Punkt. Wenn's künftig ernsthafte Probleme gibt (nicht mit der Art von ML/AI, die hier im Forum täglich mit Verblüffung bestaunt wird und die dafür sorgen könnte, dass man keinem Bild, Film oder Ton je wieder trauen kann), dann weil (dumme) Menschen mithilfe von AI auf dumme Gedanken kommen könnten (um sie mithilfe von AI dann auch gleich umzusetzen). Die Entwicklung von massgeschneiderten, gentechnischen Kampfstoffen (COVID lässt grüssen), die man z. B. im gegnerischen Luftraum verteilt, könnte nur einer von vielen sein. Sozusagen die stille Atombombe, der schleichende Tod.Frank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 10:47Das ist aber kein AI Problem.
Das Problem sind Leute die Politiker wählen, die eine AI an den roten Knopf lassen.
Nein. Keim Politiker schreibt in sein Wahlprogramm ob er KI an den roten Knopf lassen will. Aber denk mal weiter. Die Wissenschaftler und Unternehmer aus dem KI Bereich fordern, dass man die Risiken der KI ins Bewusstsein bringt und diskutiert. Zum Beispiel die hypothetische Option, dass mam KI Stück für Stück Entscheidungsgwalt über den Einsatz von Waffen gibt, ohne das vorher zu Ende gedacht zu haben.Frank Glencairn hat geschrieben: ↑Mi 31 Mai, 2023 10:47Das ist aber kein AI Problem.
Das Problem sind Leute die Politiker wählen, die eine AI an den roten Knopf lassen.
Gibt es doch schon seit Jahrzehnten, hieß früher bloß nicht künstliche Intelligenz...
Da braucht's kein Wahlprogramm, die üblichen Verdächtigen sind bekannt.berlin123 hat geschrieben: ↑Mi 31 Mai, 2023 11:13
Nein. Keim Politiker schreibt in sein Wahlprogramm ob er KI an den roten Knopf lassen will. Aber denk mal weiter. Die Wissenschaftler und Unternehmer aus dem KI Bereich fordern, dass man die Risiken der KI ins Bewusstsein bringt und diskutiert. Zum Beispiel die hypothetische Option, dass mam KI Stück für Stück Entscheidungsgwalt über den Einsatz von Waffen gibt, ohne das vorher zu Ende gedacht zu haben.
Das klingt wenigstens etwas konkreter, als all die Warnung vor den Folgen des menschlichen Eingriffs in die Natur und z.B. solche Sprüche wie "Das Ende der Evolution" oder das ständige Gerede über die Überbevölkerung.rudi hat geschrieben: ↑Mi 31 Mai, 2023 12:38 Ich interpretiere die Sorge der Unterzeichner eher so, dass man bei den meisten Projekten nicht umfassend mitdenkt, was alles passieren könnte. Sie machen sich nicht unbedingt Sorgen, dass man einer KI die Herrschaft über einen roten Knopf gibt. Sondern vielmehr, dass etwas passiert, was niemand kommen sieht. Nennt es Black Swan oder unknown unknowns.