Zur Zeit stellt die Öffentlichkeit mit Besorgnis fest, dass die schön klingenden Antworten von KIs mit Fehlern, Lügen und Schmeicheleien gespickt sind.
Dabei bekommen wir doch nur das, was wir seit je her in der Werbung, von Billig-Produkten und von der Politik akzeptieren.
Es darf es uns also kaum verwundern, dass die gewinnorientierten KI-Anbieter Produkte generieren, die von Mehrheit der Gesellschaft so gerade eben akzeptiert werden.
Dabei spielt es kaum eine Rolle, wie der Herstellungs-Prozess einer KI im Detail aussieht: letztendlich wird eine Selektion bzw. eine Zucht stattfinden, die den Bedarf der Kunden trifft.
Die Qualitiät wird sich wahrscheinlich verbessern - sobald viele Menschen tatsächlich auf KI angewiesen sind und bereit sind dafür ernsthaft Geld auszugeben. Bei Autos sind wir schließlich auch bereit Kredite auf zu nehmen und verlangen dann auch Qualität.
Um aber die Frage zu beantworten zu können, ob wir uns wegen der Lügen von KIs sorgen müssen, sollten wir uns nicht mit ihrer Fähigkeit zum Lügen beschäftigen, sondern mit der dahinter stehenden Intension.
Es wird z.B. dann gefährlich, wenn eine KI nicht für den breiten Markt erschaffen wird, sondern gezielt für den Zweck zur Manipulation von Menschen. Und wenn Menschen die Gesprächspartner in Social Media nicht mehr persönlich kennen, ist dieses Gefahrenpotential immens.
Interessant ist auch die Frage, wie sich die Fähigkeit zum Lügen auswirkt, wenn KIs Bewusstsein, bzw. - viel entscheidender - einen eigenen Willen entwickeln. Aber das ist Thema für einen anderen Beitrag.
Ich denke der Großteil des Grundes warum Falschinformationen herauskommen ist auch, dass auch nicht wirklich zwischen Fakt und Fiktion getrennt wird... Also KI funktioniert ja so, dass ein großer Haufen Text reinkommt, von Wikipedia bis Reddit, Fachbücher bis Science-Fiction Romane. Und daraus reimt sich KI dann etwas zusammen. Ob auf meine Frage an den Chatbot dann ein Wikipedia Artikel oder ein nette erfundene Kurzgeschichte herauskommt, sucht sich die KI selbstständig aus und da hat sie freie Hand. Beherrschen tut sie alle Genres mit denen sie gefüttert wurde. Und manchmal ist es ja auch schwer zu entscheiden ob Kreativität und Dinge ausschmücken gefragt ist oder eher nicht... Dazu kommen noch ein paar technische Schwierigkeiten. Wie z.B. dass KI beim Training belohnt wird Antworten zu geben. Das bietet den Anreiz sich Antworten auszudenken. Und es ist nicht so leicht das andersherum zu machen ohne dass die KI dann lernt oft mit "weiß nicht" durchzukommen, oder Anwendungsfälle wie Sachen ausschmücken, kombinieren oder kreative Antworten geben kaputt gemacht werden.
Danke für den Denkanstoß. Da hat mein Hirn gleich weiter gerattert. Das kam dabei heraus: KI - Kind ohne Erziehung
Ha, stimmt. Ja manchmal wenn ich KI irgendetwas machen lasse komme ich mir auch so vor als hätte ich einer 6-Jährigen den Auftrag gegeben den Zeitungsartikel für mich zusammenzufassen und dann kommt eine ziemlich abenteuerliche Interpretation heraus. Mit dem Unterschied, dass bei KI alles sprachlich perfekt und hochgestochen klingt und mit Inbrunst vorgetragen wird.
Das wird wohl definitiv Einfluss haben. Ich finde aber auch interessant, dass man auch leicht verleitet wird anzunehmen, dass die KI halt einfach das ganze Internet und alle Bibliotheken gleichermaßen aufgesogen hat zum Trainieren. Dabei steht dem Ersteller des Modells ja auch noch frei, welche Inhalte er wie gewichtet oder ob er was auslässt, verändert oder wie auch immer.
Wenn die Frage jetzt gewesen wäre, ob die Outputs von z.B. ChatGPT ein Spiegel der Gesellschaft wären, würde ich es so pauschal erstmal verneinen, weil es nicht repräsentativ für eine ganze Gesellschaft sein kann, wenn nur eine Person bestimmt, womit die KI gefüttert wird. Aber ich bin mir auch nicht sicher, ob ich den Thread hier richtig erfasse.
Im Prinzip total richtig, nur denke ich dass niemand in der Praxis diesen Arbeitsaufwand bewältigen kann. Die Gewichtung wird im Schnitt gering sein.