Zur Zeit stellt die Öffentlichkeit mit Besorgnis fest, dass die schön klingenden Antworten von KIs mit Fehlern, Lügen und Schmeicheleien gespickt sind.
Dabei bekommen wir doch nur das, was wir seit je her in der Werbung, von Billig-Produkten und von der Politik akzeptieren.
Es darf es uns also kaum verwundern, dass die gewinnorientierten KI-Anbieter Produkte generieren, die von Mehrheit der Gesellschaft so gerade eben akzeptiert werden.
Dabei spielt es kaum eine Rolle, wie der Herstellungs-Prozess einer KI im Detail aussieht: letztendlich wird eine Selektion bzw. eine Zucht stattfinden, die den Bedarf der Kunden trifft.
Die Qualitiät wird sich wahrscheinlich verbessern - sobald viele Menschen tatsächlich auf KI angewiesen sind und bereit sind dafür ernsthaft Geld auszugeben. Bei Autos sind wir schließlich auch bereit Kredite auf zu nehmen und verlangen dann auch Qualität.
Um aber die Frage zu beantworten zu können, ob wir uns wegen der Lügen von KIs sorgen müssen, sollten wir uns nicht mit ihrer Fähigkeit zum Lügen beschäftigen, sondern mit der dahinter stehenden Intension.
Es wird z.B. dann gefährlich, wenn eine KI nicht für den breiten Markt erschaffen wird, sondern gezielt für den Zweck zur Manipulation von Menschen. Und wenn Menschen die Gesprächspartner in Social Media nicht mehr persönlich kennen, ist dieses Gefahrenpotential immens.
Interessant ist auch die Frage, wie sich die Fähigkeit zum Lügen auswirkt, wenn KIs Bewusstsein, bzw. - viel entscheidender - einen eigenen Willen entwickeln. Aber das ist Thema für einen anderen Beitrag.
Das wird wohl definitiv Einfluss haben. Ich finde aber auch interessant, dass man auch leicht verleitet wird anzunehmen, dass die KI halt einfach das ganze Internet und alle Bibliotheken gleichermaßen aufgesogen hat zum Trainieren. Dabei steht dem Ersteller des Modells ja auch noch frei, welche Inhalte er wie gewichtet oder ob er was auslässt, verändert oder wie auch immer.
Wenn die Frage jetzt gewesen wäre, ob die Outputs von z.B. ChatGPT ein Spiegel der Gesellschaft wären, würde ich es so pauschal erstmal verneinen, weil es nicht repräsentativ für eine ganze Gesellschaft sein kann, wenn nur eine Person bestimmt, womit die KI gefüttert wird. Aber ich bin mir auch nicht sicher, ob ich den Thread hier richtig erfasse.
Im Prinzip total richtig, nur denke ich dass niemand in der Praxis diesen Arbeitsaufwand bewältigen kann. Die Gewichtung wird im Schnitt gering sein.