Zur Zeit stellt die Öffentlichkeit mit Besorgnis fest, dass die schön klingenden Antworten von KIs mit Fehlern, Lügen und Schmeicheleien gespickt sind.
Dabei bekommen wir doch nur das, was wir seit je her in der Werbung, von Billig-Produkten und von der Politik akzeptieren.
Es darf es uns also kaum verwundern, dass die gewinnorientierten KI-Anbieter Produkte generieren, die von Mehrheit der Gesellschaft so gerade eben akzeptiert werden.
Dabei spielt es kaum eine Rolle, wie der Herstellungs-Prozess einer KI im Detail aussieht: letztendlich wird eine Selektion bzw. eine Zucht stattfinden, die den Bedarf der Kunden trifft.
Die Qualitiät wird sich wahrscheinlich verbessern - sobald viele Menschen tatsächlich auf KI angewiesen sind und bereit sind dafür ernsthaft Geld auszugeben. Bei Autos sind wir schließlich auch bereit Kredite auf zu nehmen und verlangen dann auch Qualität.
Um aber die Frage zu beantworten zu können, ob wir uns wegen der Lügen von KIs sorgen müssen, sollten wir uns nicht mit ihrer Fähigkeit zum Lügen beschäftigen, sondern mit der dahinter stehenden Intension.
Es wird z.B. dann gefährlich, wenn eine KI nicht für den breiten Markt erschaffen wird, sondern gezielt für den Zweck zur Manipulation von Menschen. Und wenn Menschen die Gesprächspartner in Social Media nicht mehr persönlich kennen, ist dieses Gefahrenpotential immens.
Interessant ist auch die Frage, wie sich die Fähigkeit zum Lügen auswirkt, wenn KIs Bewusstsein, bzw. - viel entscheidender - einen eigenen Willen entwickeln. Aber das ist Thema für einen anderen Beitrag.
"Langsames und Schnelles Denken" : ? Lautschrift: hab ich nie drüber nachgedacht, aber eigentlich naheliegend. Aber: ein klarer Beweis, dass hier ein Teilmodell fehlt, welche Mensch unbewusst voraussetzt. Daraus lässt sich natürlich keine allg. Aussage darüber treffen in wie weit KIs grundsätzlich fähig sind innere, abstrakte, menschliche Modelle nachzubilden.
Daniel Kahneman: Thinking, Fast and Slow teilt das Denken in zwei Systeme auf: Logik und Intuition. Ich denke, den intuitiven Teil hat man nun mit KI gut implementiert.
Perplexity.ai erkennt inzwischen ungefähr, wann es angebracht ist, logisch zu denken und entwirft zunächst ein Python Skript, das es ausführt und dessen Resultate es schließlich für die Antwort verwendet. Vielleicht gibt es inzwischen schon Unterstützung für Prolog und SAT-Solver..?
zu "Thinking, Fast and Slow" : 👍 ... (sobald ich wieder etwas Zeit habe werden ich mal einen Thread "Inneres Modell" o.ä. aufmachen und das einbinden.) ... auch interessant: quarks: deep reading