Zur Zeit stellt die Öffentlichkeit mit Besorgnis fest, dass die schön klingenden Antworten von KIs mit Fehlern, Lügen und Schmeicheleien gespickt sind.
Dabei bekommen wir doch nur das, was wir seit je her in der Werbung, von Billig-Produkten und von der Politik akzeptieren.
Es darf es uns also kaum verwundern, dass die gewinnorientierten KI-Anbieter Produkte generieren, die von Mehrheit der Gesellschaft so gerade eben akzeptiert werden.
Dabei spielt es kaum eine Rolle, wie der Herstellungs-Prozess einer KI im Detail aussieht: letztendlich wird eine Selektion bzw. eine Zucht stattfinden, die den Bedarf der Kunden trifft.
Die Qualitiät wird sich wahrscheinlich verbessern - sobald viele Menschen tatsächlich auf KI angewiesen sind und bereit sind dafür ernsthaft Geld auszugeben. Bei Autos sind wir schließlich auch bereit Kredite auf zu nehmen und verlangen dann auch Qualität.
Um aber die Frage zu beantworten zu können, ob wir uns wegen der Lügen von KIs sorgen müssen, sollten wir uns nicht mit ihrer Fähigkeit zum Lügen beschäftigen, sondern mit der dahinter stehenden Intension.
Es wird z.B. dann gefährlich, wenn eine KI nicht für den breiten Markt erschaffen wird, sondern gezielt für den Zweck zur Manipulation von Menschen. Und wenn Menschen die Gesprächspartner in Social Media nicht mehr persönlich kennen, ist dieses Gefahrenpotential immens.
Interessant ist auch die Frage, wie sich die Fähigkeit zum Lügen auswirkt, wenn KIs Bewusstsein, bzw. - viel entscheidender - einen eigenen Willen entwickeln. Aber das ist Thema für einen anderen Beitrag.
Im Titel habe ich Spiegel der Gesellschaft gelesen und gleich an die Diskussion darüber gedacht, welche Großmacht im KI-Wettrennen gewinnen wird, und ihr Mindset unter die Leute bringt.
Das wird gefährlich, wenn die Mindsets inkompatibel sind und so die Gesellschaft spalten. Mindset, Framing, Hegemon, Weltanschauung, Deutungshoheit und Propaganda bedeuten alle ungefähr das gleiche in unterschiedlichen Kontexten.
Die Grenze zwischen Sprach- und Weltmodell ist fließend. Beide können mit Systemprompts vor Nutzerprompts voreingestellt werden. Das lässt sich nachahmen, indem man als Nutzer die Modelle selbst betreibt.
LLMs kann man leicht (auch ohne Grafikkarte) selbst betreiben. (Trainieren ist aufwendiger.) Mit ollama und der Modelldatei kann man ohne Internetverbindung Prompts direkt ohne Zensur abgeben. Auf dem eigenen Rechner würfelt ollama daraufhin eine Antwort mit den Wahrscheinlichkeiten des Modells und der Eingabe. Anleitungen gibt es im Netz.
Hast du eine konkretere Frage?
Stimmt, an unterschiedliche Gesellschaften bzw. Mächte hatte ich gar nicht gedacht.
ollama: danke. mal sehen wann dazu zeit finde.
Weltmodell: Ich gehöre zu denen, die der Meinung sind, dass KI gar kein Modell, also gar kein echtes Verständnis, von realen Dingen/Funktionsweisen/Hintergründen haben. Aber das gehört definitiv in einen neuen Thread. siehe auch weiter unten von hendrik: "... auf der anderen Seite aber die Anzahl der "R"s in “Strawberry” nicht zählen kann...."
Weltmodell: Ich halte es eben für fließend. Modelle sind nie ganz vollständig. Aber wer Lückentexte in Kontaxten ausfüllen kann, weiß mehr als nur die Grammatik.
Strawberry: Langsames und Schnelles Denken. Außerdem gibt es eine einfache Erklärung: Worte werden schon zu Lautschrift umgewandelt bevor sie das Modell zu "sehen" bekommt.
"Langsames und Schnelles Denken" : ? Lautschrift: hab ich nie drüber nachgedacht, aber eigentlich naheliegend. Aber: ein klarer Beweis, dass hier ein Teilmodell fehlt, welche Mensch unbewusst voraussetzt. Daraus lässt sich natürlich keine allg. Aussage darüber treffen in wie weit KIs grundsätzlich fähig sind innere, abstrakte, menschliche Modelle nachzubilden.
Daniel Kahneman: Thinking, Fast and Slow teilt das Denken in zwei Systeme auf: Logik und Intuition. Ich denke, den intuitiven Teil hat man nun mit KI gut implementiert.
Perplexity.ai erkennt inzwischen ungefähr, wann es angebracht ist, logisch zu denken und entwirft zunächst ein Python Skript, das es ausführt und dessen Resultate es schließlich für die Antwort verwendet. Vielleicht gibt es inzwischen schon Unterstützung für Prolog und SAT-Solver..?
zu "Thinking, Fast and Slow" : 👍 ... (sobald ich wieder etwas Zeit habe werden ich mal einen Thread "Inneres Modell" o.ä. aufmachen und das einbinden.) ... auch interessant: quarks: deep reading