this post was submitted on 29 Jan 2026
71 points (97.3% liked)
DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz
4745 readers
472 users here now
Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.
Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:
___
Zusätzliche Regeln aus „Lessons learned":
- Postet hier zu allen Themen, die euch interessieren (soweit sie den anderen Regeln genügen)
- Es werden Posts zum Thema Palästina/Israel hier auf Dach gelöscht.
- Dasselbe gilt für Wahlumfragen à la Sonntagsumfrage.
- Bitte Titel von Posts nur sinnerweiternd und nicht sinnentstellend verändern. Eigene Meinungen gehören in den Superkommentar oder noch besser in einen eigenen Kommentar darunter.
- Youtube Videos bitte nicht ohne eine zusätzliche Zusammenfassung posten
___
Einsteigertipps für Neue gibt es hier.
___
Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org
___
founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Da kann ich nur eingeschränkt zustimmen. Bei LLMs handelt es sich um Modelle, die einem Zufallsprozess unterworfen sind. Man kann noch so viele Regeln/Einschränkungen drumherumbasteln, aber es wird immer die Möglichkeit für komplett falsche Antworten bleiben. Gerade was die Nachvollziehbarkeit betrifft, würde ich garkein Vertrauen in LLMs setzen. Die können eine Erklärung ausgeben, wo die Erklärung selbst und das Ziel der Erklärung nicht übereinstimmen. Wo ich dir voll zustimmen kann, ist, dass LLMs nicht schlecht darin sind (je nach Komplexität) aus vorgegeben Alternativen zu wählen. Dann taugt das eher als Hilfe, aber weniger als Automatisierung.