this post was submitted on 01 Dec 2025
23 points (96.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

4533 readers
494 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

___

Zusätzliche Regeln aus „Lessons learned":

___

Einsteigertipps für Neue gibt es hier.
___

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 2 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] quatschkopf43@feddit.org 22 points 4 weeks ago (2 children)

Jugendliche können einem echt Leid tun. Erst werden sie durch zu viel soziale Medien krank und dann müssen sie sich von einer KI behandeln lassen.

[–] Melchior@feddit.org 9 points 4 weeks ago

und halt auch Corona.

[–] toe@feddit.org -5 points 3 weeks ago (1 children)

Anstatt Jugendliche (wieder) mit einer neue Technologie alleine zu lassen, sollten wir die Fähigkeiten einer KI in diesem Bereich gezielter einsetzen. Wieso nicht die Versorgungslücke bei Jugendlichen durch Einsatz von KI bei älteren ab 18 schließen? Natürlich mit einer spezialisierter KI und passenden Regeln.

[–] Bienenvolk@feddit.org 11 points 3 weeks ago (2 children)

Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an "textlicher Kreativität", was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.

Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃

[–] FooBarrington@lemmy.world 3 points 3 weeks ago (1 children)

Es müsste erwiesen sein, dass die KI selbst im schlimmsten Fall nicht schlechter handelt als der durchschnittliche Psychologe. Da sind wir weit, weit, weit von entfernt.

[–] Bienenvolk@feddit.org 4 points 3 weeks ago (1 children)

Im schlimmsten Fall empfiehlt KI, sich umzubringen [1], also denke ich mal, das ist recht eindeutig.

Und generell, woher kommt diese implizite Ablehnung gegenüber Psychologen?

1

[–] FooBarrington@lemmy.world 1 points 3 weeks ago

Ich glaube nicht, dass es eine Ablehnung gegenüber Psychologen ist. Es gibt einfach zu wenige - wenn KI auf einem ähnlichen Level arbeiten könnte, hätten plötzlich viele Leute Zugang zu psychologischer Hilfe, die aktuell keinen haben.

[–] toe@feddit.org 1 points 3 weeks ago

Man macht oft den Fehler durch Technik etwas aus der realen Welt 1:1 ersetzen zu wollen. Für eine statistischer Auswertung oder ggf das zuordnen ist die Technik mit entsprechendem Training bestimmt geeignet. Ein Sprachmodell möglicherweise gut um die Einstiegshürde zu nehmen.Das könnte Therapeuten entlasten nicht vollständig ersetzen. Erwachsene sind meist gefestigter und bei einer anfängliche Kommunikation mit Technik dürfte weniger Fehler entstehen, als im sensiblen bzw. geringer gefedrigten Jugendalter. Doch laut Beitrag läuft die Praxis gerade umgekehrt. Jugendliche wenden sich an Technik und Erwachsene verbrauchen die knappe Zeit der Therapeuten.

Das in die Technik investierte Geld könnte man sicher auch an anderer Stelle gut investieren. Wir sprechen jedoch nicht von entweder - oder.