this post was submitted on 01 Dec 2025
23 points (96.0% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

4533 readers
412 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

___

Zusätzliche Regeln aus „Lessons learned":

___

Einsteigertipps für Neue gibt es hier.
___

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 2 years ago
MODERATORS
top 15 comments
sorted by: hot top controversial new old
[–] quatschkopf43@feddit.org 22 points 4 weeks ago (2 children)

Jugendliche können einem echt Leid tun. Erst werden sie durch zu viel soziale Medien krank und dann müssen sie sich von einer KI behandeln lassen.

[–] Melchior@feddit.org 9 points 4 weeks ago

und halt auch Corona.

[–] toe@feddit.org -5 points 3 weeks ago (1 children)

Anstatt Jugendliche (wieder) mit einer neue Technologie alleine zu lassen, sollten wir die Fähigkeiten einer KI in diesem Bereich gezielter einsetzen. Wieso nicht die Versorgungslücke bei Jugendlichen durch Einsatz von KI bei älteren ab 18 schließen? Natürlich mit einer spezialisierter KI und passenden Regeln.

[–] Bienenvolk@feddit.org 11 points 3 weeks ago (2 children)

Ich grätsche hier mal kurz rein, weil ich glaube, dass der Wille durchaus gut ist, die Technik aber missverstanden. Selbst fine tuned LLMs halluzinieren - und das inhärent. Was sie ausmacht, ist ein gewisses Maß an "textlicher Kreativität", was, grob gesagt, erstmal nichts anderes ist als dem Zufall folgend bei der Wahl des nächsten Wortes mit Absicht ein nicht wahrscheinlichstes zu nehmen. Das macht sie so beeindruckend, hat aber nun einmal zur Folge, dass Halluzinationen und anderer Quatsch unumgänglich sind. Das ausgerechnet bei psychisch kranken Menschen anzuwenden, erachte ich also als äußerst bedenklich.

Polemisch-ideologischer Gedanke dazu: Wie die Welt wohl wäre, würde auch nur ein Bruchteil des KI Geldes in Bildung, Wissenschaft und Gesundheit gehen 🙃

[–] FooBarrington@lemmy.world 3 points 3 weeks ago (1 children)

Es müsste erwiesen sein, dass die KI selbst im schlimmsten Fall nicht schlechter handelt als der durchschnittliche Psychologe. Da sind wir weit, weit, weit von entfernt.

[–] Bienenvolk@feddit.org 4 points 3 weeks ago (1 children)

Im schlimmsten Fall empfiehlt KI, sich umzubringen [1], also denke ich mal, das ist recht eindeutig.

Und generell, woher kommt diese implizite Ablehnung gegenüber Psychologen?

1

[–] FooBarrington@lemmy.world 1 points 3 weeks ago

Ich glaube nicht, dass es eine Ablehnung gegenüber Psychologen ist. Es gibt einfach zu wenige - wenn KI auf einem ähnlichen Level arbeiten könnte, hätten plötzlich viele Leute Zugang zu psychologischer Hilfe, die aktuell keinen haben.

[–] toe@feddit.org 1 points 3 weeks ago

Man macht oft den Fehler durch Technik etwas aus der realen Welt 1:1 ersetzen zu wollen. Für eine statistischer Auswertung oder ggf das zuordnen ist die Technik mit entsprechendem Training bestimmt geeignet. Ein Sprachmodell möglicherweise gut um die Einstiegshürde zu nehmen.Das könnte Therapeuten entlasten nicht vollständig ersetzen. Erwachsene sind meist gefestigter und bei einer anfängliche Kommunikation mit Technik dürfte weniger Fehler entstehen, als im sensiblen bzw. geringer gefedrigten Jugendalter. Doch laut Beitrag läuft die Praxis gerade umgekehrt. Jugendliche wenden sich an Technik und Erwachsene verbrauchen die knappe Zeit der Therapeuten.

Das in die Technik investierte Geld könnte man sicher auch an anderer Stelle gut investieren. Wir sprechen jedoch nicht von entweder - oder.

[–] JensSpahnpasta@feddit.org 18 points 4 weeks ago* (last edited 4 weeks ago) (1 children)

Ich würde es ja gerne kritisieren, aber was bleibt den armen Menschen auch übrig? Die professionellen Therapeuten und Kliniken sind völlig überlaufen und da an einen Platz zu kommen, ist schwierig. Und dann sieht es da draußen plötzlich hart mau aus mit Hilfe.

[–] Mora@pawb.social 16 points 3 weeks ago (1 children)

Verdammt nochmal das. Als niedergeschlagener Mensch passiert dann auch noch das wieder und wieder:

  • "Hey, ich benötige recht zeitnah Hilfe"
  • "Kein Problem, wir setzen sie auf die Warteliste. Vorraussichtlich sind sie dann Montag in 2 bis 200 Jahren dran."

Richtig spaßig wird es dann wenn es spezialisierter wird und vielleicht auch noch das bestehen eines Arbeitsplatzes dran hängt. Und wenn der dann wegfällt hat man dann das Arbeitsamt im Nacken, was natürlich durch sinnlosen Druck Probleme nur besser macht. Es ist ein komplettes Systemversagen.

Und dann kommt irgend so ein Blackrot-Arschloch und sagt, dass ja alle zu oft krank sind. Tja, wenn man mal Probleme mal behandeln könnte, bevor sie drastisch werden, könnte sich daran vielleicht auch mal was ändern.

[–] yetAnotherUser@discuss.tchncs.de 3 points 3 weeks ago (1 children)

Du musst das doch positiv sehen: Immerhin kommst du auf Wartelisten.

[–] Mora@pawb.social 6 points 3 weeks ago* (last edited 3 weeks ago)

Meine Lieblingswarteliste hat Wartezeit "unbekannt". Als ich nach 2 Jahren mal angerufen habe um zu fragen, ob ich noch auf der Warteliste stehe hieß es nur "wenn man sie nicht angerufen hat, wird das wohl so sein". So geht Menschenleben retten, 10/10.

[–] SapphireSphinx@feddit.org 9 points 4 weeks ago* (last edited 4 weeks ago) (1 children)

Da mag es spezialisierte Angebote geben, die letztendlich nur eine strikt begrenzte Auswahl an Antworten des Chat-Bots erlauben aber bei allem anderen bin ich als Laie erst mal eher skeptisch. Ich habe gerade erst einen Blog-Artikel zu dem generellen Thema gelesen und der Autor hatte ein gutes Beispiel:

Z.B. so ein Coding-Assistant. Der ist super. Das Problem mit dem ist halt, dass am Ende vor dem Bildschirm ein Experte (erfahrener Programmierer) sitzen muss, der in der Lage ist, die aus Prinzip nicht vermeidbaren Halluzinationen (Sicherheitslöcher, Logik-Fehler, ...) zu erkennen und selbst zu fixen.

Übertragen auf die Situation Therapeuten-LLM vs Patient wäre das, dass der Patient selbst geschulter Psychologe sein müsste. Das Problem kann man über irgendwelche speziellen Agenten minimieren aber nie auf Null bringen. Es gibt bestimmt vieles wo so etwas reicht aber im Endeffekt klebt das doch nur ein Pflaster auf das eigentliche Problem: Zu wenig Therapieplätze.

Danke für das Teilen.

Edit:

Zu dem Thema gab es vor kurzem erst einen Artikel in der NY Times.

A Teen Was Suicidal. ChatGPT Was the Friend He Confided In.

[–] AntonMuster@discuss.tchncs.de 2 points 3 weeks ago

Digitale Gesundheitsanwendungen (ohne KI) gibt es jetzt schon und die sind sehr effektiv. Die müssen aber, wie du schon sagst, von einem Therapeuten eingesetzt werden und nicht einfach so.

[–] rumschlumpel@feddit.org 3 points 3 weeks ago

Ich wette, eine Verdoppelung der Anzahl der Kassenstellen für Psychotherapeuten wäre billiger als die ganzen KI-Rechenzentren, die jetzt überall gebaut werden sollen.