this post was submitted on 10 Apr 2025
120 points (94.8% liked)

ich_iel

3286 readers
598 users here now

Die offizielle Zweigstelle von ich_iel im Fediversum.

Alle Pfosten müssen den Titel 'ich_iel' haben, der Unterstrich darf durch ein beliebiges Symbol oder Bildschriftzeichen ersetzt werden. Ihr dürft euch frei entfalten!


Matrix


📱 Empfohlene Schlaufon-Applikationen für Lassmich


Befreundete Kommunen:

[email protected]

[email protected]

[email protected]

[email protected]


Sonstiges:

Zangendeutsch-Wörterbuch


Regeln:

1. Seid nett zueinander

Diskriminierung anderer Benutzer, Beleidigungen und Provokationen sind verboten.

2. Pfosten müssen den Titel 'ich_iel' oder 'ich iel' haben

Nur Pfosten mit dem Titel 'ich_iel' oder 'ich iel' sind zugelassen. Alle anderen werden automatisch entfernt.

Unterstrich oder Abstand dürfen durch ein beliebiges Textsymbol oder bis zu drei beliebige Emojis ersetzt werden.

3. Keine Hochwähl-Maimais oder (Eigen)werbung

Alle Pfosten, die um Hochwählis bitten oder Werbung beinhalten werden entfernt. Hiermit ist auch Eigenwerbung gemeint, z.b. für andere Gemeinschaften.

4. Keine Bildschirmschüsse von Unterhaltungen

Alle Pfosten, die Bildschirmschüsse von Unterhaltungen, wie beispielsweise aus WasistApplikaton oder Zwietracht zeigen, sind nicht erlaubt. Hierzu zählen auch Unterhaltungen mit KIs.

5. Keine kantigen Beiträge oder Meta-Beiträge

ich_iel ist kein kantiges Maimai-Brett. Meta-Beiträge, insbesondere über gelöschte oder gesperrte Beiträge, sind nicht erlaubt.

6. Keine Überfälle

Wer einen Überfall auf eine andere Gemeinschaft plant, muss diesen zuerst mit den Mods abklären. Brigadieren ist strengstens verboten.

7. Keine Ü40-Maimais

Maimais, die es bereits in die WasistApplikation-Familienplauderei geschafft haben oder von Rüdiger beim letzten Stammtisch herumgezeigt wurden, sind besser auf /c/ichbin40undlustig aufgehoben.

8. ich_iel ist eine humoristische Plattform

Alle Pfosten auf ich_iel müssen humorvoll gestaltet sein. Humor ist subjektiv, aber ein Pfosten muss zumindest einen humoristischen Anspruch haben. Die Atmosphäre auf ich_iel soll humorvoll und locker gehalten werden.

9. Keine Polemik, keine Köderbeiträge, keine Falschmeldungen

Beiträge, die wegen Polemik negativ auffallen, sind nicht gestattet. Desweiteren sind Pfosten nicht gestattet, die primär Empörung, Aufregung, Wut o.Ä. über ein (insbesonders, aber nicht nur) politisches Thema hervorrufen sollen. Die Verbreitung von Falschmeldungen ist bei uns nicht erlaubt.


Bitte beachtet auch die Regeln von Feddit.org

founded 9 months ago
MODERATORS
 
top 28 comments
sorted by: hot top controversial new old
[–] [email protected] 9 points 1 day ago (1 children)

Mein heißer Nimm:

Ich mag KI. Ich finde Entwicklung ultra Interessant und auch generative KI finde ich erstaunlich.

Jedoch finde ich das KI viel zu früh kommerziealisiert wurde um den nächsten großen Technik-Hype auszulösen bzw. um "Blockchain" als Schlagwort abzulösen. Es ist wie so oft das die Profitgier und Ausschlachterei ein eigentlich tolles Produkt/Idee kaputt machen.

Ich hoffe dezent das die KI-Blase mal platzt und KI zurück in die Labore und Entwicklungsbüros kommt. Aber ich befürchte so schnell bekommen wir da den Deckel nicht wieder drauf .__.

[–] [email protected] 2 points 1 day ago

Ich stimme deinem Nimm zu, aber die Überzeichnung ist Mittel des Maimais.

[–] [email protected] 16 points 2 days ago (2 children)

KI kann sehr hilfreich sein. Vorausgesetzt man setzt sie richtig ein. Eine KI auf medizinische Daten zu trainieren z.B..

Aber: das was wir als KI vorgesetzt bekommen ist tatsächlich nur ein Klimawandelbeschleuniger.

[–] [email protected] 11 points 2 days ago (1 children)

Ich bin ein Freund davon, nicht von KI sondern maschinellem Lernen (ML) zu sprechen. Gerade wenn man effizientere Ansätze stat neuronalen Netzen wählt, wird deutlich, dass es sehr komplexe Statistik ist, die wir nur dank hoher Rechenleistung bewältigen können.

Dafür ist es sehr gut geeignet, vorausgesetzt die Daten haben auch eine gute Qualität und es wird von Leuten eingesetzt, die auch Fachwissen haben und das Ergebnis nachvollziehen können.

[–] [email protected] 3 points 2 days ago

Maschinelles Lernen ist ein Untergebiet von KI.

[–] [email protected] 8 points 2 days ago (2 children)

Gerade im medizinischen Bereich gibt's besonders viel Bullshitanwendungen von KI.

Ich weiß nicht mehr in welchem Journal es war, aber eins hatte sich mal die ganzen tollen Covid-Röntgen-KIs angeschaut, und der Großteil war kompletter Müll, der nicht zuverlässig vorhersagen konnte ob jemand COVID hat oder nicht, sondern stattdessen "erkannt" hat, ob es eine Stehend oder Liegendaufnahme ist. (Stehendaufnahmen haben eine bessere Qualität, Liegendaufnahmen macht man dagegen vor allem auf Intensivstation, wo die Patienten zu krank für sowas sind).

Und wenn ich sehe, wie oft Kollegen Perplexity AI, ChatGPT oder andere LLMs nehmen um "in Leitlinien zu recherchieren", oder sich was erklären zu lassen, und dabei kommt entweder kompletter Mist raus, oder eben immer noch weit genug von der Wahrheit entfernt um Schaden anzurichten, wird mir schlecht.

Noch cringiger ist es eigentlich nur noch, wenn Oberärzte eine KI fragen "Warum war Medikament XY ein Flop", und dann die Antwort ernsthaft ohne weitere Recherche in offizielle Fortbildungen einbauen.

Zuguterletzt ist die Dokumentation im medizinischen Sektor keine gute Datengrundlage. Vieles wird dokumentiert dass die Krankenversicherung nicht rumzickt, oder Textbausteine kopiert aber nicht wirklich angepasst. Vertrauen würde ich dem ganzen auf jeden Fall eher wenig

[–] [email protected] 3 points 2 days ago (1 children)

Ergebnisse von LLMs unkritisch einfach hinzunehmen ist natürlich höchst unverantwortlich. Besonders im medizinischen Einsatz müssen hohe Qualitätsanforderungen an die Software erfüllt werden.

Nichtsdestotrotz haben Methoden aus dem Feld der KI durchaus wertvolle Anwendungen mit sich gebracht. Wie zum Beispiel können z.B. CNNs (Convolutional Neural Networks) bei der automatisierten Ersteinordnung von unzähligen Diagnosebildern helfen. Sie haben auch geholfen unser Verständnis bei der Krebsdiagnose zu verbessern, weil sie beispielsweise das Zellumfeld mit betrachtet haben, was Menschen bisweilen nicht getan haben.
Die Entwicklung neuer Medikamente wird dank KI auch enorm beschleunigt. Siehe z.B. AlphaFold.

Und wenn ich bedenke, wie schlampig die meisten Ärzte meiner Erfahrung nach arbeiten, bin ich fast schon versucht mein Vertrauen viel eher in eine Maschine zu stecken.

Aber jut, nicht alles, was mit KI zu tun hat ist automatisch gut oder überhaupt sinnvoll. Nicht alles braucht KI. Und wenn es im professionellen Rahmen genutzt wird, sollte es auch entsprechenden Gütekriterien genügen.

[–] [email protected] 3 points 2 days ago

Sie haben auch geholfen unser Verständnis bei der Krebsdiagnose zu verbessern, weil sie beispielsweise das Zellumfeld mit betrachtet haben, was Menschen bisweilen nicht getan haben.

Hast du da irgendeine Quelle? Weil das Neoplasien, das Milieu in ihrer Umgebung mitbeeinflussen ist jetzt auch keine revolutionär neue Erkenntnisse.

Aber damit habe ich auch kein Problem, solange man weiter daran forscht auch die Zusammenhänge zu verstehen. Was ich nicht möchte, ist dass wir irgendwann eine Blackbox haben, die sagt "Krebs"/"Nicht Krebs", aber wir wissen nicht warum, und können das auch nicht mehr ohne KI nachvollziehen.

Und davor habe ich ehrlich gesagt auch ein bisschen Sorge.

Was das "schlampige" Arbeiten angeht, liegt das denke ich auch einfach an den beschissenen Arbeitsbedingungen in Deutschland. Aber ich weiß auch nicht was du konkret mit "schlampigen Arbeiten" meinst.

Meinen praktischen Pflichtteil des Studiums im letzten habe ich in Deutschland, Schweiz und Österreich absolviert, nirgendwo war die Arbeitsbelastung und auch der Kostendruck im Krankenhaus auch nur ansatzweise so hoch wie in Deutschland. Willentlich schlampig, sind da eher die wenigsten.Gibt ja den bekannten Spruch: „Schnell, günstig oder gut. Suche dir zwei aus"

Von der universitären Ausbildung her, hatte ich das Gefühl dass diese in Deutschland verglichen mit den anderen Studenten in der Schweiz und Österreich eigentlich in Deutschland ziemlich gut ist. (Wobei ich auch an einer ziemlich "guten" Uni in Deutschland studiert habe)

[–] [email protected] 2 points 2 days ago (1 children)

Ich gebe dir Recht, spreche aber nicht von dieser Art der Daten. Keine Akutmedizin, Forschung. Und da wird es zur Zeit mit ersten Erfolgen eingesetzt: https://www.drugtargetreview.com/news/156022/ai-identifies-life-saving-treatment-for-rare-castlemans-disease/

[–] [email protected] 2 points 2 days ago* (last edited 2 days ago) (1 children)

Naja, wenn man den Artikel im NEJM liest (wobei der ja auch ziemlich kurz und arm an Details ist), dann klingt das ziemlich nach klassischer Forschungsarbeit. Dass die AI dann vorhersagt, dass ein Anti-TNF-Antikörper wie Adalimumab bei einem Patienten gut funktionieren könnte, dessen Entzündung maßgeblich durch TNF getrieben wird, finde ich jetzt erstmal nicht so revolutionär. Auf die Idee wären sie vermutlich auch ohne gekommen.

(Link zur Originalquelle: https://www.nejm.org/doi/full/10.1056/NEJMc2412494)

(Wenn jemand den Volltext haben möchte, aber keinen Zugriff hat, gerne PN)

[–] [email protected] 1 points 1 day ago (1 children)

Klar, irgendwann wäre man an den Punkt gekommen. Aber dass das Model in die richtige Richtung zeigt spart Zeit, Geld, und wer weiß was das Ding noch alles findet.

Das ist ein guter usecase. Selbes passiert aktuell in der Material Forschung.

Die KI spukt Kandidaten aus, Wissenschaftler prüfen

[–] [email protected] 2 points 1 day ago (1 children)

Das war eigentlich Ironie, dass ein TNF-alpha-Antikörper gut bei einer TNF-getriebenen Entzündung funktioniert ist jetzt keine große Überraschung, und dafür braucht man auch keine KI. Die Forschung selbst ist und war wichtig, insbesondere für den Betroffenen, aber es wirkte so als ob man unbedingt mal wieder das aktuell hippe Buzzword platzieren musste.

Ein weniger offensichtliches Beispiel wo das Modell gut funktioniert, wäre interessanter

[–] [email protected] 2 points 1 day ago (1 children)

Zu diesem relativ neuen Modell gibt es noch nichts besseres. Aber hier zwei spannende Projekte:

Gerade das zweite finde ich spannend weil hier gezielt auf die Halluzinationen der AI gesetzt wird.

[–] [email protected] 2 points 1 day ago

Danke dir für den spannenden Input!

Ich werde es mir heute Abend durchlesen 😊

[–] [email protected] 19 points 2 days ago (3 children)

KI ist nur ein Marketinggimmick und nicht tatsächlich KI. Was die Normalos KI nennen ist Scheiße.

[–] [email protected] 6 points 2 days ago (1 children)

Da fehlt vor allem noch ein wenig Blockkette drauf, sonst wird es eh nichts.

[–] [email protected] 5 points 2 days ago

im gegensatz zur blockkette löst maschinelles lernen tatsächliche probleme.

  • spracherkennung
  • krebserkennung
  • texte zusammen fassen
  • bildgenerierung
  • etc

es ist aber eben nicht die eierlegende wollmilchsau, die jetzt all unsere probleme lösen wird.

[–] [email protected] 2 points 2 days ago

Was ist deines Wissens nach denn "tatsächlich KI"?

[–] [email protected] 1 points 2 days ago (1 children)

KI ist KI. Wie schlau das I ist schwankt nur sehr.

[–] [email protected] 3 points 2 days ago (2 children)

Ein statistisches Modell die Antworten aufgrund Wahrscheinlichkeitsberechnung gibt kann kaum als Intelligenz bezeichnet werden.

[–] [email protected] 2 points 2 days ago (1 children)

Vervollständige den folgenden Satz:

Schatz, wann kommst du nach ___?

Bist du jetzt auch kaum intelligent, weil du deine Antwort auf Basis von impliziten Wahrscheinlichkeitsberechnungen gemacht hast?

Pareidolie ist auch ein schönes Beispiel, bei dem wir Annahmen aufgrund von Ähnlichkeiten und Wahrscheinlichkeiten treffen. Sind wir deswegen nicht intelligent?

Was ist Intelligenz überhaupt?

Wenn ChatGPT deine Hausaufgaben besser lösen kann als du, wer ist dann intelligenter?

Etc..

Letztenendes basieren die meisten populären KI-Anwendungen auf künstlichen neuronalen Netzen, die ein vereinfachtes Modell von biologischen Neuronen darstellen. Menschliche Gehirne sind so gesehen auch nichts weiter als Wahrscheinlichkeitsmaschinen.
Klar, es sind vereinfachte Modelle. Diverse Aspekte, die es im biologischen Vorbild gibt, fehlen noch. Aber das, was man bisher schon dadurch erreichen kann ist ziemlich krass und weist bei genauerer Betrachtung immer wieder Ähnlichkeiten zur Arbeitsweise (menschlicher) biologischer Gehirne auf. Siehe zum Beispiel der Gabor Filter, von dem viele Neurowissenschaftler, der Meinung sind, dass wir diesen als Teil unseres visuellen Cortex haben (was aber weiterhin untersucht wird). Dieser Filter wurde von einigen Convolutional Neural Networks eigenständig erlernt, was die Überlappung mit biologischen Gehirnen wieder faszinierend aufzeigt.

[–] [email protected] 2 points 2 days ago* (last edited 1 day ago)

Die Sache ist, dass ChatGPT häufig falsch ist mit der Angabe von Informationen, denn sie "denkt" nicht sondern geht nach "angelernte" statistische Modelle. Beispiel ChatGPT versteht Konzepte nicht und kann diese schlecht erklären. Da hab ich ein bisschen rumexperimentiert und da kam es häufig an seine Grenzen. Es ist gar nicht einfach zu erklären warum ChatGPT im engeren Sinne keine KI ist.

[–] [email protected] -1 points 1 day ago

Das erkennen von mustern und darauf basierende vorhersagen zu machen würde ich als intelligent bezeichnen. Unser Gehirn macht nichts anderes, nur deutlich mehr und effizienter.

[–] [email protected] 3 points 2 days ago (2 children)

KünstlERisch? Müsste das nicht Künstlysch heißen?

[–] [email protected] 2 points 1 day ago (1 children)

Oder einfach Kunstwerke statt künst[wasauchimmer]ische Werke. Man kann Deutsch ausgezeichnet geschlechtsneutral verwenden, man muss sich nur minimal darum bemühen.

[–] [email protected] 2 points 1 day ago

Ich wollte mich damit auch nur kurz über Phettberg lustig machen

[–] [email protected] 1 points 2 days ago

Hab ich mir auch schon gedacht xD

[–] [email protected] -1 points 2 days ago

... Urheberrecht auf Inspiration ? 😱 🤮