this post was submitted on 12 Mar 2025
70 points (98.6% liked)

DACH - Deutschsprachige Community für Deutschland, Österreich, Schweiz

3654 readers
498 users here now

Das Sammelbecken auf feddit.org für alle Deutschsprechenden aus Deutschland, Österreich, Schweiz, Liechtenstein, Luxemburg und die zwei Belgier. Außerdem natürlich alle anderen deutschprechenden Länderteile der Welt.

Ursprünglich wurde diese Community auf feddit.de gegründet. Nachdem feddit.de mit immer mehr IT-Problemen kämpft und die Admins nicht verfügbar sind, hat ein Teil der Community beschlossen einen Umzug auf eine neue Instanz unter dem Dach der Fediverse Foundation durchzuführen.

Für länderspezifische Themen könnt ihr euch in folgenden Communities austauschen:

Eine ausführliche Sidebar mit den Serverregeln usw. findet ihr auf der Startseite von feddit.org

___

founded 9 months ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] [email protected] 1 points 1 month ago (1 children)

Ich verstehe nicht genau was du damit sagen willst, bzw. was das Missverständnis sein soll?

Training artificial intelligence (AI) models on AI-generated text quickly leads to the models churning out nonsense, a study has found. This cannibalistic phenomenon, termed model collapse, could halt the improvement of large language models (LLMs) as they run out of human-derived training data and as increasing amounts of AI-generated text pervade the Internet.

Quelle

Das Problem entsteht ja schon im Grundprinzip von GANs. Die eine Hälfte wird darauf trainiert echte und generierte Daten zu unterscheiden. Wenn aber in den Referenzdaten immer mehr "falsche", also generierte Daten auftauchen, kann das Ganze schon vom Prinzip her nicht funktionieren.

[–] [email protected] 2 points 1 month ago

Nature ist mit der Veröffentlichung nicht gerade in meinem Ansehen gestiegen.

Was da gemacht wurde: Man nimmt ein generatives Modell. Damit erzeugt man zufällig Daten. Mit diesen Daten trainiert man ein neues Modell und immer wieder so weiter.

Natürlich geht in jeder Generation etwas verloren. Wenn ein Modell nicht ausspuckt oder nicht lernt, zB, dass der 3. Oktober Tag der Deutschen Einheit ist, dann wissen Folgegenerationen das nicht. Es gibt kein prinzipielles Problem mit KI-generierten Daten.

Das Prinzip hinter GANs ist das man 2 KIs gegeneinander antreten lässt. Eine KI generiert etwas, zB ein Bild. Die andere KI unterscheidet dann, ob so ein Bild von der Gegner-KI generiert wurde, oder im Trainingsdatensatz vorkommt. Im Idealfall werden beide immer besser und schaukeln sich gegenseitig hoch bis zur Perfektion. Ob die Trainingsdaten von irgendeiner anderen KI generiert wurden, ist egal.