this post was submitted on 01 Mar 2026
46 points (97.9% liked)

de_EDV

1148 readers
34 users here now

Ableger von c/de_EDV auf feddit.org, welches wiederum ein Ableger von r/de_EDV auf feddit.de ist.

News, Diskussionen und Hilfestellung zu Hard- und Software

Diese Community dient als Anlaufstelle für alle IT-Interessierten, egal ob Profi oder blutiger Anfänger. Stellt eure Fragen und tauscht euch aus!

Ich würde das auf Anfrage jetzt erst mal hier eröffnen und schauen was sich tut.

founded 2 years ago
MODERATORS
 

#did #diday

Die Webseite zum “Digital Independence Day”: https://di.day/

4 min Video von Marc Uwe Kling zum heutigen dritten DID: https://tube.funfacts.de/videos/watch/4821131a-7efc-47be-aafc-b64e8add3693

7 min Video mit Marc Uwe Kling und Känguru zum DID: https://tube.funfacts.de/w/71fg7mAm2AqyEPxXNAgEpn

Vollständiger 39c3 Vortrag zum DID: https://media.ccc.de/v/39c3-die-kanguru-rebellion-digital-independence-day - Dauer 1 h

you are viewing a single comment's thread
view the rest of the comments
[–] RandomUserNr8@feddit.org 4 points 1 week ago (2 children)

Ich werde mal mit verschiedenen 8B Modellen starten. Muss dann mal schauen was klappt. hast du Tipps?

[–] kossa@feddit.org 4 points 1 week ago

https://whatmodelscanirun.com/

Kann man seine GPU oder generell Specs eingeben und der spuckt aus, welche Modelle mit welcher Performance laufen

[–] marv99@feddit.org 3 points 1 week ago

Ich spiele mit Ollama bisher auf einem älteren PC mit 16GB RAM, ohne GPU, nur auf einer i5 CPU.
Die von mir zuletzt getesteten Modelle passen daher nicht so gut zu Deiner 8B Vorgabe.
Ich zähle sie trotzdem mal auf:

  1. lfm2.5-thinking:latest
    Das sehr kleines Thinking-Modell LFM2.5 von LiquidAI, liefert erstaunlich flott gute Resultate,
    Das müsste mit seinen knapp 750MB gut auf die GPU passen.

  2. hf.co/byteshape/Qwen3-30B-A3B-Instruct-2507-GGUF:Qwen3-30B-A3B-Instruct-2507-Q3_K_S-3.25bpw.gguf
    Dieses optimierte instruct-Modell war richtig gut, dafür dass es auf meinem PC läuft, leider mit 12GB wohl zu groß für Deine 8B.
    Ein Modell dieser optimierten "Sammlung": https://huggingface.co/byteshape/Qwen3-30B-A3B-Instruct-2507-GGUF

  3. sam860/VibeThinker:1.5b-f16
    Da ich es aufgehoben habe, war es wohl ok, ich kann mich aber nicht mehr daran erinnern was Stärken und Schwächen waren.
    Mit seine 3.6GB passt es aber in die 8B rein.

  4. gpt-oss:20b
    Das größere der beiden neuen, offenen Modelle von OpenAI, mit 13GB deutlich zu groß für 8B, aber läuft (gerade so) bei mir auf CPU mit 16GB RAM.
    Gute Resultate, aber zu langsam für tägliche Nutzung.