this post was submitted on 19 Feb 2026
12 points (100.0% liked)

Forum Libre

1296 readers
77 users here now

Partagez et discutez de sujets positifs ou liés à votre quotidien, tels que:

Les mots d'ordre sont : respect et bienveillance, l'objectif est de proposer un environnement positif et tranquille.

Les discussions politiques ou pouvant provoquer des émotions négatives sont déconseillées, et ont davantage leur place sur

Les règles de l'instance sont bien entendu d'application.

Fils hebdomadaires"

"Demandez-moi n'importe quoi"

Communautés détendues

Communautés liées:

Loisirs:

Vie Pratique:

Communautés d'actualité

Société:

Pays:

Communauté de secours:

Communautés principales de l'instance

Nous rejoindre sur Zulip: https://jlailu.zulipchat.com/

founded 2 years ago
MODERATORS
 

Envie de poster une question technique sur du matériel ou du logiciel ?
Allez, viens !

you are viewing a single comment's thread
view the rest of the comments
[–] Skunk@jlai.lu 2 points 1 day ago (1 children)

J’ai fait les mêmes expériences avec text-generation gui et des modèles 70 et 36B gguf. (J’ai une 4090 ou un processeur avec npu sur l’autre machine)

Mon truc c’est plutôt la littérature donc je voulais voir si j’arrivais à générer du low-effort ok-tiers pour faire de la masse (20books to 50k).

Par ok-tiers je veux dire quelque chose généré par llm avec un contexte de 8192 (assez pour un chapitre) puis retravaillé à la main car il est moralement hors de question de produire de la merde, low effort oui, 💩 non.

Bah c’est nul, obtenir un résultat utile demande un gros effort de contexte, resumé et fiches personnages ainsi qu’une attention constante pour bien diriger le bousin.

Sachant que derrière faut relire et réécrire à la main c’est plus rapide de juste écrire pour directement avoir une qualité moyenne à bonne.

TLPL: Ça sert à rien sauf prendre des gigas sur mon disque.

[–] Ziggurat@jlai.lu 2 points 1 day ago (3 children)

Sachant que derrière faut relire et réécrire à la main c’est plus rapide de juste écrire pour directement avoir une qualité moyenne à bonne.

Ça reste le gros problème, au début de chatGPT, j'avais un peu testé pour des aides de jeux de JDR et en fait, il faut repasser derrière pour éviter une info qui matche pas le scénario ou qui aurait du être "secret" le gain de temps est un peu limité.

C'est aussi le problème au travail, oui je peux rephraser un paragraphe, et avoir un truc en anglais correct, mais il faut l'écrire d'abord et le relire après. Donc le gain est limité.

Pourtant il y a des gens qui prétendent que ça change leur vie/travail

[–] Zos_Kia@jlai.lu 1 points 13 hours ago

Pourtant il y a des gens qui prétendent que ça change leur vie/travail

Ils utilisent des modèles frontière qui ont des performances bien meilleures. Par exemple pour l'écriture c'est effectivement impossible sans une fenêtre de contexte conséquente. Déjà avec 50K tu peux obtenir des trucs pas mal. C'est pas du Tolstoi mais ça se lit et surtout ça reste cohérent, ça respecte les beats narratifs que tu as définis, ça fait pas dériver les personnages vers des versions génériques d'eux mêmes, etc...

Le côté agentique est utile aussi, pas pour faire de "vrais" agents mais parceque ce sont des modèles fine-tunés à bien tolérer les inférences longues et laborieuses. Ils restent dans leur voie, font des checkpoints réguliers pour se réaligner avec le contexte original, etc... En comparaison, les modèles de la génération précédente genre Llama et compagnie sont complètement arrachés. Le modèle va totalement vriller au bout de 5000 tokens et partir à 90° de sa tâche initiale.

En local si tu peux faire passer une quant de GLM-4.5-Air par exemple, tu vas avoir des résultats bien meilleurs. Bon ça va pas être particulièrement rapide par contre...

[–] Courantdair@jlai.lu 3 points 1 day ago* (last edited 1 day ago) (1 children)

Les gens qui prétendent que ça change leur vie ne relisent pas je pense

[–] Skunk@jlai.lu 2 points 1 day ago

Je pense aussi, ils font justement parti de ces gens qui acceptent de publier/présenter/envoyer de la mauvaise qualité. C'est possiblement une stratégie et je peux le comprendre, mais je refuse de le faire.

[–] leftascenter@jlai.lu 1 points 1 day ago

J'ai un ami qui utilise et gagne du temps, mais c'est le bon cas:

  • llm local
  • entraine sur 30+ années de dossiers
  • utilisé pour dégrossir des cas en phase amont: au lieu de faire 1 pré-étude /semaine, ils génèrent 3-4 pre-pre-etudes, et affinent celle qui semble la mieux.

Ça leur permet de faire moins d'itérations / converger plus vite sur les cas complexes.