Il ne faut pas se laisser impressionner par la course à l'énormité et au buzz des états-uniens, ce sont... les états-uniens.
Posts by Pierre Beyssac
à relativiser car l'extension des corpus et des tailles de modÚles n'est pas le seul axe d'amélioration, loin de là . Les algos d'apprentissage évoluent également, ainsi que les architectures (cf LeCun par exemple), et enfin je crois qu'il y a tout un corpus dormant de PDFs à peine gérés.
Pour l'instant ils le sont (enfin, open weights comme on dit), et il commence dĂ©jĂ Ă exister des modĂšles "full open source", donc je ne suis pas trop inquiet sur le moyen/long terme. L'open weight reste un bon moyen d'empĂȘcher OpenAI & Anthropic trop d'importance, les concurrents le savent.
Possible que la "tendance moyenne" est peut-ĂȘtre au grossissement des modĂšles, influencĂ©e par quelques modĂšles Ă©normes, mais c'est l'arbre qui cache la forĂȘt. Il faudrait pondĂ©rer par le volume d'usage et l'utilitĂ©, car une tendance inverse existe. Sur le fond le spectre de taille "utile" s'Ă©largit.
Je diffÚre, de petits modÚles sortent en permanence avec des performances qui s'améliorent sans cesse. Aujourd'hui on peut faire tourner mieux que GPT-3 (énorme à l'époque) en autohébergé voire sur téléphone mobile. Et des algos de re-distillation pour réduire des gros modÚles existent.
Je n'ai guÚre de doute que ça sera rentable. Déjà en autohébergé, pour un investissement ridicule (GPU de gamer) tu peux obtenir des résultats trÚs intéressants.
OpenAI a dĂ©jĂ rĂ©pondu depuis un bail. D'aprĂšs eux c'est dĂ» Ă un bug dans le corpus d'entraĂźnement, qui sur-reprĂ©sente certains articles. Donc ça doit dĂ©jĂ ĂȘtre corrigĂ©. Cela dit pour ĂȘtre complet il y a une Ă©tude similaire plus rĂ©cente, notamment sur base d'extraits de Harry Potter.
Au vu du logo, ta licence CC n'interdit pas le "derivative", qui est symbolisé comme ci-dessous avec un "=" (et assez rare puisque ça enlÚve une des libertés d'une licence libre).
Si les moteurs de recherche classique en bénéficient (au titre d'un mix de ces vocations), aucune raison que les LLM n'en bénéficient pas.
Tu fais vraiment 0 effort pour sortir de tes biais de confirmation... allez je te mets un des bouts, ce n'est mĂȘme pas le seul.
Ah ok, tu changes encore les conditions d'un tweet Ă l'autre par allergie binaire Ă l'IA... et pourquoi donc ?
L'EFF a une réponse à cette objection.
Du coup, les modÚles libres, n'ayant pas un modÚle commercial à but lucratif, rentrent dans le cadre du fair use, selon toi ? Moi ça me va.
Les moteurs de recherche sont acceptés au titre du fair use, bien qu'ils ne soient pas cités par le texte. Les juristes de l'EFF ne sont pas de ton avis. www.eff.org/deeplinks/20...
Je ne suis pas sĂ»r que le texte initial soit effectivement le plus probable. Ăa ne me semble pas du tout garanti dans le cas gĂ©nĂ©ral.
L'affirmation que l'essentiel des qualités d'un LLM en informatique est d'avoir lu stackoverflow est probablement trÚs exagérée sinon fausse, et en tout cas totalement improuvée.
Mes rĂ©ponses ne te convenant jamais, j'arrĂȘte lĂ ce dialogue de sourds. Bonne soirĂ©e.
Je n'ai rien juré. Je ne considÚre pas comme du dénigrement le fait de penser que quelqu'un est dans le déni. C'est plutÎt une critique (étayée sur le fond par mes arguments factuels exposés dans la discussion avec aeris). Mais pardon d'avoir dit quelque chose qui t'a peiné : je ne te le dirai plus.
Oui, d'ailleurs l'introduction d'un feedback de vérification est un bon moyen d'améliorer la fiabilité des LLM. Principe de base en automatisme bien avant les LLM d'ailleurs. Or justement, en informatique on a plein d'éléments vérifiables (erreurs de compilation, erreurs d'exécution, tests, etc).
Tu invoques la "magie" du coup ? On connaĂźt a priori la raison : certains articles Ă©taient reproduits plein (beaucoup trop) de fois dans le corpus d'apprentissage. Bug qui a dĂ» ĂȘtre corrigĂ© depuis.
Je ne suis pas sûr que ce soit encore vrai aujourd'hui.
La discussion n'est pas de savoir si les LLM sont lĂ©gaux ou pas. De toute façon, si on veut ĂȘtre strict, ils ne rĂ©alisent pas de copie du contenu d'apprentissage (il est mathĂ©matiquement impossible qu'ils le contiennent au final).
"Technologiquement", mathĂ©matiquement si tu veux puisque c'est toi qui raisonnes "Ă la fin c'est juste des 0 et des 1", une copie d'Ćuvre c'est juste une copie de 0 et 1 tout pareil => l'algo des LLM se contrefout du sujet. C'est une autre discussion.
1. Oui largement. Si on connaßt les ordres de grandeur pour les usages courants, ils sont ridiculement petits. Panique morale inventée par les anti-tout.
2 bulle en effet problématique. Vivement la fin.
3. Sujet trĂšs accessoire
Mais tout ça c'est un autre débat.
0 rapport. Argument totalement différent.
Osef. It quacks like a duck, ça suffit pour pas mal d'usages.
Je dis juste que es dans le dĂ©ni. Ăa me semble factuel, pas dĂ©nigrant. Je suis dĂ©solĂ© que tu trouves ça dĂ©nigrant. Je ne cherche pas Ă te convaincre, je n'en ai pas la force.
Eh ben voilĂ . L'apprentissage profond c'est similaire. D'oĂč les capacitĂ©s dites Ă©mergentes.