Advertisement · 728 × 90

Posts by Pierre Beyssac

Il ne faut pas se laisser impressionner par la course à l'énormité et au buzz des états-uniens, ce sont... les états-uniens.

4 hours ago 0 0 0 0

À relativiser car l'extension des corpus et des tailles de modĂšles n'est pas le seul axe d'amĂ©lioration, loin de lĂ . Les algos d'apprentissage Ă©voluent Ă©galement, ainsi que les architectures (cf LeCun par exemple), et enfin je crois qu'il y a tout un corpus dormant de PDFs Ă  peine gĂ©rĂ©s.

4 hours ago 0 0 1 0

Pour l'instant ils le sont (enfin, open weights comme on dit), et il commence dĂ©jĂ  Ă  exister des modĂšles "full open source", donc je ne suis pas trop inquiet sur le moyen/long terme. L'open weight reste un bon moyen d'empĂȘcher OpenAI & Anthropic trop d'importance, les concurrents le savent.

5 hours ago 2 0 0 0

Possible que la "tendance moyenne" est peut-ĂȘtre au grossissement des modĂšles, influencĂ©e par quelques modĂšles Ă©normes, mais c'est l'arbre qui cache la forĂȘt. Il faudrait pondĂ©rer par le volume d'usage et l'utilitĂ©, car une tendance inverse existe. Sur le fond le spectre de taille "utile" s'Ă©largit.

5 hours ago 0 0 0 0

Je diffÚre, de petits modÚles sortent en permanence avec des performances qui s'améliorent sans cesse. Aujourd'hui on peut faire tourner mieux que GPT-3 (énorme à l'époque) en autohébergé voire sur téléphone mobile. Et des algos de re-distillation pour réduire des gros modÚles existent.

5 hours ago 0 0 2 0

Je n'ai guÚre de doute que ça sera rentable. Déjà en autohébergé, pour un investissement ridicule (GPU de gamer) tu peux obtenir des résultats trÚs intéressants.

5 hours ago 0 1 1 0

OpenAI a dĂ©jĂ  rĂ©pondu depuis un bail. D'aprĂšs eux c'est dĂ» Ă  un bug dans le corpus d'entraĂźnement, qui sur-reprĂ©sente certains articles. Donc ça doit dĂ©jĂ  ĂȘtre corrigĂ©. Cela dit pour ĂȘtre complet il y a une Ă©tude similaire plus rĂ©cente, notamment sur base d'extraits de Harry Potter.

5 hours ago 1 0 0 0
Post image

Au vu du logo, ta licence CC n'interdit pas le "derivative", qui est symbolisé comme ci-dessous avec un "=" (et assez rare puisque ça enlÚve une des libertés d'une licence libre).

16 hours ago 0 0 1 0
Post image
16 hours ago 0 0 1 0

Si les moteurs de recherche classique en bénéficient (au titre d'un mix de ces vocations), aucune raison que les LLM n'en bénéficient pas.

16 hours ago 0 0 1 0
Advertisement
Post image

Tu fais vraiment 0 effort pour sortir de tes biais de confirmation... allez je te mets un des bouts, ce n'est mĂȘme pas le seul.

16 hours ago 0 0 1 0

Ah ok, tu changes encore les conditions d'un tweet Ă  l'autre par allergie binaire Ă  l'IA... et pourquoi donc ?

16 hours ago 0 0 1 0

L'EFF a une réponse à cette objection.

16 hours ago 0 0 1 0

Du coup, les modÚles libres, n'ayant pas un modÚle commercial à but lucratif, rentrent dans le cadre du fair use, selon toi ? Moi ça me va.

16 hours ago 0 0 1 0
Preview
Search Engines, AI, And The Long Fight Over Fair Use Long before generative AI, copyright holders warned that new technologies for reading and analyzing information would destroy creativity. Internet search engines, they argued, were infringement machin...

Les moteurs de recherche sont acceptés au titre du fair use, bien qu'ils ne soient pas cités par le texte. Les juristes de l'EFF ne sont pas de ton avis. www.eff.org/deeplinks/20...

16 hours ago 0 0 1 0
Preview
Les faits concernant l’action en justice intentĂ©e par le New York Times DĂ©couvrez les faits concernant le procĂšs intentĂ© par le New York Times contre OpenAI, y compris les dĂ©cisions de justice affirmant que l’entraĂźnement de l’IA constitue une utilisation Ă©quitable et com...

Oui. L'affaire est en cours d'instruction. OpenAI plaide le "fair use". openai.com/fr-FR/new-yo...

16 hours ago 0 0 1 0

Je ne suis pas sĂ»r que le texte initial soit effectivement le plus probable. Ça ne me semble pas du tout garanti dans le cas gĂ©nĂ©ral.

16 hours ago 0 0 1 0

L'affirmation que l'essentiel des qualités d'un LLM en informatique est d'avoir lu stackoverflow est probablement trÚs exagérée sinon fausse, et en tout cas totalement improuvée.

17 hours ago 0 0 0 0

Mes rĂ©ponses ne te convenant jamais, j'arrĂȘte lĂ  ce dialogue de sourds. Bonne soirĂ©e.

17 hours ago 0 0 1 0
Advertisement

Je n'ai rien juré. Je ne considÚre pas comme du dénigrement le fait de penser que quelqu'un est dans le déni. C'est plutÎt une critique (étayée sur le fond par mes arguments factuels exposés dans la discussion avec aeris). Mais pardon d'avoir dit quelque chose qui t'a peiné : je ne te le dirai plus.

18 hours ago 0 0 1 0

Oui, d'ailleurs l'introduction d'un feedback de vérification est un bon moyen d'améliorer la fiabilité des LLM. Principe de base en automatisme bien avant les LLM d'ailleurs. Or justement, en informatique on a plein d'éléments vérifiables (erreurs de compilation, erreurs d'exécution, tests, etc).

18 hours ago 0 0 0 0

Tu invoques la "magie" du coup ? On connaĂźt a priori la raison : certains articles Ă©taient reproduits plein (beaucoup trop) de fois dans le corpus d'apprentissage. Bug qui a dĂ» ĂȘtre corrigĂ© depuis.

18 hours ago 0 0 1 0

Je ne suis pas sûr que ce soit encore vrai aujourd'hui.

18 hours ago 0 0 0 0

La discussion n'est pas de savoir si les LLM sont lĂ©gaux ou pas. De toute façon, si on veut ĂȘtre strict, ils ne rĂ©alisent pas de copie du contenu d'apprentissage (il est mathĂ©matiquement impossible qu'ils le contiennent au final).

18 hours ago 0 0 1 0

"Technologiquement", mathĂ©matiquement si tu veux puisque c'est toi qui raisonnes "Ă  la fin c'est juste des 0 et des 1", une copie d'Ɠuvre c'est juste une copie de 0 et 1 tout pareil => l'algo des LLM se contrefout du sujet. C'est une autre discussion.

18 hours ago 0 0 1 0

1. Oui largement. Si on connaßt les ordres de grandeur pour les usages courants, ils sont ridiculement petits. Panique morale inventée par les anti-tout.
2 bulle en effet problématique. Vivement la fin.
3. Sujet trĂšs accessoire
Mais tout ça c'est un autre débat.

18 hours ago 0 0 1 0

0 rapport. Argument totalement différent.

18 hours ago 0 0 0 0

Osef. It quacks like a duck, ça suffit pour pas mal d'usages.

18 hours ago 0 0 1 0

Je dis juste que es dans le dĂ©ni. Ça me semble factuel, pas dĂ©nigrant. Je suis dĂ©solĂ© que tu trouves ça dĂ©nigrant. Je ne cherche pas Ă  te convaincre, je n'en ai pas la force.

18 hours ago 0 0 1 0
Advertisement

Eh ben voilĂ . L'apprentissage profond c'est similaire. D'oĂč les capacitĂ©s dites Ă©mergentes.

18 hours ago 0 0 1 0