Advertisement · 728 × 90
#
Hashtag
#pleias
Advertisement · 728 × 90
Preview
Découvrabilité des contenus scientifiques francophones : le Commun numérique des sciences en français publié ! À l’occasion de la Semaine de la langue française et de la francophonie (17-20 mars), nous avons le plaisir d’annoncer la publication du corpus Commun numérique des sciences en français (FrenchScience...

Lancement du « Commun numérique des sciences en français » : 1,25 m. de documents pour l'IA, dont notamment des thèses et des articles, publiés dans la période 2007-2026 dans les bases OpenAlex, HAL et ThesesFR. tradso.hypotheses.org/931 @operaseu.bsky.social #Pleias @chaire-dcsf.bsky.social

5 3 0 0

Merci à #Pleias, #FranceDiplomatie, #WikimediaFrance et mes collègues de la direction des Archives, Bibliothèques et Collections muséales de #SorbonneUniversite pour cette journée.

3 1 0 0
Post image

Quelques informations supplémentaires sur la journée du 21 mars à Jussieu, dont la composition de la table-ronde dans ce communiqué de presse. www.sorbonne-universite.fr/actualites/s...
#Wikipedia #Pleias #TeamESR

0 0 0 0
Original post on social.tchncs.de

> Today, we are announcing Amazon, Meta, Microsoft, Mistral AI, and Perplexity for the first time as they join our roster of partners, which includes Google, Ecosia, Nomic, Pleias, ProRata, and Reef Media. All these organizations utilize Wikimedia Enterprise to integrate human-governed knowledge […]

0 0 0 0
Preview
Paper page - The Common Pile v0.1: An 8TB Dataset of Public Domain and Openly Licensed Text Join the discussion on this paper page

Really happy to see a new #copyleft -based #LLM , and this one seems to be more general-purpose than former attempts such as #PleIAs. The #Comma model is trained with #CommonPile, a new training pile with 8 TB of public domain and copyleft data. huggingface.co/papers/2506.052…

0 1 0 0
Preview
Paper page - The Common Pile v0.1: An 8TB Dataset of Public Domain and Openly Licensed Text Join the discussion on this paper page

Really happy to see a new #copyleft -based #LLM , and this one seems to be more general-purpose than former attempts such as #PleIAs. The #Comma model is trained with #CommonPile, a new training pile with 8 TB of public domain and copyleft data. huggingface.co/papers/2506.052…

0 1 0 0

Ah, if only self-hosted AIs trained on copyleft data (like #PleIAs ) were the industry standard. I mean, the MCP could be used to make such models compatible with your private environment out of the box...

1 0 0 0
Preview
Schéma des étapes de construction d'un modèle LLM Open Source (type Pleias.fr) Savez-vous comment se construit un ChatBot LLM généraliste de type ChatGPT en Open Source ?  Nous avons cherché sans succès sur le web le schéma magique qui pourrait nous l’expliquer. Alors Jean-Phili...

#IA Schéma des étapes de construction d'un modèle LLM Open Source (type #Pleias) parlezmoidia.fr/content/Z416... #AI

5 1 0 0

Je pensais (par expérience) que ce genre d'initiative était réservée aux grandes entreprises, @dorialexander.bsky.social, Alessandro Doria (son frère) et Pierre-Carl Langlais me prouvent le contraire avec #pleias

1 0 0 0

Good news: since a company's training requires one, I finally found a locally-hosted #LLM, #PleIAs, trained solely with freely redistributable data.
Bad news: it's so new, it hasn't been integrated with #LocalAI yet and I'm still tweaking YAML files around.

0 1 0 0

Good news: since a company's training requires one, I finally found a locally-hosted #LLM, #PleIAs, trained solely with freely redistributable data.
Bad news: it's so new, it hasn't been integrated with #LocalAI yet and I'm still tweaking YAML files around.

0 2 0 0

Ah, and I was about to download #PleIAs myself to test it. The AGPL share-alike restriction I don't mind, the problem is the non-commercial-licensed data would taint the license of the output. Any plans to filter the #CommonCorpus even further to prevent these issues? @dorialexander.bsky.social

0 0 1 0
Preview
Le français Pleias lance des LLM entraînés sur des données autorisées L’entreprise française Pleias a publié Pleias 1.0, une famille de petits modèles de langage multilingues, économes en ressources et conformes à la législation européenne. Ces LLM ont été formés exclus...

Le français #Pleias lance des #LLM entraînés sur des données autorisées
👉Ses LLM reposent sur une approche utilisant exclusivement des données ouvertes conformes à la législation européenne
👉« Ils disaient que c'était impossible »
www.ictjournal.ch/news/2024-12...

1 0 0 0
Preview
Pour une IA générative qui respecte le droit d'auteur Pleias, une toute jeune start-up soutenue par le ministère de la Culture, propose un corpus de textes tombés dans le domaine public qui permettront d'entraîner des grands modèles de langage en respect...

Pour une #IAgénérative qui respecte le droit d'auteur
👉 #Pleias, une toute jeune start-up propose un corpus de textes tombés dans le domaine public pour entraîner des grands modèles de langage #LLM
www.lesechos.fr/idees-debats...

0 0 0 0