Concept information
Terme préférentiel
FlauBERT
Définition(s)
- Modèle de langage BERT pré-entraîné pour la langue française.
Concept(s) générique(s)
Référence(s) bibliographique(s)
- • Le, H., Vial, L., Frej, J., Segonne, V., Coavoux, M., Lecouteux, B., Allauzen, A., Crabbé, B., Besacier, L., & Schwab, D. (2020). FlauBERT : Des modèles de langue contextualisés pré-entraînés pour le français. In C. Benzitoun, C. Braud, L. Huber, D. Langlois, S. Ouni, S. Pogodalla, & S. Schneider (Éds.), 6e conférence conjointe Journées d’Études sur la Parole (JEP, 33e édition), Traitement Automatique des Langues Naturelles (TALN, 27e édition), Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (RÉCITAL, 22e édition). Volume 2 : Traitement Automatique des Langues Naturelles (p. 268‑278). ATALA. https://hal.archives-ouvertes.fr/hal-02784776
- • Le, H., Vial, L., Frej, J., Segonne, V., Coavoux, M., Lecouteux, B., Allauzen, A., Crabbe, B., Besacier, L., & Schwab, D. (2020). FlauBERT : Unsupervised Language Model Pre-training for French. LREC. https://hal.archives-ouvertes.fr/hal-02890258
basé sur
a pour champ d'application
a pour pays de conception
- France
a pour langage d'entrée
a pour entrepôt
implémente
est encodé en
est exécuté dans
a pour licence
Traductions
-
anglais
-
French Language Understanding via Bidirectional Encoder Representations from Transformers
URI
http://data.loterre.fr/ark:/67375/LTK-TB0CFQGK-B
{{label}}
{{#each values }} {{! loop through ConceptPropertyValue objects }}
{{#if prefLabel }}
{{/if}}
{{/each}}
{{#if notation }}{{ notation }} {{/if}}{{ prefLabel }}
{{#ifDifferentLabelLang lang }} ({{ lang }}){{/ifDifferentLabelLang}}
{{#if vocabName }}
{{ vocabName }}
{{/if}}