skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

BERT  

Définition(s)

  • « BERT est conçu pour pré-entraîner des représentations bidirectionnelles profondes à partir de textes non étiquetés en conditionnant conjointement les contextes gauche et droit dans toutes les couches. » (Devlin et al., 2019).

Concept(s) générique(s)

Référence(s) bibliographique(s)

  • • Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT : Pre-training of deep bidirectional transformers for language understanding. arXiv:1810.04805 [cs]. http://arxiv.org/abs/1810.04805

a pour champ d'application

a pour pays de conception

  • États-Unis

a pour langage d'entrée

a pour localisation de téléchargement

est implémenté par

est encodé en

est exécuté dans

Traductions

  • anglais

  • Bidirectional Encoder Representations from Transformers

URI

http://data.loterre.fr/ark:/67375/LTK-SSWGBD85-7

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 20/06/2024