skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

Megatron-LM  

Définition(s)

  • Modèle de langage pré-entrainé grâce à traitements en parallèle de GPU.

Concept(s) générique(s)

Référence(s) bibliographique(s)

  • • Narayanan, D., Shoeybi, M., Casper, J., LeGresley, P., Patwary, M., Korthikanti, V. A., Vainbrand, D., Kashinkunti, P., Bernauer, J., Catanzaro, B., Phanishayee, A., & Zaharia, M. (2021). Efficient large-scale language model training on GPU clusters using megatron-lm. ArXiv:2104.04473 [Cs]. http://arxiv.org/abs/2104.04473
  • • Shoeybi, M., Patwary, M., Puri, R., LeGresley, P., Casper, J., & Catanzaro, B. (2019). Megatron-LM: Training multi-billion parameter language models using GPU model parallelism. https://arxiv.org/abs/1909.08053v1

base de

a pour champ d'application

a pour langage d'entrée

est encodé en

est exécuté dans

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-DCJM3LC1-6

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 22/06/2023