skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

MiniLM  

Définition(s)

  • "Small and fast pre-trained models for language understanding and generation" (source: https://github.com/microsoft/unilm/tree/master/minilm)

Concept(s) générique(s)

Référence(s) bibliographique(s)

  • • Wang, W., Wei, F., Dong, L., Bao, H., Yang, N., & Zhou, M. (2020). MiniLM : Deep self-attention distillation for task-agnostic compression of pre-trained transformers. arXiv:2002.10957 [cs]. http://arxiv.org/abs/2002.10957

base de

a pour champ d'application

a pour langage d'entrée

implémente

est encodé en

est exécuté dans

a pour licence

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-NV2360BM-D

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 22/06/2023