skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

TinyBERT  

Définition(s)

  • "TinyBERT is 7.5x smaller and 9.4x faster on inference than BERT-base and achieves competitive performances in the tasks of natural language understanding. It performs a novel transformer distillation at both the pre-training and task-specific learning stages." (source: https://github.com/huawei-noah/Pretrained-Language-Model/tree/master/TinyBERT).

Concept(s) générique(s)

Référence(s) bibliographique(s)

  • • Jiao, X., Yin, Y., Shang, L., Jiang, X., Chen, X., Li, L., Wang, F., & Liu, Q. (2020). TinyBERT : Distilling BERT for natural language understanding. arXiv:1909.10351 [cs]. http://arxiv.org/abs/1909.10351

basé sur

a pour champ d'application

a pour pays de conception

  • China

a pour langage d'entrée

implémente

est encodé en

est exécuté dans

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-LKG67B9D-D

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 22/06/2023