skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

transformer  

Définition(s)

  • "sequence transduction model based entirely on attention, replacing the recurrent layers most commonly used in encoder-decoder architectures with multi-headed self-attention." (Vaswani et al., 2017, p. 10).

Concept(s) générique(s)

Synonyme(s)

  • self-attention model

Référence(s) bibliographique(s)

  • • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. arXiv:1706.03762 [cs]. http://arxiv.org/abs/1706.03762

Traductions

  • français

  • modèle auto-attentif
  • modèle d'auto-attention

URI

http://data.loterre.fr/ark:/67375/LTK-PFDPNVQ7-3

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 22/06/2023