skip to main content
LOTERRE

LOTERRE

Search from vocabulary

Content language

| español français
Search help

Concept information

Preferred term

transformeur  

Definition(s)

  • « modèle de transduction de séquences entièrement basé sur l'attention, remplaçant les couches récurrentes les plus couramment utilisées dans les architectures encodeur-décodeur par l'auto-attention multi-têtes. » (Vaswani et al., 2017, p. 10).

Synonym(s)

  • modèle auto-attentif
  • modèle d'auto-attention

Bibliographic citation(s)

  • • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. arXiv:1706.03762 [cs]. http://arxiv.org/abs/1706.03762

In other languages

URI

http://data.loterre.fr/ark:/67375/LTK-PFDPNVQ7-3

Download this concept:

RDF/XML TURTLE JSON-LD Last modified 6/22/23