skip to main content
LOTERRE

LOTERRE

Search from vocabulary

Lengua del contenido

| français English
Ayuda para la búsqueda

Concept information

Término preferido

transformer  

Notice: Undefined index: in /var/www/html/model/Concept.php on line 546

Notice: Undefined index: in /var/www/html/model/Concept.php on line 546

Definición

  • "sequence transduction model based entirely on attention, replacing the recurrent layers most commonly used in encoder-decoder architectures with multi-headed self-attention." (Vaswani et al., 2017, p. 10).

Concepto genérico

etiqueta alternativa (skos)

  • self-attention model

En otras lenguas

  • francés

  • modèle auto-attentif
  • modèle d'auto-attention

URI

http://data.loterre.fr/ark:/67375/LTK-PFDPNVQ7-3

Descargue este concepto:

RDF/XML TURTLE JSON-LD última modificación 22/6/23