skip to main content
LOTERRE

LOTERRE

Search from vocabulary

Lengua del contenido

| français English
Ayuda para la búsqueda

Concept information

Término preferido

transformeur  

Notice: Undefined index: in /var/www/html/model/Concept.php on line 546

Notice: Undefined index: in /var/www/html/model/Concept.php on line 546

Notice: Undefined index: in /var/www/html/model/Concept.php on line 546

Definición

  • « modèle de transduction de séquences entièrement basé sur l'attention, remplaçant les couches récurrentes les plus couramment utilisées dans les architectures encodeur-décodeur par l'auto-attention multi-têtes. » (Vaswani et al., 2017, p. 10).

etiqueta alternativa (skos)

  • modèle auto-attentif
  • modèle d'auto-attention

En otras lenguas

URI

http://data.loterre.fr/ark:/67375/LTK-PFDPNVQ7-3

Descargue este concepto:

RDF/XML TURTLE JSON-LD última modificación 20/6/24