skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

SapBERT  

Définition(s)

  • « modèle pré-entraîné qui auto-aligne l'espace de représentation d'entités biomédicales. » (Liu et al., 2021, p. 4228).

Concept(s) générique(s)

Référence(s) bibliographique(s)

  • • Liu, F., Shareghi, E., Meng, Z., Basaldella, M., & Collier, N. (2021). Self-alignment pretraining for biomedical entity representations. In K. Toutanova, A. Rumshisky, L. Zettlemoyer, D. Hakkani-Tur, I. Beltagy, S. Bethard, R. Cotterell, T. Chakraborty, & Y. Zhou (Eds.), Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (pp. 4228–4238). Association for Computational Linguistics. doi:10.18653/v1/2021.naacl-main.334

basé sur

a pour pays de conception

  • États-Unis
  • Royaume-Uni

a pour langage d'entrée

est un champ d'application de

implémente

est encodé en

a pour licence

Traductions

  • anglais

  • Self-aligning pretrained BERT

URI

http://data.loterre.fr/ark:/67375/LTK-W63LC46L-T

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 20/06/2024