skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

SapBERT  

Définition(s)

  • "a pretraining scheme that self-aligns the representation space of biomedical entities." (Liu et al., 2021, p. 4228).

Concept(s) générique(s)

Synonyme(s)

  • Self-aligning pretrained BERT

Référence(s) bibliographique(s)

  • • Liu, F., Shareghi, E., Meng, Z., Basaldella, M., & Collier, N. (2021). Self-alignment pretraining for biomedical entity representations. In K. Toutanova, A. Rumshisky, L. Zettlemoyer, D. Hakkani-Tur, I. Beltagy, S. Bethard, R. Cotterell, T. Chakraborty, & Y. Zhou (Eds.), Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (pp. 4228–4238). Association for Computational Linguistics. doi:10.18653/v1/2021.naacl-main.334

basé sur

a pour pays de conception

  • United Kingdom
  • United States

a pour langage d'entrée

est un champ d'application de

implémente

est encodé en

a pour licence

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-W63LC46L-T

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 20/06/2024