skip to main content
LOTERRE

LOTERRE

Choisissez le vocabulaire dans lequel chercher

Langue des données

| español English
Aide à la recherche

Concept information

Terme préférentiel

PubMedBERT  

Définition(s)

  • Language pretraining model on PubMed abstracts for the biomedical domain.

Concept(s) générique(s)

Référence(s) bibliographique(s)

  • • Gu, Y., Tinn, R., Cheng, H., Lucas, M., Usuyama, N., Liu, X., Naumann, T., Gao, J., & Poon, H. (2020). Domain-specific language model pretraining for biomedical natural language processing. https://arxiv.org/abs/2007.15779v4

basé sur

a pour champ d'application

a pour pays de conception

  • United States

a pour langage d'entrée

implémente

est encodé en

est exécuté dans

a pour licence

Traductions

URI

http://data.loterre.fr/ark:/67375/LTK-PKBQKHJM-D

Télécharger ce concept:

RDF/XML TURTLE JSON-LD Dernière modif. 22/06/2023