BERT (modèle de langage)

méthode de pré entraînement des algorithmes de traitement automatique du langage naturel
BERT

Informations
Développé par Google Research (d)Voir et modifier les données sur Wikidata
Première version Voir et modifier les données sur Wikidata
Dépôt github.com/google-research/bertVoir et modifier les données sur Wikidata
Taille des données 110 M paramètre et 340 M paramètreVoir et modifier les données sur Wikidata
Type Grand modèle de langage
Modèle transformateur
Modèle de langage entraîné par masquage (d)Voir et modifier les données sur Wikidata
Licence Licence Apache version 2.0Voir et modifier les données sur Wikidata
Site web arxiv.org/abs/1810.04805Voir et modifier les données sur Wikidata

En traitement automatique du langage naturel, BERT, acronyme anglais de Bidirectional Encoder Representations from Transformers, est un modèle de langage développé par Google en 2018. Cette méthode a permis d'améliorer significativement les performances en traitement automatique des langues.

Usage dans des applications modifier

Le , Google annonce officiellement que BERT est désormais intégré à certains de ses services pour les entreprises (Cloud TPU, bibliothèque pour TensorFlow)[1] et que son déploiement s'effectuera les jours suivants, d'abord pour la langue anglaise, puis les autres. La firme de Mountain View qualifie ce changement de modification la plus importante apportée à l'algorithme Google depuis 5 ans, date à laquelle RankBrain avait été lancé.

La méthode a été adaptée à la langue française en 2019 avec les modèles CamemBERT[2] et FlauBERT[3]. CamemBERT a été pré-entraîné sur un corpus de 138 Go de texte et FlauBERT sur un corpus de 71 Go de texte.

Bibliographie modifier

Voir aussi modifier

Articles connexes modifier

Liens externes modifier

Notes et références modifier

  1. (en) Jacob Devlin et Ming-Wei Chang, « Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing », sur Google AI Blog, (consulté le ).
  2. (en) Louis Martin et al., « CamemBERT: a Tasty French Language Model », .
  3. (en) Hang Le et al., « FlauBERT: Unsupervised Language Model Pre-Training for French », .