Apprentissage discriminant de modèles neuronaux pour la traduction automatique

Quoc-Khanh Do*, Alexandre Allauzen* et François Yvon**
*LIMSI, CNRS, Univ. Paris-Sud, Université Paris-Saclay, Bât 508, rue John von Neumann, Campus Universitaire, F-91405 Orsay
**LIMSI, CNRS, Université Paris-Saclay, Bât 508, rue John von Neumann, Campus Universitaire, F-91405 Orsay
Résumé
Alors que les réseaux neuronaux occupent une place de plus en plus importante en traitement automatique des langues, les méthodes d’apprentissage actuelles utilisent, pour la plupart, des critères qui sont décorrélés de l’application finale. Cet article propose un nouveau cadre d’apprentissage discriminant pour l’estimation des modèles continus pour la traduction automatique. Ce cadre s’appuie sur la définition d’un critère d’apprentissage permettant de prendre en compte, d’une part, la métrique utilisée pour l’évaluation de la traduction et, d’autre part, le processus d’intégration de ces modèles au sein des systèmes de traduction automatique. Cette méthode est comparée aux critères d’apprentissage existants que sont le maximum de vraisemblance et l’estimation contrastive bruitée. Les expériences menées sur les tâches de traduction des séminaires TedTalks et de textes médicaux, depuis l’anglais vers le français, montrent la pertinence d’un cadre d’apprentissage discriminant et l’importance d’une initialisation judicieuse, en particulier dans une perspective d’adaptation.
Paru dans
Document
Rank
5