[fr] Dans ce poster, nous posons les bases du fonctionnement des grands modèles de langage et nous identifions les écueils qui y sont récurrents pour ensuite nous concentrer sur ceux qui sont inhérents à la traduction automatique neuronale. Nous définissons ensuite le phénomène d’hallucination qui est une erreur d’inadéquation sémantique que l’on observe dans le texte traduit. Enfin, nous tentons d’expliquer les raisons qui mènent la traduction automatique neuronale à halluciner.
Disciplines :
Languages & linguistics
Author, co-author :
Meyers, Charlène ; Université de Mons - UMONS > Faculté de Traduction et d'Interprétation - Ecole d'Interprètes Internationaux > Service d'Etudes anglaises : Littérature, langue, interprétation et traduction
Language :
French
Title :
DeepL sous LSD : quand les traducteurs automatiques ont des hallucinations
Publication date :
26 March 2024
Number of pages :
1
Event name :
Mardi des Chercheurs 2024
Event organizer :
Université de Mons Université Polytechnique Hauts-de-France
Event date :
26/03/2024
Audience :
International
Research unit :
T210 - English : Literature, Language, Interpretation and Translation
Research institute :
R350 - Institut de recherche en sciences et technologies du langage