Documentos y publicaciones
Acerca de Systran
Con más de 50 años de experiencia en tecnologías de traducción, SYSTRAN ha sido pionera en las mayores innovaciones en el campo, incluyendo los primeros portales de traducción basados en la web y los primeros motores de traducción neuronal que combinan inteligencia artificial y redes neuronales para empresas y organizaciones públicas.
SYSTRAN ofrece a los usuarios empresariales soluciones de traducción automática avanzadas y seguras en diversas áreas como: colaboración global, producción de contenido multilingüe, atención al cliente, investigación electrónica, análisis de Big Data, comercio electrónico, etc. SYSTRAN ofrece una solución a medida con una arquitectura abierta y escalable que permite una integración perfecta en las aplicaciones de terceros e infraestructuras informáticas existentes.
Hacia un NMT basado en ejemplos con transformadores Multi-Levenshtein
Hacia un NMT basado en ejemplos con transformadores Multi-Levenshtein
Maxime Bouthors, Josep Crego, François Yvon.
Conferencia de 2023 sobre métodos empíricos en el procesamiento del lenguaje natural (EMNLP 2023), diciembre de 2023, Singapur.BiSync: Editor bilingüe para textos monolingües sincronizados
BiSync: Editor bilingüe para textos monolingües sincronizadosEn nuestro mundo globalizado, cada vez surgen más situaciones en las que se exige a las personas que se comuniquen en uno o varios idiomas extranjeros. En el caso de la comunicación escrita, los usuarios con un buen dominio de una lengua extranjera pueden encontrar ayuda de las tecnologías de traducción asistida por ordenador (CAT). Estas tecnologías a menudo permiten a los usuarios acceder a recursos externos, tales como ... Continuación
Josep Crego, Jitao Xu, François Yvon.
61ª Reunión Anual de la Asociación para la Lingüística Computacional (ACL 2023), Jul 2023, Toronto, Canadá.Traducción automática basada en ejemplos de texto a una representación jerárquica de lenguaje de señas
Traducción automática basada en ejemplos de texto a una representación jerárquica de lenguaje de señasEn este artículo se presenta un experimento de traducción automática del texto al lenguaje de señas (SL). Como no tenemos un corpus alineado grande, hemos explorado un enfoque basado en el ejemplo, utilizando AZee, una representación intermedia del discurso en SL en forma de expresiones jerárquicas.
Élise Bertin-Lemée, Annelies Braffort, Camille Challant, Claire Danet y Michael Filhol
18e Conférence en Recherche d'Information et Applications — 16e Rencontres Jeunes Chercheurs en RI — 30e Conférence sur le Traitement Automatique des Langues Naturelles — 25e Rencontre des Étudiants Chercheurs en Informatique pour le Traitement Automatique des Langues (TALN 2023), junio de 2023, París, Francia.Integración de memorias de traducción en la traducción automática no autorregresiva
Integración de memorias de traducción en la traducción automática no autorregresiva
Jitao Xu, Josep Crego, François Yvon.
7ª Conferencia del Capítulo Europeo de la Asociación de Lingüística Computacional (EACL 2023), Asociación de Lingüística Computacional, mayo de 2023, Dubrovnik, Croacia.Sincronización bilingüe: restauración de relaciones de traducción con operaciones de edición
Sincronización bilingüe: restauración de relaciones de traducción con operaciones de ediciónLa traducción automática (MT) se suele ver como un proceso de una sola toma que genera el equivalente en el idioma de destino de algún texto original desde cero. Consideramos aquí una configuración más general que asume una secuencia de destino inicial, que debe transformarse en una traducción válida de la fuente, restableciendo así el paralelismo entre la fuente y el destino. Para esta tarea de sincronización bilingüe, consideramos varias arquitecturas (tanto autorregresivas como no autorregresivas) y regímenes de entrenamiento, y experimentamos con múltiples configuraciones prácticas como MT interactiva simulada, traducción con memoria de traducción (TM) y limpieza de TM. Nuestros resultados sugieren que un único sistema genérico basado en edición, una vez ajustado, puede compararse con, o incluso superar, los sistemas dedicados específicamente entrenados para estas tareas.
Jitao Xu, Josep Crego y François Yvon
La Conferencia de 2022 sobre Métodos Empíricos en el Procesamiento del Lenguaje Natural (EMNLP 2022), diciembre de 2022, Abou Dabi, Emiratos Árabes UnidosTraducción automática no autorregresiva con memorias de traducción
Traducción automática no autorregresiva con memorias de traducciónLa traducción automática no autorregresiva (NAT) ha logrado recientemente grandes avances. Sin embargo, la mayoría de los trabajos hasta la fecha se han centrado en tareas de traducción estándar, aunque algunos modelos NAT basados en edición, como Levenshtein Transformer (LevT), parecen ser adecuados para traducir con una memoria de traducción (TM). Este es el escenario aquí considerado. Primero analizamos el modelo LevT de vainilla... Continuación
Jitao Xu, Josep Crego y François Yvon
Conferencia de 2022 sobre métodos empíricos en el procesamiento del lenguaje natural (EMNLP 2022), diciembre de 2022, Abou Dabi (Emiratos Árabes Unidos).Traducción robusta de transcripciones de habla en vivo en francés
Traducción robusta de transcripciones de habla en vivo en francésA pesar de la reducción de la brecha de rendimiento con los enfoques directos, las soluciones en cascada, que implican el reconocimiento automático de voz (ASR) y la traducción automática (MT) todavía se emplean en gran medida en la traducción de voz (ST). Los enfoques directos que emplean un único modelo para traducir la señal de entrada de voz sufren del cuello de botella crítico de la escasez de datos. Además, múltiples aplicaciones de la industria muestran transcripciones de voz ... Continuación
Elise Bertin-Lemée, Guillaume Klein, Josep Crego y Jean Senellart
Actas de la XV Conferencia Bienal de la Asociación para la Traducción Automática en las Américas (Volumen 2: Usuarios y Proveedores Track and Government Track), sep 2022, Orlando, EE.UU.Deserción de grupo latente para traducción automática multilingüe y multidominio
Deserción de grupo latente para traducción automática multilingüe y multidominioLa traducción automática multidominio y multilingüe a menudo se basa en estrategias de uso compartido de parámetros, donde grandes porciones de la red están destinadas a capturar las características comunes de las tareas en cuestión, mientras que partes más pequeñas se reservan para modelar las peculiaridades de un idioma o un dominio. En los enfoques basados en adaptadores, estas estrategias están codificadas en la arquitectura de red, independiente ... Continuación
Minh-Quang Pham, François Yvon, Josep Crego
Resultados de la Asociación de Lingüística Computacional: NAACL 2022, Jul 2022, Seattle, Estados UnidosGeneración de lenguaje de señas multilineal basado en ejemplos a partir de una representación jerárquica.
Generación de lenguaje de señas multilineal basado en ejemplos a partir de una representación jerárquica.
Boris Dauriac, Annelies Braffort, Elise Bertin-Lemée.
Jun 2022, Marsella, Francia.Adaptación multidominio en traducción automática neuronal con estrategias de muestreo dinámico
Adaptación multidominio en traducción automática neuronal con estrategias de muestreo dinámicoLa construcción de modelos efectivos de traducción automática neuronal a menudo implica acomodar diversos conjuntos de datos heterogéneos para optimizar el rendimiento para el dominio o dominios de interés. Tales problemas de adaptación de múltiples fuentes/dominios se abordan normalmente a través de estrategias de selección o reponderación de instancias, basadas en una evaluación estática de la pertinencia de las instancias de capacitación con respecto a la tarea ... Continuación
MinhQuang Pham, Antoine Senellart, Dan Berrebbi, Josep Crego y Jean Senellart
Actas de la 23ª Conferencia Anual de la Asociación Europea para la Traducción Automática , junio de 2022, Gante (Bélgica)