ISSN: 1139-8736
Depósito Legal: B-35510-2000

3.4 Conclusiones y discusión

En este capítulo hemos tratado de introducir el vasto campo de la Traducción Automática, deteniéndonos en aquellos enfoques y aspectos que hemos considerado más relevantes para nuestro trabajo. No hemos mencionado algunos enfoques, como los enfoques basados en redes neuronales o la denominada "Shake and Bake Machine Translation", que, por su novedad, aún no han dado los resultados suficientes para merecer una evaluación apropiada. Tampoco hemos mencionado otros enfoques más o menos marginales, como la semántica preferencial de Wilks (Wilks 1973, 1975), que, aunque interesantes en su desarrollo, no han pretendido crear sistemas de TA operativos.

Las conclusiones más importantes que extraemos de este estudio son las siguientes:

  1. La Traducción Automática es una tarea compleja que requiere el desarrollo de un buen número de recursos. Destacamos los siguientes:
  • Un depósito de información lingüística con un rico y bien estructurado componente léxico,
  • Sistemas de representación apropiados,
  • Gramáticas lexicalistas versátiles.
  1. No existe el enfoque definitivo que resuelva todos los problemas de la TA. Los sistemas con más éxito son aquéllos que adoptan una postura ecléctica, integrando técnicas de diversos enfoques.
  2. De entre todos los enfoques expuestos, nos decantamos claramente a favor de los basados en el conocimiento; principalmente por las siguientes razones:
  • La traducción de lenguas naturales es un proceso complejo que requiere una vasta cantidad de información léxica y de conocimiento del mundo.
  • Los enfoques no lingüísticos tropiezan con obstáculos que son fácilmente salvables mediante técnicas lingüísticas.
  • Los sistemas de representación del conocimiento actuales permiten una utilización del conocimiento humano para muchas tareas complejas, entre ellas la traducción.
  • Tratar de reproducir de forma artificial las estructuras de conocimiento que un traductor humano emplea nos puede llevar, cuando menos, a un mejor entendimiento de estas estructuras de conocimiento y de los procesos que tienen lugar en la mente humana por lo que respecta a la comprensión del lenguaje.
  • Tener como objetivo la creación de un sistema de KBMT implica, en cualquier caso, la elaboración de un vasto repositorio de información lingüística y de conocimiento del mundo. Si empleamos las técnicas adecuadas, esta información podrá ser reutilizable en otras muchas tareas de NLP.
  • La experiencia acumulada en el campo de la TA apunta en la dirección de estos sistemas, que suponen una inversión segura a largo plazo.
  1. Por lo que respecta a la adecuación de nuestro modelo lexicológico a este enfoque, resulta evidente, y así lo hemos señalado, que se necesitará la incorporación al esquema principal de un nuevo elemento, la ontología. En el Capítulo 5 mostraremos cómo esta adición es perfectamente compatible con el modelo general, aunque, como veremos, tiene algunas consecuencias indirectas, que, por otra parte, resultan enormemente enriquecedoras.

Algo que es común prácticamente a todos los desarrollos modernos que pretenden llegar a ser funcionales es el enorme eclecticismo que sus creadores han venido mostrando. Como veremos, casi siempre se parte de un paradigma más o menos en su estado puro, pero conforme avanza su desarrollo, se suele hacer patente la necesidad de incorporar técnicas que ya han mostrado su valía en otros tipos de sistemas, casi siempre con el objeto de mejorar los resultados finales. Sin duda esta situación cada vez más normal, denominada a veces "hibridización" (Hovy 1996), es el resultado de la presión ejercida por las organizaciones que financian los proyectos para la obtención de resultados, ya sean gubernamentales (como el US Department of Defense) o industriales (IBM).

Otra característica común a todos estos sistemas es que aún se encuentran en fase de investigación, sin que exista hasta la fecha ningún sistema comercial que los integre. Esto no significa que no sean sistemas funcionales; como hemos dicho, los mayores desarrollos suelen ser financiados en parte o totalmente por grandes compañías o agencias gubernamentales que exigen resultados. El proceso de desarrollo que siguen estos productos hasta que alcanzan el mercado, sin embargo, suele ser bastante prolongado, sobre todo debido a razones técnicas. Pensemos que el veterano sistema de TA Metal está disponible para plataformas basadas en microordenadores tan sólo desde hace unos años, habiendo estado durante muchos años al alcance únicamente de grandes organizaciones con una infraestructura informática considerable.

Por ejemplo, el sistema KBMT-89 (que describimos en el apartado 3.3.3) requería la potencia de una estación de trabajo con arquitectura RISC para cada uno de sus procesos independientes. También el sistema Pangloss (apartado 3.3.5) requiere una de estas estaciones de trabajo para cada uno de los motores de traducción que implementa. Los sistemas basados en el ejemplo tampoco se quedan atrás en sus necesidades de almacenamiento de datos y potencia de cálculo, por no hablar de los sistemas basados en estadística desarrollados por IBM.

Pasada la primera fase de prototipo y habiendo demostrado su buen funcionamiento, un sistema de TA (o cualquier otro tipo de aplicación informática) es calificado por el equipo evaluador como funcional. Sólo tras mucho años de estar "funcionando" puede uno de estos sistemas complejos llegar a convertirse en comercial, normalmente tras una adecuación a la demanda del mercado, por lo que muchas veces sólo se comercializan algunos módulos del sistema original reconvertidos en aplicaciones autónomas.

Por esto resulta mucho más interesante estudiar los sistemas cuando aún se hallan en fase de investigación y desarrollo. Además, durante esta fase, los investigadores suelen hacer públicos sus resultados provisionales, lo que permite a otros investigadores trabajar sobre ellos. Ésta es precisamente la situación en la que se encuentra el proyecto Mikrokosmos, el mayor de los sistemas basados en el conocimiento desarrollados hasta la fecha, cuya ontología hemos adaptado de forma provisional a nuestra implementación con el objetivo de mostrar la utilidad de una base de conocimiento en la difícil tarea de traducir lenguas naturales automáticamente, así como las posibilidades de reutilización y adaptabilidad de nuestra implementación.

Una de las lecciones más importantes que aprendemos de la historia de la Traducción Automática es que los enfoques "puristas", están destinados a fracasar. En la historia más reciente, las "Guerras Estadísticas" son el mejor ejemplo de esto. En 1991 existía un enfrentamiento frontal entre los desarrolladores del sistema estadístico Candide de IBM, por una parte y los proponentes del modelo de interlingua, por otra, que desarrollarían el sistema Pangloss. En 1997 el cuadro resulta totalmente diferente: los dos sistemas han acabado empleando metodologías estadísticas y lingüísticas de forma paralela.

Los investigadores de IBM alegaron tras la decisión de incorporar conocimiento lingüístico que, si bien reconocían la necesidad de éste (en forma de lexicones, reglas gramáticas y morfológicas, etc.) para mejorar el funcionamiento de su sistema, este conocimiento podía ser generado mediante métodos empíricos, no mediante la intuición.

Este uso de técnicas estadísticas sí nos parece más adecuado. La extracción de datos significativos (regularidades sintácticas y semánticas, información colocacional, etc.) mediante la utilización de extensos córpora textuales ha demostrado ya en varias ocasiones su efectividad. En este sentido, defendemos las técnicas de lingüística de corpus como el mejor de los métodos lexicográficos para la obtención de información.

Como afirma Hovy (1996), este proceso de hibridización resulta inevitable cuando el proyecto inicial se ha desarrollado durante algún tiempo.

Estamos de acuerdo con Nirenburg (1996) y Wilks (1996) en que la calidad de los resultados no se corresponde con el método usado, sino más bien con la cantidad de trabajo descriptivo (lingüístico) que se ha llevado a cabo en un determinado sistema.

Recordemos una vez más que uno de los sistemas de TA con más éxito hasta la fecha, Systran, debe este éxito no a lo avanzado de su metodología (es de primera generación), sino a la gran cantidad de información lingüística que posee, incluso cuando ésta no está plasmada en el mejor de los soportes (modelo de datos). Esto no quiere decir que el trabajo teórico sea innecesario, de ser así no se hubiesen desarrollado muchas de las técnicas que, creemos, son las más prometedoras. Nuestra posición es que debe hallarse un equilibrio entre ambos tipo de trabajo. Otros sistemas con un gran nivel de precisión de traducción combinan un gran volumen de entradas frasales en el lexicón con el uso de sublenguas que restringen enormemente la ambigüedad (p. ej. KANT).

El caso de Eurotra, también resulta ilustrativo en este sentido: la mayor parte del esfuerzo fue orientado hacia la creación de estándares y modelos teóricos sobre lo que debería ser el entorno ideal de TA, pero el trabajo descriptivo real fue comparativamente pobre. Los resultados reales arrojados por este proyecto estuvieron acorde con los esfuerzos del trabajo descriptivo, no del teórico.

La tendencia a eludir el trabajo descriptivo lingüístico se ha venido manifestando en:

La postura de aquéllos que abogan por la reutilización de recursos como única fuente de información lingüística se basa en que todo el trabajo descriptivo ya está realizado y sería una pérdida de tiempo volver a realizarlo. Sin embargo, no tienen en cuenta que dicho trabajo descriptivo nunca ha estado enfocado a su utilización en sistemas informáticos complejos tales como un sistema de TA. La suposición de que se trata únicamente de un problema de formato no es correcta. En la mayoría de las ocasiones la adecuación no será satisfactoria.

El tema de la escalabilidad es el que muestra estas debilidades. Un lexicón crece añadiendo entradas. La forma en que estas entradas se agreguen es la que decidirá la calidad de este lexicón (dando por hecho que su diseño es adecuado). El lexicón en sí no se deteriora no importa la calidad de la entrada añadida, lo que se deteriora con entradas incongruentes es el programa de aplicación que usa el lexicón. Como señala Bergler (1995), ésta es la diferencia fundamental entre los diccionarios diseñados para el uso por humanos y los diseñados para el uso por un ordenador. Los programas de ordenador no perdonan la menor inconsistencia.

La necesidad de escalar los lexicones de los sistemas de NLP en general ya fue puesta de manifiesto en el Capítulo 2. Tras estudiar los distintos sistemas de TA, no podemos sino recalcar esta idea una vez más: los sistemas que funcionan son aquéllos que poseen fuentes de conocimiento lingüístico extensas. Además, el trabajo lexicográfico para la construcción de estos recursos debería hacer un uso muy reducido de las técnicas de adquisición automáticas (MRDs), ya que dichas fuentes de información no fueron creadas a este efecto. La utilización de córpora textuales, por otra parte, parece sin embargo necesaria: si pretendemos traducir textos reales, deberíamos extraer la información necesaria de textos reales.

No cabe duda de que este modus operandi conlleva una enorme cantidad de trabajo y tiempo. En este sentido, la siguiente cita resume bien nuestra posición:

Perseverance pays off in MT. Principled and well-funded perseverance pays off even better.

(Carbonell, Mitamura & Nyberg 1992:227)

 

 

Anterior  I  Siguiente  I  Índice capítulo 3  I  Índice General


ISSN: 1139-8736
Depósito Legal: B-35510-2000
Copyright © 2000 Antonio Moreno Ortiz