¿Cómo aprende una máquina el lenguaje natural?

Los modelos de lenguaje natural que se utilizan para, por ejemplo, los agentes virtuales, son modelos estocásticos para los cuales resulta de vital importancia contar con una gran cantidad de información y grabaciones a partir de las cuales construir la base de reconocimiento.

call center magazine Una vez construida esta base inicial, el sistema debe ser capaz de entender un porcentaje aceptable de preguntas de los usuarios. El mantenimiento posterior, orientado a mejorar estas capacidades, consiste en grabar y analizar las interacciones de los usuarios con el sistema, enriqueciendo dicha base con los nuevos elementos que puedan surgir. 

“Los mayores costes, en tiempo y dinero, se localizan en la fase inicial de generación de la base de reconocimiento del aplicativo, pues se necesitan muchos recursos, humanos, materiales y de tiempo, para generarla. Una vez en marcha, el sistema es de fácil mantenimiento y su amortización es rápida.

 

La propuesta de Artificial Solutions para agilizar esta fase y acelerar los plazos de amortización es reutilizar toda la información de interacción procedente de nuestros agentes virtuales de chat para la construcción de la mencionada base. Con esto se pueden alcanzar ratios de éxito cercanos al 70% en la primera fase, en un tiempo entre el 30% y 40% inferior al estándar, lo cual resulta de vital importancia a la hora de construir el business case de la aplicación”, señala Fernando Gallego, director de Ventas para España y Portugal de Artificial Solutions..   Este tipo de máquinas aprende primero de ejemplos de diálogos entre humanos. Una vez puesta en servició la máquina puede aprender de sus errores si un revisor humano se los indica. La base de este mecanismo es el análisis estadístico de los ejemplos que se le dan a la máquina. Cuando la máquina comete un error y un supervisor humano se lo corrige, se introducce un nuevo ejemplo que amplia su conocimiento estadístico de la tarea y ya no volverá a cometer exactamente el mismo error. Los costes están en la grabación, formato y transcripción de los diálogos entre humanos y la supervisión humana del sistema. 

“A parte de los mayores costes en cuanto a diseñar bien los gestores de diálogo hay otras razones técnicas que lo hacen más complejo e interesante a la vez. La necesidad de adaptar el motor de reconocimiento de lenguaje natural a un ámbito de actuación acotado. Cada implantación requiere pues del desarrollo del modelo estadístico (Statistical Language Model – SLM) que aglutina la información de cómo se expresan los usuarios cuando interactúan con el sistema para una tarea determinada y qué vocabulario usan. La creación del SLM se realiza a partir de trascripciones de locuciones obtenidas idealmente en el mismo entorno de trabajo que se automatizará.

 

La recopilación de esta gran base de datos de texto (el tamaño depende de la complejidad de la tarea) es un aspecto que incrementa los costes de implantación (tanto de tiempo como económicos)  de lenguaje natural en un Call Center”, señala Francecs Massana, director de Desarrollo de Negocio de Verbio.  Este experto también señala que como ocurre en un sistema guiado, al margen del entreno, el diseño y la implantación, existe un factor clave de éxito y es el ajuste o tuning de la aplicación. En el caso de lenguaje natural este ajuste suele ser algo más costoso en tiempo. También hay que tener en cuenta futuras fases de reentreno de los modelos para irlos adaptando a la evolución que sufra la propia tarea. Este proceso de tuning  forma parte del proceso que toda aplicación de call center, especialmente aquellas dirigidas a usuarios externos y no colaborativos, debería realizar varias veces durante los primeros meses de vida del servicio automatizado como mínimo. Actualmente ya existen motores de reconocimiento que están preparados para retroalimentarse de manera automática a partir de las entradas de los usuarios. Este tipo de motores conviven en el mercado con los que permiten un aprendizaje semi-automático y aquellas soluciones en la que los ajuste hay que hacerlos manualmente. En cualquiera de los tres casos, el requisito previo es contar con un corpus. La calidad y tamaño del corpus puede determinar en gran medida el resultado final del proceso. 

“Técnicamente hablando, ninguna tecnología ha llegado a conseguir un modelo real de aprendizaje por parte de una máquina. Estamos avanzando a un gran ritmo en la mejora de los modelos de programación, pero no se ha conseguido el salto al aprendizaje. En el área del lenguaje natural, por tanto, hemos de hablar de la capacidad que tienen los sistemas para llevar a cabo una programación rápida y eficiente, o incluso para lograr la mayor reusabilidad en el proceso de desarrollo de aplicaciones, reduciendo costes y acelerando los procesos de desarrollo.

 

Mi principal aportación en Natural Language ha sido el diseño e implementación de un nuevo lenguaje de programación especializado en lenguaje natural. Mediante este lenguaje, el desarrollador de aplicaciones puede crear aplicaciones para lenguaje natural evitando toda la complejidad intrínseca de los algoritmos informáticos sobre los que descansa la comprensión del lenguaje y la gestión del diálogo”, señala José F. Quesada, director Técnico y de I+D de Lenguaje Natural, empresa de Infinity, a Vocalcom company. Añade, así mismo, que el desarrollo de una aplicación en lenguaje natural debe partir del análisis del dominio en el que debe actuar el sistema, y para ello es adecuado disponer de un corpus de referencia en dicho dominio. A continuación se construyen los modelos léxicos, gramaticales y semánticos necesarios para la comprensión de la expresiones propias de ese dominio, así como las estrategias de diálogo correspondientes. Finalmente, mediante una metodología de evaluaciones cíclicas se va depurando y ajustando el funcionamiento del sistema.

Gracias por suscribirse a nuestra NewsLetter

Comprueba tu bandeja de entrada* para confirmar la suscripción a la Newsletter de Relación Cliente.

*No olvides revisar tu carpeta de correo no deseado o SPAM