Como Vice President de IA en Talkdesk, Pedro Andrade, es especialista en soluciones basadas en esta tecnología que optimizan las operaciones del contact center y mejoran la experiencia del cliente. Aprovechamos sus conocimientos para conocer cómo Talkdesk está incorporando la IA generativa a sus soluciones tecnológicas y abordamos con él la importancia de hacer un uso ético de esta tecnología disruptiva.
Relación Cliente: Los grandes modelos de lenguaje (LLM) pueden heredar sesgos en los datos de entrenamiento que lleguen a producir datos injustos. ¿Nos podría dar algún ejemplo de dicha realidad y explicar, ¿cómo ayuda Talkdesk a reducir o alertar a las empresas de este problema a la hora de programar su entrenamiento?
Pedro Andrade: Es cierto que los grandes modelos de lenguaje (LLM) pueden heredar sesgos de los datos con los que fueron entrenados. Un ejemplo común es cuando un modelo de lenguaje refleja sesgos de género o raza presentes en los datos de entrenamiento. Por ejemplo, si el conjunto de datos incluye más textos asociados a ciertos roles de género o raza, el modelo puede reforzar estos estereotipos en sus respuestas, lo que puede resultar en decisiones o recomendaciones injustas.
En Talkdesk, somos conscientes de este desafío y hemos implementado varias estrategias para mitigar estos riesgos en nuestras soluciones de IA. En primer lugar, utilizamos técnicas avanzadas de filtrado y preprocesamiento de datos para identificar y reducir los sesgos antes de que los modelos sean entrenados. Además, nuestros algoritmos son continuamente monitoreados para identificar posibles tendencias sesgadas durante el uso en entornos reales. Por último, proporcionamos herramientas y alertas a las empresas para que puedan revisar y ajustar el comportamiento de los modelos según sea necesario, garantizando que los resultados sean justos y equitativos. De esta manera, ayudamos a las empresas a tomar decisiones más informadas y éticas al implementar soluciones de IA en sus centros de contacto.
Relación Cliente: ¿Qué son las alucinaciones de la IA? ¿Es realmente un problema que puede ser importante con la generalización de la IA?, ¿Qué tipo de problemas puede presentar?
Pedro Andrade: Las alucinaciones de la IA son situaciones en las que un modelo de IA genera respuestas que parecen convincentes pero que son incorrectas o no tienen base en la realidad. Estos errores pueden ser completamente fabricados por el modelo, lo que lleva a información falsa o confusa.
Con la generalización de la IA, este fenómeno puede ser un problema significativo, ya que los usuarios confían en la IA para tomar decisiones importantes. Por ejemplo, en un centro de contacto, una IA que «alucina» podría proporcionar información errónea a un cliente o sugerir soluciones inadecuadas. En áreas críticas como la salud, finanzas o legalidad, estas alucinaciones podrían tener consecuencias serias.
En Talkdesk, hemos implementado dos técnicas clave para reducir las alucinaciones. En primer lugar, nuestras soluciones solo proporcionan respuestas basadas en los datos cargados por el cliente en nuestro sistema de Gestión del Conocimiento de Talkdesk, lo que garantiza que las respuestas provengan de una fuente de conocimiento fiable. En segundo lugar, contamos con el Talkdesk Trust Layer, una capa de protección que verifica la fiabilidad de las respuestas generadas por la IA. Este sistema de control valida si las respuestas alcanzan el nivel de confianza requerido antes de entregarse al cliente.
Con estas medidas, aseguramos que nuestras soluciones de IA no solo sean precisas, sino también fiables, reduciendo el impacto de las alucinaciones y mejorando la experiencia del cliente.
Relación Cliente: Otro problema que plantea la implantación generalizada de soluciones basadas en IA es el poder contar con medidas de seguridad para evitar el acceso no autorizado a los sistemas internos de IA, ¿cómo se trabaja desde Talkdesk para minimizar estos riesgos?
Pedro Andrade: El Talkdesk Trust Layer es fundamental para proteger nuestras soluciones de IA contra diversas amenazas de seguridad, incluidas técnicas avanzadas como la inyección de prompt (prompt injection). Este tipo de ataque consiste en que un usuario malintencionado intenta manipular el comportamiento de un modelo de lenguaje proporcionando instrucciones engañosas o maliciosas dentro de las solicitudes. Esto puede llevar al modelo a ignorar las restricciones o reglas de seguridad predefinidas, logrando que el sistema realice acciones no autorizadas o proporcione respuestas inadecuadas.
En Talkdesk, el Trust Layer actúa como un sistema de protección proactivo que monitoriza todas las solicitudes antes de que lleguen al modelo de lenguaje. Este sistema verifica si las solicitudes contienen intentos de manipulación o instrucciones que buscan “resetear” el modelo, es decir, intentos de eludir las instrucciones de seguridad establecidas. En estos casos, las barreras de seguridad (guardrails) detectan y bloquean el intento antes de que el modelo de IA lo procese, impidiendo que se ejecute cualquier ataque de inyección de prompt.
De esta forma, Talkdesk no solo protege el funcionamiento correcto del modelo de IA, sino que también asegura que los datos y sistemas de la empresa permanezcan protegidos contra este tipo de vulnerabilidades, garantizando un alto nivel de seguridad en nuestras soluciones de IA.
Relación Cliente: Es relativamente fácil imaginar sectores en un futuro funcionen básicamente con soluciones de IA, pero, ¿qué supondría para la gestión de la relación con los clientes que esto fuera así?
Pedro Andrade: Estoy seguro que en un futuro cercano, sectores completos operan principalmente con soluciones de IA. Esta va a transformar la manera en la que las empresas interactúen con sus clientes, ofreciendo ventajas significativas pero también nuevos desafíos. Aquí te detallo algunos aspectos clave:
1. Personalización extrema: La IA tiene la capacidad de analizar grandes volúmenes de datos en tiempo real y ofrecer experiencias personalizadas a los clientes. Esto significa que cada interacción puede ser adaptada específicamente a las necesidades y preferencias del cliente.
2. Automatización de interacciones: Muchas interacciones rutinarias son actualmente gestionadas por asistentes virtuales, lo que agiliza los tiempos de respuesta y optimiza los recursos humanos. Con las nuevas tecnologías, estas soluciones son cada vez más naturales y cuentan con una mayor capacidad de entendimiento del lenguaje humano. Esto permite que las conversaciones entre clientes y sistemas de IA sean más fluidas y cercanas a las interacciones humanas.
3. Disponibilidad 24/7: Las soluciones de IA permiten que las empresas ofrezcan soporte continuo, sin limitaciones de horario. Esto mejoraría la experiencia del cliente, ya que recibirían atención inmediata en cualquier momento, lo que es crucial en sectores como finanzas, telecomunicaciones o comercio electrónico.
4. Reducción de errores: Esto lleva a una mayor precisión en la resolución de problemas y en la entrega de información.
5. Toma de decisiones predictiva: Con la implementación de IA avanzada, la relación con los clientes podría ser más proactiva que reactiva. La IA, basada en patrones de comportamiento y análisis de datos históricos, podría predecir problemas o necesidades del cliente antes de que ocurran, facilitando la intervención oportuna.
Sin embargo, este cambio hacia la IA también trae desafíos importantes:
1. Humanización: Aunque las IA son eficientes, en situaciones delicadas o complejas, la falta de interacción humana podría generar frustración o una sensación de desconexión en los clientes. Este es parte de un proceso de transformación que va tomar algún tiempo antes que los consumidores se acostumbren a esta nueva realidad.
2. Desconfianza en la tecnología: Algunos clientes podrían ser escépticos o sentir desconfianza hacia sistemas completamente automatizados, prefiriendo hablar con personas en lugar de interactuar con máquinas. Como todo en la vida, la esencia humana es resistir a la mudanza. También hay aquí un trabajo a hacer en el cambio de mentalidades de los consumidores.
3. Dependencia de la calidad de los datos: El principal problema está aquí: Para que las soluciones de IA funcionen correctamente, necesitan datos precisos y de calidad. Si los datos no están bien gestionados, las soluciones basadas en IA podrían ofrecer respuestas inexactas o incluso dañinas para la relación con los clientes. Aquí está el principal problema de adopción de la IA, ya que se necesita garantizar un nivel de madurez de los datos, para que la IA pueda entregar una respuesta al nivel de la expectativa.
Relación Cliente: ¿Cómo puede ayudar el Reglamento de la Unión Europea sobre IA a que las empresas, al menos las que trabajen en este mercado, hagan un uso responsable de la IA?
Pedro Andrade: El Reglamento de la Unión Europea sobre IA, o EU AI Act, ayuda a las empresas a utilizar la IA de forma responsable al clasificar las aplicaciones según su nivel de riesgo, con mayores regulaciones para las de alto riesgo. Además, exige transparencia, obligando a las empresas a explicar cómo funcionan sus modelos y qué datos usan. También promueve la equidad, al requerir que los sistemas eviten sesgos y discriminación, y fomenta la supervisión humana en aplicaciones críticas. Finalmente, impone estrictos requisitos de cumplimiento, lo que incentiva a las empresas a garantizar la seguridad y responsabilidad en el uso de la IA.
Creo que esta regulación es fundamental para aumentar la confianza del consumidor y, en última instancia, impulsar la adopción de la IA.
Relación Cliente: ¿Cuáles serían las principales recomendaciones que desde Talkdesk se daría a las empresas para que su trabajo con soluciones basadas en IA para gestionar la relación con sus clientes, fueran éticas?
Pedro Andrade: Desde Talkdesk, recomendamos a las empresas las siguientes prácticas para implementar soluciones de IA éticas en la gestión de la relación con los clientes:
1. Priorizar la transparencia: Informar a los clientes sobre el uso de IA y cómo se toman las decisiones y principalmente, informando que los clientes están en contacto con un forma de IA.
2. Proteger los datos: Cumplir con regulaciones de protección de datos, como el GDPR, y manejar la información de manera segura.
3. Incluir supervisión humana: Mantener la intervención humana monitorizando las respuestas de IA, providenciando feedback para que la IA pueda incorporar, y mejorar situaciones futuras.
Al seguir estas prácticas, las empresas pueden utilizar la IA de manera responsable, mejorando la confianza y la relación con los clientes.
Relación Cliente: ¿Podría enumerar algunas prácticas concretas para el funcionamiento ético y responsable de los contact centers que usen soluciones IA?
Pedro Andrade: Para garantizar un funcionamiento ético y responsable de los contact centers que utilizan soluciones de IA, la transparencia es vital como camino hacia la confianza. Es crucial que los clientes sean informados de manera clara y directa al inicio de la interacción, indicando que están hablando con una forma de IA. Este aviso inicial establece una base de confianza, permitiendo que los clientes comprendan con quién están interactuando y cómo se manejarán sus consultas. La transparencia no solo fomenta la confianza, sino que también mejora la experiencia general del cliente.