Revolucionando el Google Cloud Summit con la inteligencia generativa conversacional

inteligencia generativa conversacional aforo completo

La inteligencia artificial conversacional ya supera al ser humano en varios aspectos, como la transcripción de llamadas y conversaciones en tiempo real en distintos idiomas o la síntesis de voz. Pero hay un punto en el que aún está unos pasitos por debajo: el entendimiento y la generación del lenguaje. Y eso es lo que está empezando a cambiar con la irrupción de la inteligencia artificial generativa.

Cuando hablamos de inteligencia artificial generativa nos referimos a la Inteligencia artificial que se caracteriza por su capacidad de generar contenido nuevo. Ya no solo puede analizar los datos existentes, sino que genera contenido nuevo similar. 

Esta capacidad es posible gracias a los Large Language Models (LLM), que son algoritmos de Machine Learning entrenados con grandes corpus de texto para realizar tareas relacionadas con el lenguaje, como su reconocimiento, predicción y generación. Para Julio Hidalgo, CCIA business development lead de Google Cloud, “Estas capacidades de los LLM nos abren un mundo de oportunidades nuevo cuando hablamos de asistentes conversacionales.” Julio fue una de los expertos que nos acompañó en nuestra ponencia del Google Cloud Summit 2023 del pasado 1 de junio.

El desarrollo de los LLM está permitiendo la aparición de asistentes conversacionales generativos, como chat GPT (OpenAI) o Bard (Google). Pero este tipo de asistentes están orientados al gran público, no a las empresas. Entonces ¿cómo pueden las compañías adoptar esta tecnología para mejorar en sus procesos? ¿Como pueden las empresas del sector retail, travel, insurance… implementar la inteligencia conversacional generativa? Claudia del Grosso, directora de medios de Iris Global, nos ayudó a responder esta pregunta durante su ponencia en la charla que ofrecimos.

Retos de implantar un asistente conversacional generativo en las empresas

El interés que asistentes como Bard o Chat GPT está levantando no solo se limita a los usuarios finales: también las empresas se preguntan hasta qué punto pueden convertirse en una herramienta para ellas. Prueba de ello es que nuestra ponencia “Inteligencia conversacional y generativa: el futuro de las conversaciones” en el Summit acaparó todas las miradas y superó el aforo previsto. 

inteligencia generativa conversacional ponencia julio

Una de las preguntas más recurrentes que se hacía la audiencia era cómo salvar los siguientes obstáculos:

  • Privacidad: los datos utilizados para entrenar el asistente tienen que permanecer en el entorno privado de la empresa. No queremos que se compartan con nadie.
  • Información fiel a los datos de la empresa: queremos que sea preciso y que no invente nada. 
  • Ser transaccionales: deben integrarse con los sistemas de backend siendo multicanal. Es decir, deben permitir probar un chatbot en texto y después llevarlo al contact center para funcionar sobre voz. Además, siempre tenemos que tener la posibilidad de escalar a un agente humano, por empatía y por temas regulatorios.

Una vez más, Julio Hidalgo dio las claves para dar respuesta a estos retos con herramientas de Google Cloud, porque es una plataforma segura que tiene la infraestructura necesaria para operar con la inteligencia artificial generativa y además es sostenible. Nos ofrece 3 tipos de soluciones verticalizadas expertas en diferentes tareas:

  • CCAI: es una solución específica para contact center dentro de la que encontramos Dialogflow (con la que llevamos trabajando muchos años), una consola para desarrollar asistentes virtuales y crear flujos transaccionales e informacionales.
  • Generative AI App Builder: es la solución de Google Cloud para experiencia de cliente y tiene distintas capacidades, como crear asistentes virtuales para texto y para voz que den autoservicio y que trabajen 24/7, por ejemplo.
  • Vertex AI: es la plataforma de machine learning operations de Google Cloud en la que ponen a disposición de las empresas los grandes modelos de lenguaje que hasta ahora no habían estado abiertos, como es el caso de Palm. 

El reto de las empresas es la elección de la mejor tecnología para sus casos de uso concretos. Y para ello, Google y emergya como su partner, podemos ayudarles. Así lo demuestra la experiencia de Iris Global.

Inteligencia artificial conversacional: el caso de Iris Global

Durante su proceso de innovación y transformación digital, Iris Global –compañía del grupo Santalucía– empezó a preguntarse cómo abordar la implementación de la inteligencia artificial para mejorar la experiencia de clientes y liberar cargas de trabajo. Así que recurrieron a eºmergya para empezar a aplicar las tecnologías de Google Cloud integrándolas con su CRM Salesforce en tres casos de uso diferentes.

inteligencia generativa conversacional ponencia claudia

Gestión de la documentación de siniestros 

Claudia del Grosso, directora de medios de Iris Global, nos contó que reciben más de 360.000 mil documentos digitales al año y que gracias a la inteligencia artificial son capaces de validar el 91% de los mismos para luego clasificarlos dependiendo si se trata de un DNI, una factura de un siniestro de hogar, una cuenta bancaria, etc.

Pero también reciben otros documentos y correos que no vienen indexados, que no están identificados con el número de expediente. En estos casos son capaces de procesar un 28,6% con la ayuda de la inteligencia artificial. Así han conseguido reducir el 60% las cargas de trabajo de su contact center. 

Asistente conversacional para contact center 

En este caso se desarrollaron dos funcionalidades dentro del propio asistente: 

  • Pregunta abierta: Se pregunta al cliente qué es lo que desea para enrutarle al grupo de agentes correspondiente.
  • Apertura de siniestros totalmente asistida para el asistente virtual: Se abre un siniestro de rotura de cristales o de asistencia de persianas acompañado 100% por el asistente.

A pesar de llevar poco más de un mes en producción, ya son capaces de dirigir correctamente al grupo de resolución correspondiente en aproximadamente un 80%, con solo un 10% de errores de transferencia y un 11% de no entendimiento.

Asistente virtual para el canal de WhatsApp  

En el caso del canal de WhatsApp se implementaron tres funcionalidades: 

  • Menú: consta de 6 ó 7 opciones con las que se dirigirle al usuario a un apartado concreto de la web para que consulte la información solicitada. 
  • Apertura de siniestros 100% desasistida: son flujos transaccionales en Dialogflow en los que se entrena al agente indicándole dónde tiene que buscar la información para facilitársela al usuario. 
  • Consultas sobre siniestros: consiste en pasar de un canal desasistido a otro asistido. Se pone en contacto al cliente con un operador para que dé respuesta a sus consultas.

Cuadro médico: el primer caso de uso con inteligencia generativa de Santalucía

El primer acercamiento de Santalucía a la inteligencia generativa fue a través de la búsqueda de un caso de uso enfocado al usuario. Lo primero que hicimos fue, de entre los casos que ya tenían, descartar los transaccionales. Porque la inteligencia generativa funciona mejor resolviendo dudas y no llevando a cabo este tipo de procesos. Y entonces lo vimos claro: cuadro médico podía ser un buen caso. 

Les planteamos que disponían de unos 8.000 médicos entre centros y especialistas. Y que la información que tenían era sobre dirección, contacto, especialidad, etc. Por ello les propusimos implantar un agente conversacional generativo que diera respuestas al usuario. Pero Santalucía no quería crear algo nuevo, sino integrarlo en el agente que ya tenían. Además, les surgieron dudas del tipo: ¿Cómo controlamos que sus respuestas se ciñan a nuestro cuadro médico?, ¿Cómo podemos seguir teniendo la confianza de que los datos de nuestros usuarios siguen siendo confidenciales?, ¿Cómo evitamos que el asistente se pase de creativo?

Para ello tiramos directamente de la de la API de PaLM, lo integramos con el asistente que ya tenía Santalucía y empezamos a hacer pruebas con el prompt: cogimos las preguntas de los usuarios y las envolvimos en una serie de instrucciones con el contexto sobre el que queríamos que respondiera. Y voilá. En esta demo te mostramos cómo gracias a la atención al cliente por WhatsApp de Santalucía los usuarios ya pueden consultar su cuadro médico.

Otras Aplicaciones reales de inteligencia generativa en las empresas

Implementar la inteligencia generativa en las empresas es interesante en situaciones como las siguientes: 

  • En los casos de uso de tipo informativo.
  • Haciéndose cargo de las conversaciones que acaben en el fallback.
  • Ayudando al propio análisis del fallback con topic modelling.
  • Ayudando a la identificación y clasificación de intents.

Pero las compañías, a pesar de ser conscientes de las ventajas de la inteligencia generativa conversacional, tienen algunos desafíos:

  • Mantener una personalidad de marca.
  • Controlar la información que manejan.
  • Integración con su backoffice.
  • Controlar los flujos de la conversación.
  • Pasar del asistente a un agente humano.
  • Escalar a múltiples canales.
  • Asegurar la privacidad y el compliance.
  • Monitorizar y analizarlo todo.
  • Las consecuencias que pueden impactar en el servicio de la información que dan a sus clientes debido a la creatividad de los agentes. 

Para dar solución a estas necesidades, Google nos proporciona herramientas como las que mencionamos al principio del post: Dialogflow, Generative AI App Builder o VertexAI y PaLM API. Es probable que surjan preguntas como qué estrategia elegir o en qué aspectos aporta exactamente la inteligencia generativa. Como indicó Nacho Montoya, director de marketing de emergya, “Lo más acertado es hacer una evaluación según el caso de uso y según las necesidades que haya en cada caso para trabajar con un modelo mixto que implique varias de estas soluciones”. 


 

¿Quieres transformar tu empresa con tecnologías de futuro?

fondo-footer
base pixel px
Convert
Enter PX px
or
Enter EM em
Result