¿Cómo afina Genesys los grandes modelos lingüísticos (LLM)?
Las alucinaciones se mitigan afinando los modelos con conjuntos de datos conversacionales seleccionados para casos de uso como la atención al cliente y sectores verticales como la sanidad, los servicios financieros y el comercio minorista. Este proceso puede reducir significativamente las alucinaciones al reponderar los modelos según el caso de uso.
Las mejores prácticas de prompting se establecen para instruir al gran modelo lingüístico (LLM) de modo que evite fabricar respuestas y diga "no lo sé" si la pregunta no es relevante o no se puede responder. Este comportamiento da al LLM un alto grado de confianza en la respuesta, restringiendo la respuesta con ejemplos de salidas correctas y estableciendo la temperatura determinista lo más baja posible.
La generación aumentada por recuperación (RAG) limita las respuestas para que se deriven de un conjunto de datos conocidos de la empresa.