Respuesta IA
Utiliza un modelo de IA basado en LLM para generar una respuesta a la pregunta formulada.
Disponible en el plan STARTER y superior.
El bloque de acción Answer AI se utiliza para generar una respuesta a la pregunta del usuario a partir de los datos entrenados.
Al utilizar el bloque de IA de respuesta, el usuario envía una pregunta abierta, que luego es procesada por AI Studio para generar una respuesta relevante.
Proceso en el que trabaja la IA de respuestas,
El usuario hace una pregunta
La IA genera la respuesta a partir de una base de conocimientos
Paso 1: Definir la pregunta
Este mensaje le pedirá al usuario que haga su pregunta.
Por ejemplo, tu mensaje podría ser:
👋 ¡Eh! Soy asistente de IA, ¿en qué puedo ayudarte?
Paso 2: Elegir una base de conocimientos
Elija la base de conocimientos a partir de la cual la IA generará una respuesta.
Paso 3: Configura tu IA para obtener respuestas precisas
Los modelos de LLM requieren orientación para poder generar una respuesta relevante y precisa. Hay algunas herramientas que puedes utilizar para guiar a tu IA; Son los siguientes:
Instrucciones/Aviso
Un prompt no es más que una instrucción que ayuda al LLM a saber qué recordar y seguir mientras genera una respuesta.
Cuanto más clara, concisa y breve sea su instrucción, más precisas serán sus respuestas de la IA.
Cosas para escribir en tu mensaje:
Objetivo - ¿Cuál es su objetivo?
Formato de salida: normalmente sería HTML/markdown.
Estilo de escritura: cómo deben escribirse las respuestas.
Lo que no se debe hacer: instrucciones claras sobre lo que se debe evitar.
Ejemplos: ejemplos de preguntas y respuestas.
Modelo LLM
Seleccione el modelo de LLM que se usará para analizar los datos de entrenamiento y generar una respuesta.
Actualmente, TopBots solo admite los siguientes modelos:
GPT-4O
GPT-4-Turbo
GPT-4
GPT-3.5-Turbo
Restringir el tamaño de la respuesta
La longitud máxima de la respuesta se define en tokens.
Los tokens se pueden considerar como fragmentos de palabras, y 1 token = 4 caracteres. Aprende más
Creatividad en las respuestas
Puede controlar si desea recibir respuestas únicas cada vez que se hace una pregunta u obtener la misma respuesta cada vez que se hace la pregunta.
Defina un número entre 0 y 1. Más cerca de 1 le da respuestas distintas; Más cerca de 0 le da respuestas fijas. De forma predeterminada, mantenemos el número en 0,5.
Trozos
Cuando se le hace una pregunta a la IA, primero obtiene contenido relevante de la base de conocimientos, que luego se envía al modelo LLM para generar una respuesta.
Cuanto más contenido relevante pueda obtener la IA, más posibilidades habrá de obtener respuestas precisas.
El número indica el número de respuestas relevantes que se obtendrán de la base de conocimientos.
Longitud del contexto
Envía los conjuntos recientes de pares de preguntas y respuestas para proporcionar al LLM más contexto del chat en curso actual.
El beneficio de esto es que puedes hacer una pregunta de seguimiento como 'su precio', y el LLM sabría que tu pregunta anterior era sobre TopBots, por lo que quisiste decir "precio de TopBots".
Pida comentarios
Por cada respuesta generada por IA, permitimos que el usuario envíe comentarios sobre la respuesta generada.
Esto te ayuda a saber qué tan útiles son las respuestas de la IA.
Fuente de la respuesta
Muestra la dirección URL del origen de contenido desde el que se hizo referencia a la respuesta. Esto solo funciona para las bases de conocimiento creadas con la URL de un sitio web.

Última actualización
¿Te fue útil?