¿Estás visitando desde Perú?
Ingresá a Linware Perú ⯈
Continuar en Linware Perú ⯈
×
¿Qué estás buscando?
BUSCAR!
BLOG
ChatGPT y Elasticsearch: creación de facetas, filtrado y más contexto
Publicada el 12/06/2023

En una publicación de blog reciente, se discutio cómo ChatGPT y Elasticsearch ® pueden trabajar juntos para ayudar a administrar los datos propietarios de manera más efectiva. Al utilizar las capacidades de búsqueda de Elasticsearch y la comprensión contextual de ChatGPT, demostramos cómo se pueden mejorar los resultados obtenidos.

En esta publicación, analizamos cómo se puede mejorar aún más la experiencia de los usuarios con la adición de facetas, filtrado y contexto adicional. Al proporcionar herramientas como ChatGPT contexto adicional, puede aumentar la probabilidad de obtener resultados más precisos. Vea cómo el marco de facetas y filtrado de Elasticsearch puede permitir a los usuarios refinar su búsqueda y reducir el costo de interactuar con ChatGPT.

 

Comparación de los resultados de ChatGPT y Elasticsearch

Para mejorar la experiencia del usuario de la aplicación de muestra, se agrego una función que muestra los resultados sin procesar junto con la respuesta creada por ChatGPT. Esto ayudará a los usuarios a comprender mejor cómo funciona ChatGPT.

Dado que nuestro conjunto de datos de origen solo se rastrea, la estructura de los documentos dificulta la lectura para un ser humano. Para mostrar esta diferencia y, por lo tanto, el valor que puede aportar ChatGPT, agregamos el resultado sin procesar junto a la respuesta creada por GPT.

Actualmente, esta aplicación de ejemplo solo devuelve un único resultado. Y aunque se tiene puntuación híbrida con búsqueda vectorial y BM25, este resultado puede no ser perfecto. Si tomamos este resultado no perfecto y lo pasamos a ChatGPT, es muy probable que la respuesta que obtengamos tampoco sea excelente, ya que al contexto le faltaba información importante. 

Lo ideal sería pasar más contexto a ChatGPT, pero los modelos 3.5 turbo actuales están limitados a 4096 tokens (eso incluye la respuesta que espera obtener, por lo que el límite real es mucho más bajo). Es probable que los modelos futuros tengan un límite mucho mayor, pero esto también tiene un costo.

A partir de hoy, GPT-3.5-turbo cuesta $0.002 / 1K tokens , mientras que el prometedor GPT-4 con contexto de 32K cuesta $0.06 / 1K tokens, eso es un factor de 30 más. Incluso con modelos más potentes que llegarán en los próximos años, existe la posibilidad de que no sea económicamente viable hacerlo para todos los casos de usuarios.

Por lo tanto, no usaremos GPT-4 en este momento y, en su lugar, evitaremos la limitación máxima de tokens de GPT-3.5 enviando múltiples solicitudes simultáneas y brindando al usuario más flexibilidad para filtrar los resultados.

Más informacion, nota completa desde el Blog de Elastic

Ir al Blog