Contenidos
Explore las capacidades del último modelo de Mistral AI, Mixtral-8x7B, incluidas métricas de rendimiento, cuatro demostraciones y lo que dice sobre SEO.
En un avance significativo para la comunidad de desarrolladores de IA, Mistral AI ha lanzado Mixtral 8x7B, un modelo de combinación dispersa de expertos (SMoE) de vanguardia con pesos abiertos.
Este nuevo modelo establece un punto de referencia en tecnología de inteligencia artificial y promete un rendimiento más rápido y eficiente en comparación con los modelos existentes.
magnet:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%https://t.co/uV4WVdtpwZ%3A6969%2Fannounce&tr=http%3A%2F%https://t.co/g0m9cEUz0T%3A80%2Fannounce
RELEASE a6bbd9affe0c2725c1b7410d66833e24
— Mistral AI (@MistralAI) December 8, 2023
imán:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%https://t.co/uV4WVdtpwZ%3A6969%2Fannounce&tr=http%3A%2F%https://t.co https://t.co/uV4WVdtpwZ
LANZAMIENTO a6bbd9affe0c2725c1b7410d66833e24
– Mistral AI (@MistralAI) 8 de diciembre de 2023 December 8, 2023
¿Qué es Mixtral-8x7B?
Mixtral 8x7B, disponible en Hugging Face, destaca por su rendimiento de alta calidad y tiene licencia Apache 2.0. Hugging Face
El modelo cuenta con una variedad de capacidades, incluida la capacidad de manejar un contexto de 32.000 tokens y soporte para múltiples idiomas, incluidos inglés, francés, italiano, alemán y español.
Mixtral es una red dispersa de expertos solo en decodificadores Su arquitectura permite aumentar los parámetros mientras gestiona el costo y la latencia.
Métricas de rendimiento del Mixtral-8x7B
El nuevo modelo está diseñado para comprender mejor y crear texto, una característica clave para cualquiera que busque utilizar IA para tareas de escritura o comunicación.
Supera a Llama 2 70B y coincide con GPT3.5 en la mayoría de los puntos de referencia, lo que demuestra su eficiencia en el escalamiento del rendimiento.
La compañía señala que supera al Llama 2 70B en la mayoría de los puntos de referencia, ofreciendo una inferencia seis veces más rápida.
Mixtral muestra mejoras en la reducción de alucinaciones y prejuicios, evidentes en su desempeño en los puntos de referencia TruthfulQA/BBQ/BOLD.
Demuestra respuestas más veraces y menos prejuicios en comparación con Llama 2, junto con sentimientos más positivos.
El dominio de Mixtral 8x7B en varios idiomas se confirma a través de su éxito en las evaluaciones comparativas multilingües.
Junto con Mixtral 8x7B, Mistral AI lanza Mixtral 8x7B Instruct, optimizado para seguir instrucciones Obtiene una puntuación de 8,30 en MT-Bench, lo que lo convierte en un modelo de código abierto de alto rendimiento.
Mixtral se puede integrar en sistemas existentes a través del proyecto vLLM de código abierto, respaldado por Skypilot para implementación en la nube Mistral AI también ofrece acceso temprano al modelo a través de su plataforma.
Esta última incorporación a la familia Mistral promete revolucionar el panorama de la IA con sus métricas de rendimiento mejoradas, según lo compartido por OpenCompass. shared
Lo que hace que Mixtral-8x7B se destaque no es solo su mejora con respecto a la versión anterior de Mistral AI, sino la forma en que se compara con modelos como Llama2-70B y Qwen-72B.
Cómo probar Mixtral-8x7B: 4 demostraciones
Puede experimentar con el nuevo modelo de Mistral AI, Mixtral-8x7B, para ver cómo responde a las consultas y cómo se desempeña en comparación con otros modelos de código abierto y el GPT-4 de OpenAI.
Tenga en cuenta que, como todo el contenido de IA generativa, las plataformas que ejecutan este nuevo modelo pueden producir información inexacta o resultados no deseados.
Los comentarios de los usuarios sobre nuevos modelos como este ayudarán a empresas como Mistral AI a mejorar versiones y modelos futuros.
1 Zona de juegos de los laboratorios de perplejidad
En Perplexity Labs, puede probar Mixtral-8x7B junto con Llama 2 de Meta AI, Mistral-7b y los nuevos LLM en línea de Perplexity. Labs
En este ejemplo, pregunto sobre el modelo en sí y observo que se agregan nuevas instrucciones después de la respuesta inicial para ampliar el contenido generado sobre mi consulta.
Si bien la respuesta parece correcta, comienza a repetirse.
El modelo proporcionó una respuesta de más de 600 palabras a la pregunta «¿Qué es SEO?»
Nuevamente, aparecen instrucciones adicionales como «encabezados» para aparentemente garantizar una respuesta completa.
2 poe
Poe aloja bots para LLM populares, incluidos GPT-4 y DALL·E 3 de OpenAI, Llama 2 y Code Llama de Meta AI, PaLM 2 de Google, Claude-instant y Claude 2 de Anthropic y StableDiffusionXL.
Estos bots cubren un amplio espectro de capacidades, incluida la generación de texto, imágenes y código.
El bot Mixtral-8x7B-Chat es operado por Fireworks AI. bot
Vale la pena señalar que la página de Fireworks especifica que es una «implementación no oficial» que fue ajustada para el chat. page
Cuando se le preguntó cuáles son los mejores vínculos de retroceso para SEO, proporcionó una respuesta válida.
Compare esto con la respuesta ofrecida por Google Bard. response
3 Vercel
Vercel ofrece una demostración de Mixtral-8x7B que permite a los usuarios comparar respuestas de modelos populares Anthropic, Cohere, Meta AI y OpenAI. demo
Ofrece una perspectiva interesante sobre cómo cada modelo interpreta y responde a las preguntas de los usuarios.
Como muchos LLM, ocasionalmente tiene alucinaciones.
4 Reproducir exactamente
La demostración mixtral-8x7b-32 en Replicate se basa en este código fuente También se señala en el archivo README que «la inferencia es bastante ineficiente». demo
Plataforma de IA Mistral
Además del Mixtral-8x7B, Mistral AI anunció el acceso beta a los servicios de su plataforma, presentando tres puntos finales de chat generadores de texto y un punto final integrado. beta access
Estos modelos están previamente entrenados con datos web abiertos y ajustados para recibir instrucciones, y admiten múltiples idiomas y codificación.
- Mistral-tiny utiliza Mistral 7B Instruct v0.2, funciona exclusivamente en inglés y es la opción más rentable.
- Mistral-small emplea Mixtral 8x7B para soporte multilingüe y capacidades de codificación.
- Mistral-medium presenta un modelo prototipo de alto rendimiento que admite los mismos lenguajes y capacidades de codificación que Mistral-small.
El terminal integrado de Mistral presenta un modelo de integración de 1024 dimensiones diseñado para capacidades de recuperación. endpoint
La API, compatible con interfaces de chat populares, ofrece bibliotecas cliente de Python y Javascript e incluye funciones de control de moderación.
El registro para el acceso a la API está abierto y la plataforma avanza gradualmente hacia la disponibilidad total. Registration
Mistral AI agradece el apoyo de NVIDIA en la integración de TensorRT-LLM y Triton para sus servicios.
Conclusión
La última versión de Mistral AI establece un nuevo punto de referencia en el campo de la IA, ofreciendo rendimiento y versatilidad mejorados. Pero como muchos LLM, puede proporcionar respuestas imprecisas e inesperadas. release
A medida que la IA continúa evolucionando, modelos como el Mixtral-8x7B podrían convertirse en parte integral de la configuración de herramientas avanzadas de IA para marketing y negocios.
Imagen de portada: T Schneider/Shutterstock
Leer el articulo original en Search Engine Journal.