Contenidos
Google lanzó una IA abierta compatible con computadoras portátiles basada en la tecnología Gemini que se puede utilizar para crear herramientas de generación de contenido y chatbots.
Google lanzó un modelo de lenguaje abierto de gran tamaño basado en la tecnología utilizada para crear Gemini que es potente pero liviano, optimizado para usarse en entornos con recursos limitados, como una computadora portátil o una infraestructura de nube.
Gemma se puede utilizar para crear un chatbot, una herramienta de generación de contenido y prácticamente cualquier otra cosa que pueda hacer un modelo de lenguaje. Esta es la herramienta que los SEO estaban esperando.
Se lanza en dos versiones, una con dos mil millones de parámetros (2B) y otra con siete mil millones de parámetros (7B). El número de parámetros indica la complejidad y la capacidad potencial del modelo. Los modelos con más parámetros pueden lograr una mejor comprensión del lenguaje y generar respuestas más sofisticadas, pero también requieren más recursos para entrenarse y ejecutarse.
El propósito de lanzar Gemma es democratizar el acceso a Inteligencia Artificial de última generación, entrenada para ser segura y responsable desde el primer momento, con un conjunto de herramientas para optimizarla aún más en términos de seguridad.
Lanzado como modelo abierto (variante de código abierto)
Gemma está disponible para cualquier persona para su uso comercial o no comercial bajo una licencia abierta. Una licencia abierta es una variante de una licencia de código abierto, con la diferencia clave de que la licencia abierta viene con términos de uso. En este caso existen restricciones destinadas a evitar que se utilice con fines maliciosos.
Google publicó al respecto en su Blog de Código Abierto donde explican que las licencias de código abierto en general permiten total libertad a la hora de elegir cómo utilizar las tecnologías. Pero sienten que con la tecnología de IA es una opción más responsable lanzar modelos de IA bajo una variante de código abierto llamada Licencia Abierta que permite el uso gratuito pero restringe su uso de manera dañina y, por lo demás, otorga a los usuarios autonomía para innovar con la tecnología. posted about it in their Open Source Blo
El explicador de código abierto sobre Gemma explica:
The Gemma models’ terms of use make them freely available for individual developers, researchers, and commercial users for access and redistribution. Users are also free to create and publish model variants. In using Gemma models, developers agree to avoid harmful uses, reflecting our commitment to developing AI responsibly while increasing access to this technology.
Los términos de uso de los modelos Gemma los ponen a disposición de desarrolladores, investigadores y usuarios comerciales de forma gratuita para su acceso y redistribución. Los usuarios también son libres de crear y publicar variantes de modelos. Al utilizar los modelos Gemma, los desarrolladores acuerdan evitar usos nocivos, lo que refleja nuestro compromiso de desarrollar la IA de manera responsable y al mismo tiempo aumentar el acceso a esta tecnología.
¡Un saludo a Dawn Anderson (@dawnieando) por señalar esa distinción! @dawnieando
Gemma por DeepMind
El modelo está desarrollado para ser liviano y eficiente, lo que lo hace ideal para ponerlo en manos de más usuarios finales.
El anuncio oficial de Google destacó los siguientes puntos clave:
- “We’re releasing model weights in two sizes: Gemma 2B and Gemma 7B. Each size is released with pre-trained and instruction-tuned variants.
- A new Responsible Generative AI Toolkit provides guidance and essential tools for creating safer AI applications with Gemma.
- We’re providing toolchains for inference and supervised fine-tuning (SFT) across all major frameworks: JAX, PyTorch, and TensorFlow through native Keras 3.0.
- Ready-to-use Colab and Kaggle notebooks, alongside integration with popular tools such as Hugging Face, MaxText, NVIDIA NeMo and TensorRT-LLM, make it easy to get started with Gemma.
- Pre-trained and instruction-tuned Gemma models can run on your laptop, workstation, or Google Cloud with easy deployment on Vertex AI and Google Kubernetes Engine (GKE).
- Optimization across multiple AI hardware platforms ensures industry-leading performance, including NVIDIA GPUs and Google Cloud TPUs.
- Terms of use permit responsible commercial usage and distribution for all organizations, regardless of size.”
- “Lanzamos pesas modelo en dos tamaños: Gemma 2B y Gemma 7B. Cada tamaño se lanza con variantes previamente entrenadas y ajustadas por instrucciones.
- Un nuevo kit de herramientas de IA generativa responsable proporciona orientación y herramientas esenciales para crear aplicaciones de IA más seguras con Gemma.
- Proporcionamos cadenas de herramientas para inferencia y ajuste fino supervisado (SFT) en todos los marcos principales: JAX, PyTorch y TensorFlow a través de Keras 3.0 nativo.
- Los portátiles Colab y Kaggle listos para usar, junto con la integración con herramientas populares como Hugging Face, MaxText, NVIDIA NeMo y TensorRT-LLM, facilitan el inicio de Gemma.
- Los modelos Gemma previamente entrenados y ajustados por instrucciones se pueden ejecutar en su computadora portátil, estación de trabajo o Google Cloud con una fácil implementación en Vertex AI y Google Kubernetes Engine (GKE).
- La optimización en múltiples plataformas de hardware de IA garantiza un rendimiento líder en la industria, incluidas las GPU NVIDIA y las TPU de Google Cloud.
- Los términos de uso permiten el uso comercial y la distribución responsable para todas las organizaciones, independientemente de su tamaño”.
Análisis de Gemma
Según un análisis realizado por Awni Hannun, científico investigador de aprendizaje automático de Apple, Gemma está optimizada para ser altamente eficiente de una manera que la hace adecuada para su uso en entornos de bajos recursos.
Hannun observó que Gemma tiene un vocabulario de 250.000 (250.000) tokens frente a los 32.000 de modelos comparables. La importancia de esto es que Gemma puede reconocer y procesar una variedad más amplia de palabras, lo que le permite manejar tareas con lenguaje complejo. Su análisis sugiere que este extenso vocabulario mejora la versatilidad del modelo en diferentes tipos de contenido. También cree que puede ayudar con las matemáticas, el código y otras modalidades.
También se señaló que los “pesos incorporados” son enormes (750 millones). Los pesos de incorporación son una referencia a los parámetros que ayudan a asignar palabras a representaciones de sus significados y relaciones.
Una característica importante que destacó es que los pesos de incrustación, que codifican información detallada sobre los significados y las relaciones de las palabras, se utilizan no solo para procesar la parte de entrada sino también para generar la salida del modelo. Este intercambio mejora la eficiencia del modelo al permitirle aprovechar mejor su comprensión del lenguaje al producir texto.
Para los usuarios finales, esto significa respuestas (contenido) más precisas, relevantes y contextualmente apropiadas del modelo, lo que mejora su uso en la generación de contenido, así como para chatbots y traducciones.
Él tuiteó: tweeted
“The vocab is massive compared to other open source models: 250K vs 32k for Mistral 7B
Maybe helps a lot with math / code / other modalities with a heavy tail of symbols.
Also the embedding weights are big (~750M params), so they get shared with the output head.”
“El vocabulario es enorme en comparación con otros modelos de código abierto: 250K frente a 32k para Mistral 7B
Quizás ayude mucho con matemáticas/código/otras modalidades con una gran cantidad de símbolos.
Además, los pesos de incorporación son grandes (~750 millones de parámetros), por lo que se comparten con el cabezal de salida”.
En un tweet de seguimiento, también señaló una optimización en el entrenamiento que se traduce en respuestas del modelo potencialmente más precisas y refinadas, ya que permite que el modelo aprenda y se adapte de manera más efectiva durante la fase de entrenamiento.
Él tuiteó: tweeted
“The RMS norm weight has a unit offset.
Instead of “x * weight” they do “x * (1 + weight)”.
I assume this is a training optimization. Usually the weight is initialized to 1 but likely they initialize close to 0. Similar to every other parameter.”
“El peso normal RMS tiene una compensación unitaria.
En lugar de “x*peso” hacen “x*(1+peso)”.
Supongo que esto es una optimización del entrenamiento. Por lo general, el peso se inicializa en 1, pero es probable que se inicialicen cerca de 0. Similar a cualquier otro parámetro”.
Prosiguió que hay más optimizaciones en datos y entrenamiento pero que esos dos factores son los que destacaron especialmente.
Diseñado para ser seguro y responsable
Una característica clave importante es que está diseñado desde cero para ser seguro, lo que lo hace ideal para implementarlo y usarlo. Los datos de entrenamiento se filtraron para eliminar información personal y confidencial. Google también utilizó el aprendizaje reforzado a partir de la retroalimentación humana (RLHF) para entrenar el modelo para un comportamiento responsable.
Se depuró aún más con reequipamiento manual, pruebas automatizadas y se verificaron capacidades para actividades peligrosas y no deseadas.
Google también lanzó un conjunto de herramientas para ayudar a los usuarios finales a mejorar aún más la seguridad:
“We’re also releasing a new Responsible Generative AI Toolkit together with Gemma to help developers and researchers prioritize building safe and responsible AI applications. The toolkit includes:
- Safety classification: We provide a novel methodology for building robust safety classifiers with minimal examples.
- Debugging: A model debugging tool helps you investigate Gemma’s behavior and address potential issues.
- Guidance: You can access best practices for model builders based on Google’s experience in developing and deploying large language models.”
“También estamos lanzando un nuevo conjunto de herramientas de IA generativa responsable junto con Gemma para ayudar a los desarrolladores e investigadores a priorizar la creación de aplicaciones de IA seguras y responsables. El kit de herramientas incluye: Responsible Generative AI Toolkit
- Clasificación de seguridad: proporcionamos una metodología novedosa para construir clasificadores de seguridad sólidos con ejemplos mínimos.
- Depuración: una herramienta de depuración de modelos le ayuda a investigar el comportamiento de Gemma y abordar posibles problemas.
- Orientación: puede acceder a las mejores prácticas para creadores de modelos basadas en la experiencia de Google en el desarrollo e implementación de modelos de lenguaje grandes «.
Lea el anuncio oficial de Google:
Gemma: Presentamos nuevos modelos abiertos de última generación Gemma: Introducing new state-of-the-art open models
Imagen destacada de Shutterstock/Photo For Everything
Leer el articulo original en Search Engine Journal.