Gemini 2.0 ya está disponible para todas las personas
La serie Gemini 2.0 presenta nuevas versiones de modelos de alta eficiencia y rendimiento, incluyendo 2.0 Flash, Pro y Flash-Lite, mejorando la experiencia de desarrollo y la seguridad con entrada multimodal y capacidades avanzadas.
El mes pasado, se dio inicio a la era de los agentes con el lanzamiento de una versión experimental de Gemini 2.0 Flash, un modelo de trabajo de alta eficiencia diseñado para desarrolladores, con baja latencia y rendimiento mejorado. A principios de este año, se actualizó 2.0 Flash Thinking Experimental en Google AI Studio, lo que optimizó su rendimiento al combinar la velocidad de Flash con la capacidad de razonar a través de problemas más complejos.
La semana pasada, se puso a disposición de todos los usuarios una versión actualizada de 2.0 Flash en la aplicación Gemini para escritorio y dispositivos móviles, permitiendo a más personas descubrir nuevas formas de crear, interactuar y colaborar con Gemini.
Hoy, la versión actualizada de Gemini 2.0 Flash está disponible de forma general a través de la API de Gemini en Google AI Studio y Vertex AI. Ahora, los desarrolladores pueden crear aplicaciones de producción con 2.0 Flash.
Nuevas versiones de Gemini 2.0 mejoran el rendimiento y la eficiencia
Además, se ha lanzado una versión experimental de Gemini 2.0 Pro, el modelo más avanzado hasta la fecha para el rendimiento de codificación y prompts complejos. Estará disponible en Google AI Studio y Vertex AI, así como en la aplicación Gemini para usuarios de Gemini Advanced.
También se ha presentado un nuevo modelo, Gemini 2.0 Flash-Lite, el más eficiente hasta ahora. Actualmente, se encuentra en versión preliminar pública en Google AI Studio y Vertex AI.
Por otro lado, 2.0 Flash Thinking Experimental estará disponible para los usuarios de la aplicación Gemini a través del menú desplegable de modelos para escritorio y dispositivos móviles.
Todos estos modelos incluyen entrada multimodal y salida de texto desde su lanzamiento, y se espera que se incorporen más modalidades generales en los próximos meses. Más información y detalles sobre precios pueden consultarse en el blog oficial de Google para Desarrolladores. De cara al futuro, se está trabajando en nuevas actualizaciones y mejoras para la familia de modelos Gemini 2.0.
2.0 Flash: una nueva actualización disponible para todos
Presentado por primera vez en I/O 2024, la serie de modelos Flash ha sido ampliamente adoptada por los desarrolladores gracias a su potencia y robustez, ideales para tareas de alto volumen y alta frecuencia a gran escala. Este modelo es capaz de realizar razonamientos multimodales con grandes cantidades de información y cuenta con una ventana de contexto de 1 millón de tokens. La recepción por parte de la comunidad de desarrolladores ha sido muy positiva.
Ahora, 2.0 Flash está disponible para un mayor número de usuarios a través de los productos de IA, con un rendimiento mejorado en puntos de referencia clave como LiveCodeBench y MMMU. Próximamente, contará con generación de imágenes y conversión de texto a voz.
Se puede probar Gemini 2.0 Flash en la aplicación Gemini o a través de la API de Gemini en Google AI Studio y Vertex AI. Los detalles de precios están disponibles en el blog oficial de Google para Desarrolladores.
- 2.0 Pro Experimental: el mejor modelo hasta la fecha para codificación y prompts complejos
Con el lanzamiento de las primeras versiones experimentales de Gemini 2.0, como Gemini-Exp-1206, se han recibido comentarios positivos de los desarrolladores sobre sus capacidades y los mejores casos de uso, especialmente en el ámbito de la codificación.
En respuesta a estas opiniones, se ha lanzado una versión experimental de Gemini 2.0 Pro, que ofrece el mejor rendimiento de codificación y la capacidad de manejar indicaciones complejas. Se trata del modelo más avanzado hasta la fecha en cuanto a comprensión y razonamiento del conocimiento del mundo.
Además, incorpora la ventana de contexto más grande hasta el momento, con 2 millones de tokens. Con esto, permite analizar y procesar grandes volúmenes de información de manera integral. También es capaz de utilizar herramientas como Google Search y ejecución de código.
Gemini 2.0 Pro ya está disponible como modelo experimental para desarrolladores en Google AI Studio y Vertex AI. Así como para los usuarios de Gemini Advanced en el menú desplegable de modelos para escritorio y dispositivos móviles.
2.0 Flash-Lite: el modelo más rentable hasta ahora
Los comentarios positivos sobre el precio y la velocidad de 1.5 Flash han impulsado la búsqueda de mejoras en la calidad, sin comprometer el costo ni la velocidad. Por ello, se ha presentado 2.0 Flash-Lite, un nuevo modelo que ofrece una mejor calidad que 1.5 Flash, manteniendo la misma velocidad y costo. Además, supera a su predecesor en la mayoría de los puntos de referencia.
Al igual que 2.0 Flash, cuenta con una ventana de contexto de 1 millón de tokens y entrada multimodal. Por ejemplo, puede generar un pie de foto relevante de una línea para aproximadamente 40.000 imágenes únicas. Con un costo inferior a un dólar en la opción paga de Google AI Studio. Gemini 2.0 Flash-Lite está disponible en Google AI Studio y Vertex AI en vista previa pública.
Responsabilidad y seguridad en la familia de modelos Gemini
A medida que la familia de modelos Gemini evoluciona, se continúa invirtiendo en medidas que garanticen un uso seguro y protegido. Por ejemplo, la línea Gemini 2.0 ha sido desarrollada con nuevas técnicas de aprendizaje por refuerzo, donde el propio Gemini critica sus respuestas. Esto ha permitido obtener retroalimentación más precisa y específica, mejorando la capacidad del modelo para manejar prompts sensibles.
Leer más
- OpenAI lanza “Deep Research”: la IA que investiga por ti
- High-Flyer y DeepSeek: el ambicioso plan chino para dominar la IA y las finanzas
- Alibaba lanza Qwen, su nuevo modelo de inteligencia artificial que supera a DeepSeek y Llama