Google anuncia Gemini 1.5 con una ventana contextual enorme | IT Masters Mag

NOTICIA

Google anuncia Gemini 1.5 con una ventana contextual enorme



Dirección copiada

Lo pondrá a disposición de desarrolladores y usuarios empresariales antes de su lanzamiento completo para el consumidor próximamente.

Publicado el 15 feb 2024



Vancouver,,Canada,-,Feb,14,2024,:,Google,Gemini,Website
Vancouver, CANADA – Feb 14 2024 : Google Gemini website seen in an iPhone screen. Gemini is a family of AI models, largest and most capable next-generation AI model by Google DeepMind.


Apenas dos meses después del lanzamiento de Gemini, el gran modelo de lenguaje que Google espera lo lleve a la cima de la industria de la inteligencia artificial (AI, por sus siglas en inglés), la compañía anunció a su sucesor.

Google presentó el jueves Gemini 1.5 y lo pondrá a disposición de desarrolladores y usuarios empresariales antes de su lanzamiento completo para el consumidor próximamente.

La empresa ha dejado en claro que apuesta por Gemini como herramienta comercial, asistente personal y todo lo demás, y está impulsando con fuerza ese plan.

Hay muchas mejoras en Gemini 1.5: Gemini 1.5 Pro, el modelo de uso general en el sistema de Google, aparentemente está a la par con el Gemini Ultra de gama alta que lanzó recientemente, y superó a Gemini 1.0 Pro en un 87% de pruebas de referencia. Se creó utilizando una técnica cada vez más común conocida como “Mezcla de expertos” o MoE, lo que significa que solo ejecuta parte del modelo general cuando envía una consulta, en lugar de procesarlo todo todo el tiempo. (Aquí hay una buena explicación sobre el tema). Ese enfoque debería hacer que el modelo sea más rápido de usar y más eficiente para que Google lo ejecute.

Pero hay una cosa nueva en Gemini 1.5 que tiene a toda la empresa, empezando por el CEO Sundar Pichai, especialmente emocionado: Gemini 1.5 tiene una ventana de contexto enorme, lo que significa que puede manejar consultas mucho más grandes y ver mucha más información a la vez.

Esa ventana es la friolera de 1 millón de tokens, en comparación con los 128,000 del GPT-4 de OpenAI y los 32.000 del Gemini Pro actual. Los tokens son una métrica difícil de entender, por lo que Pichai lo simplifica: “Son aproximadamente 10 u 11 horas de video, decenas de miles de líneas de código”. La ventana contextual significa que puedes preguntarle al robot de AI sobre todo ese contenido a la vez.

Artículos relacionados

Artículo 1 de 4