¡Explosión! Google I/O Conference El Rey Regresa: Gemini "Modelo Mundial" Emerge, Search "Cambia el Cerebro", Crea Películas Originales con una Oración

¡Justo ahora! Google celebró la conferencia I/O 2025, y la mayor sensación es que Google ha regresado a la posición de liderazgo en IA. Google está construyendo un verdadero sistema operativo de IA centrado en Gemini, con la aparición inicial de un "modelo mundial".

La conferencia Google I/O de este año actualizó y lanzó una enorme cantidad de tecnología de una sola vez.

Primero, es necesario aclarar que el tan esperado modelo Gemini 2.5 Ultra no llegó según lo programado. Lo que obtuvimos es una suscripción de $250 "Ultra Tier", no el modelo Ultra en sí mismo que estábamos esperando ansiosamente. Sin embargo, con el lanzamiento de Gemini 2.5 Pro "Deep Think", el modelo Pro ha experimentado una revolución significativa, y su capacidad real es comparable al nivel Ultra.

Entonces, ¿qué hay exactamente de nuevo? (La lista es realmente larga):

Modelos y Herramientas de Agente

Gemini 2.5 Pro "Deep Think": Posee capacidades de pensamiento paralelo, diseñado específicamente para tareas matemáticas y de codificación complejas, y ofrece un "presupuesto de pensamiento" configurable para mejorar el control, llevando a Gemini 2.5 Pro al extremo, con un rendimiento como sigue:

Gemini 2.5 Flash versión 20 de mayo: Más rápido, más económico, y añade una función de "resumen de pensamiento" para aumentar la transparencia. Su rendimiento está infinitamente cerca de Gemini 2.5 Pro.

Gemini Diffusion: La primera aplicación de Google de la tecnología de difusión a la generación de texto, lanzando el modelo experimental Gemini Diffusion, que es 5 veces más rápido que los modelos superiores anteriores.

Jules: Comparable al Codex de OpenAI, un agente de codificación asíncrono que puede manejar la corrección de errores y el desarrollo de prototipos de funciones en segundo plano. Requiere registro y espera para usar.

Explosión de Capacidades Multimodales

Google Meet: Añade función de traducción en tiempo real.

Veo 3: Capacidad de generación de video significativamente mejorada, generando videos con efectos realistas 4K, y soportando audio nativo, diálogo y síntesis de ruido.

Imagen 4: Comparable y superador de la capacidad de generación de imágenes de OpenAI gpt-4o, pero es 3 veces más rápido. Un modelo de imagen 2K, más rápido y preciso en diseño tipográfico y generación de texto a imagen.

Flow: Una herramienta de cine completamente nueva, cocreada con directores de Hollywood, "Flow" combina las capacidades de Veo 3 y Gemini, y puede construir escenas de película completas basadas en indicaciones de texto.

Flow permite a los creadores "dirigir" la IA de manera más intuitiva: carga tus propios materiales de personajes y escenas, o genera instantáneamente con Imagen; describe la toma deseada a través de instrucciones de cámara precisas, y Flow generará automáticamente clips y mantendrá la consistencia de personajes y escenas. Puedes iterar infinitamente, ajustar tomas, extender o recortar clips, al igual que en el software de edición tradicional. El objetivo de Flow es llevar la realización cinematográfica a un nuevo estado de "flujo", permitiendo que la creatividad crezca naturalmente, cambiando la creación de películas de "paso a paso" a "explosión de inspiración".

Google Search Completamente Remodelado: Un Nuevo "Modo IA" (AI Mode)

Consultas más complejas: Los usuarios ahora pueden hacer preguntas complejas de dos a tres veces más largas que la búsqueda tradicional, como "Tengo un sofá gris claro y quiero encontrar una manta que ilumine la habitación. Tengo 4 niños activos en casa, y amigos suelen visitar." El Modo IA generará dinámicamente respuestas con texto e imágenes, incluyendo enlaces, información de negocios y calificaciones.

Búsqueda Profunda (Deep Search): Para preguntas que requieren respuestas más detalladas, el Modo IA puede realizar "Búsqueda Profunda". Puede enviar docenas o incluso cientos de consultas simultáneamente, integrando datos de toda la web, Knowledge Graph, Shopping Graph y la comunidad de Maps, y generar un informe de nivel experto con citas completas en minutos, ahorrándote mucho tiempo de investigación.

Análisis y visualización complejos: El Modo IA puede ayudarte a analizar datos complejos y generar gráficos visualizados. Por ejemplo, si quieres saber el promedio de bateo y el porcentaje de bases de jugadores de béisbol famosos que usan "bates torpedo" esta temporada y la pasada, puede generar una tabla de inmediato y generar gráficos basados en preguntas posteriores, ¡como tener un analista deportivo dedicado!

Search Live: La capacidad en tiempo real de Project Astra también se integra en Search. ¡A través de la cámara de tu teléfono, puedes tener una "videollamada" con Search, permitiéndole ver lo que tú ves y brindarte ayuda en tiempo real! Ya sea reparación de casas DIY, tareas difíciles o aprender nuevas habilidades, puede convertirse en tu "experto remoto".

Pago con Agente (Agentic Checkout): ¡El Modo IA también puede ayudarte a completar tareas de compra! Navegará por múltiples sitios web, analizará cientos de opciones, te ayudará a filtrar, comparar precios e incluso te vinculará directamente a la página de pago, ayudándote a conseguir entradas rápidamente. En el futuro, también soportará reservas de restaurantes y citas de servicios locales.

Google se une al desarrollo de gafas de IA: La IA no solo cambiará el mundo digital, sino que también afectará profundamente el mundo físico.

Auriculares inmersivos: Project Moohan, en colaboración con Samsung, es el primer dispositivo Android XR. Proporciona una experiencia de "pantalla infinita". En la versión XR de Google Maps, solo tienes que decirle a Gemini a dónde quieres ir y podrás "teletransportarte" a cualquier rincón del mundo; también puedes ver partidos en la aplicación MLB como si estuvieras sentado en la primera fila del estadio, mientras discutes los datos de los jugadores con Gemini. Estará disponible a finales de este año.

Gafas ligeras: Google demostró el último prototipo de gafas Android XR, ligero y portátil, que se puede usar todo el día y que integra cámaras, micrófonos y altavoces. La pantalla opcional dentro de la lente también puede mostrar información de forma privada cuando sea necesario. Esto significa que tu asistente de IA verdaderamente "verá" y "oirá" lo que tú ves y oyes, proporcionando ayuda en tiempo real y consciente del contexto, ¡como usar "gafas de superpoderes"! En una demostración en vivo, pudo identificar el nombre de la cafetería en una taza de café, ayudarte a navegar, hacer una reserva de café e incluso realizar traducción en tiempo real entre idiomas. Google anunció que Warby Parker y Gentle Monster estarán entre las primeras marcas de gafas en colaborar con Android XR. En el futuro, podrás usar gafas de IA elegantes que se adapten a tu estilo, y los desarrolladores también comenzarán a desarrollar para la plataforma de gafas a finales de este año.

Otros

Gemma 3n: Un modelo multimodal ultraligero (soporta texto, imagen, audio, video), diseñado específicamente para smartphones y dispositivos de borde.

Lyria RealTime: Modelo de lenguaje grande de música interactiva, soporta actuaciones en vivo y se puede ajustar a través de API.

MedGemma & SignGemma: Dos modelos profesionales abiertos, utilizados respectivamente para el análisis de imágenes médicas y la traducción de lenguaje de señas.

Agentic Colab: Un entorno de cuaderno capaz de autoreparar código y automatizar tareas.

Gemini Code Assist 2.5: Asistente de programación y agente de revisión de código gratuito, ahora soporta un contexto de 2 millones de tokens.

Firebase Studio: Espacio de trabajo de IA que convierte diseños de Figma en aplicaciones de pila completa y configura automáticamente el backend.

Stitch: Puede generar diseños de UI y código frontend basado en descripciones o imágenes.

Actualización de Google AI Studio: Integra directamente Gemini 2.5 Pro, Imagen 4 y Veo 3 en el editor, y proporciona el SDK de GenAI.

Nuevas características de la API de Gemini: Incluyen salida de audio nativa, API en tiempo real, llamadas de función asíncronas, API de uso de computadora, contexto de URL y soporte MCP.

Project Beam: Sucesor del proyecto Starline, desarrollado en colaboración con HP para desarrollar hardware de videollamada 3D.

Actualización de Project Astra: Un asistente multimodal activo que puede ver, oír y hablar.

Lo anterior es un resumen conciso del contenido lanzado en esta conferencia de Google.

En Conclusión

Primero, esto muestra claramente cómo Google está poniendo todo su esfuerzo en desarrollar su ecosistema de IA. Si antes Apple era conocida por su ecosistema de dispositivos excelentemente coordinado, ahora Google está llevando este concepto a un nuevo nivel a través de la IA. Específicamente: Gemini ahora puede trabajar de forma proactiva dentro del sistema.

Además, gracias a su módulo de lenguaje nativo coordinado en todos los productos, Gemini está más profundamente integrado en casi todos los productos de Google. Ya sea Google Watch, gafas XR o teléfonos Pixel, Gemini se adapta perfectamente y proporciona funciones extendidas correspondientes basadas en las características del dispositivo (por ejemplo, la función de superposición de mapas en dispositivos XR, ¡el efecto es increíble!).

Por lo tanto, si Apple logró anteriormente la interconexión de todos los dispositivos a través de iCloud, ahora Google va un paso más allá.

Durante la conferencia de prensa, el CEO de Google DeepMind y ganador del Premio Nobel, Demis Hassabis, mencionó que están trabajando duro para expandir Gemini a un "modelo mundial". Lo definió como "un modelo capaz de planificar e imaginar nuevas experiencias simulando varios aspectos del mundo, como un cerebro". Google definitivamente está trabajando en esto internamente; este es el movimiento definitivo para lograr la AGI.

Google, el rey ha vuelto.

Etiqueta Principal:Inteligencia Artificial

Etiquetas Secundarias:Google I/OGafas XRGoogle SearchGemini


Anterior:¡Interpretación del Primer Autor! Hablando de la Nueva Ley de Escalado de Qwen—Parallel Scaling—Desde una Perspectiva de la Idea

Siguiente:Google AI Nuclear: ¡Actualizando todos los modelos, Gemini 2.5 encabeza dos listas! Todos los productos rehechos con IA, ¿cómo responderá OpenAI?

Compartir URL Corta