Probamos el Nano Banana 2: ¿Google ha ganado la carrera de las IA generadoras de imágenes?
El Comercio pudo acceder a este ‘early access’ gracias a Google y probó de primera mano las novedades que trae la versión más reciente de este modelo de creación de imágenes. La velocidad y mayor precisión se vuelven piezas clave
Desde su anuncio el año pasado, el modelo de imágenes de Gemini -con el llamativo nombre Nano Banana- se convirtió en una sensación viral. ¿Qué lo hacía similar a los ya existentes? La posibilidad de reconocer prompts en lenguaje natural para convertir texto en imágenes. ¿Y qué lo hizo diferente… y viral? No solo la calidad de sus resultados, sino la consistencia. Eso quiere decir, que el modelo era capaz de mantener un mismo estilo, personaje u objeto a lo largo de diferentes iteracionees.
Desde su anuncio el año pasado, el modelo de imágenes de Gemini -con el llamativo nombre Nano Banana- se convirtió en una sensación viral. ¿Qué lo hacía similar a los ya existentes? La posibilidad de reconocer prompts en lenguaje natural para convertir texto en imágenes. ¿Y qué lo hizo diferente… y viral? No solo la calidad de sus resultados, sino la consistencia. Eso quiere decir, que el modelo era capaz de mantener un mismo estilo, personaje u objeto a lo largo de diferentes iteracionees.
Hacia el final del 2025 apareció Nano Banana Pro, con el que Google ahora ofrecía era un razonamiento mejorado y conocimiento contextual para ofrecer resultados visuales más precisos y coherentes.
A las pruebas
Pues bien, desde hace unos días el equipo de Google me proporcionó un ‘early access’ o acceso adelantado para poder probar, de primera mano, las novedades que traerá Nano Banana 2. En este caso, la promesa del desarrollador es ofrecer un mejor conocimiento de palabras existente, especificaciones de producción listas y mayor consistencia de objetos o personajes, todo mucho más rápido.
Lo primero que provoca hacer es utilizar los templates o plantillas. Visualmente el usuario reconoce qué tipo de imagen quiere crear. Los estilos son muy variados e intentan atender la demanda de la mayoría de usuarios. Claro, siempre va a estar la opción de que uno mismo pueda escribir su prompt (con lenguaje más o menos coloquial) e ir afinando los resultados.
En el caso de las plantillas, los resultados son bastante buenos. Me sorprende más en donde los rostros son afectados por alguna colorización o iluminación específica, incluso con una pose específica, y los resultados son bastante realistas.
Probé, luego, con solicitar la creación de una infografía con los cinco mejores lugares que un turista debe visitar cuando esté en Lima, con ciertas características y este fue el resultado:
Esta es una infografía creada con Nano Banana 2, el nuevo mnodelo para creación de im,ágenes.
Luego, intenté con algo más aleatorio. Este fue mi prompt: “Crea la imagen de una pareja de novios que se están mirando, de forma muy romántica, desde el mirados al Huana Picchu, en Machu Picchu, Cusco, en Perú. Se trata de un día lluvioso, por lo que los protagonistas deben llevar un poncho o paraguas. Entre las personas que aparecen en segundo plano debe estar el personaje de televisión peruano Zumba”. ¿Qué les parece el resultado?
Finalmente, traté de mantener al mismo personaje en diferentes situaciones -a través de las iteraciones con el modelo de lenguaje- y estos fueron los resultados.
Tras este breve lapso en donde pude probar de manera adelantada el nuevo Nano Banana 2, puedo decir que se está dando un paso grande para lograr una mayor interacción y, sobre todo, comprensión entre las indicaciones del usuario y los modelos de imágenes. Solo nos queda estar atentos para saber bien cómo diferenciar cuando estemos frente a una imagen generada por inteligencia artificial.