Acceder

Google I/O 2024 - Tecnología

0 respuestas
Google I/O 2024 - Tecnología
Google I/O 2024 - Tecnología
#1

Google I/O 2024 - Tecnología

Al final de I/O, la conferencia anual de desarrolladores de Google celebrada en el anfiteatro Shoreline de Mountain View, Sundar Pichai, CEO de Google, reveló que la empresa había dicho «IA» 121 veces. Ese fue, esencialmente, el meollo de las dos horas de conferencia de Google: introducir la IA en todas las aplicaciones y servicios de Google que utilizan más de dos mil millones de personas en todo el mundo. Estas son las principales novedades que Google anunció en el evento.


Gemini 1.5 Flash y actualizaciones de Gemini 1.5 Pro

Google ha anunciado un nuevo modelo de IA llamado Gemini 1.5 Flash, optimizado en términos de velocidad y eficiencia. Flash se sitúa entre Gemini 1.5 Pro y Gemini 1.5 Nano, que es el modelo más pequeño de la compañía que se ejecuta localmente en el dispositivo. Google afirma que creó Flash porque los desarrolladores querían un modelo más ligero y menos costoso que Gemini Pro para crear aplicaciones y servicios basados en inteligencia artificial, manteniendo al mismo tiempo algunas de las características que diferencian a Gemini Pro de los modelos de la competencia, como una larga ventana contextual de un millón de tokens. A finales de este año, Google duplicará la ventana de contexto de Gemini a dos millones de tokens, lo que significa que podrá procesar dos horas de vídeo, 22 horas de audio, más de 60.000 líneas de código o más de 1,4 millones de palabras al mismo tiempo.

Proyecto Astra

Google mostró el Proyecto Astra, una versión temprana de un asistente universal impulsado por IA que el CEO de Google DeepMind, Demis Hassabis, dijo que era la versión de Google de un agente de IA «que puede ser útil en la vida cotidiana».

En un vídeo que, según Google, se grabó en una sola toma, un usuario de Astra se desplaza por las oficinas de Google en Londres sosteniendo su teléfono y apuntando con la cámara a varias cosas, un altavoz, algo de código en una pizarra y por una ventana, y mantiene una conversación natural con la aplicación sobre lo que le parece. En uno de los momentos más impresionantes del vídeo, la aplicación le dice correctamente al usuario dónde se ha dejado las gafas sin que éste las haya sacado nunca.

El vídeo termina con un giro: cuando el usuario encuentra y se pone las gafas perdidas, nos enteramos de que tienen un sistema de cámara a bordo y son capaces de utilizar el Proyecto Astra para mantener una conversación fluida con el usuario, lo que quizá indique que Google podría estar trabajando en un competidor de las gafas inteligentes Ray Ban de Meta.

Pregunta a Google Fotos

Google Fotos ya era inteligente cuando se trataba de buscar imágenes o vídeos específicos, pero con la IA, Google está llevando las cosas al siguiente nivel. Si estás suscrito a Google One en EE.UU., podrás hacer a Google Fotos una pregunta compleja como «muéstrame la mejor foto de cada parque nacional que he visitado» cuando la función se despliegue en los próximos meses. Google Fotos utilizará la información del GPS y su propio criterio sobre lo que es «mejor» para presentarte opciones. También puedes pedir a Google Fotos que genere leyendas para publicar las fotos en las redes sociales.

Veo e Imagen 3

Los nuevos motores de creación multimedia de Google basados en IA se llaman Veo e Imagen 3. Veo es la respuesta de Google a Sora, de OpenAI. Puede producir vídeos de 1080p de «alta calidad» que pueden durar «más de un minuto», dice Google, y puede entender conceptos cinematográficos como un timelapse.

Imagen 3, por su parte, es un generador de texto a imagen que, según Google, maneja mejor el texto que su versión anterior, Imagen 2. El resultado es el modelo de texto a imagen de «mayor calidad» de la compañía, con un «increíble nivel de detalle» para obtener «imágenes fotorrealistas y realistas» y menos artefactos, lo que lo enfrenta esencialmente a DALLE-3 de OpenAI.

Grandes actualizaciones de Google Search

Google está introduciendo grandes cambios en el funcionamiento fundamental de la Búsqueda. La mayoría de las actualizaciones anunciadas hoy, como la posibilidad de hacer preguntas realmente complejas («Encuentra los mejores estudios de yoga o pilates de Boston y muestra detalles sobre sus ofertas de introducción y el tiempo que se tarda en llegar andando desde Beacon Hill») y el uso de la Búsqueda para planificar comidas y vacaciones, no estarán disponibles a menos que te registres en Search Labs, la plataforma de la empresa que permite probar funciones experimentales.

Pero una gran novedad que Google denomina «Perspectivas generales de la IA» y que la empresa lleva probando desde hace un año, por fin está disponible para millones de personas en Estados Unidos. La Búsqueda de Google presentará ahora respuestas generadas por IA en la parte superior de los resultados por defecto, y la empresa dice que llevará la función a más de mil millones de usuarios de todo el mundo a finales de año.

Gemini en Android

Google está integrando Gemini directamente en Android. Cuando Android 15 se lance a finales de este año, Gemini será consciente de la aplicación, imagen o vídeo que estás ejecutando, y podrás mostrarlo como una superposición y hacerle preguntas específicas de contexto. ¿Dónde deja eso al Asistente de Google, que ya hace esto? Quién sabe. Google no lo ha mencionado en la keynote de hoy.

También hubo otras actualizaciones. Google dijo que añadiría marcas de agua digitales a los vídeos y textos generados por IA, haría que Gemini fuera accesible en el panel lateral de Gmail y Docs, potenciaría un compañero de equipo virtual de IA en Workspace, escucharía las llamadas telefónicas y detectaría si te están estafando en tiempo real, y mucho más.

Fuente: https://spaintechblog.com/noticias/todo-lo-anunciado-en-google-i-o-2024-gemini-ai-project-astra-android-15-y-mas/