LinuxParty
El miércoles, Google DeepMind anunció dos nuevos modelos de IA diseñados para controlar robots: Gemini Robotics y Gemini Robotics-ER. La compañía afirma que estos modelos ayudarán a robots de diversas formas y tamaños a comprender e interactuar con el mundo físico de forma más eficaz y precisa que los sistemas anteriores, allanando el camino para aplicaciones como los asistentes robóticos humanoides. [...] Los nuevos modelos de Google se basan en la base del modelo de lenguaje grande Gemini 2.0, añadiendo capacidades específicas para aplicaciones robóticas. Gemini Robotics incluye lo que Google denomina capacidades de "visión-lenguaje-acción" (VLA), lo que le permite procesar información visual, comprender comandos lingüísticos y generar movimientos físicos. Por el contrario, Gemini Robotics-ER se centra en el "razonamiento incorporado" con una comprensión espacial mejorada, lo que permite a los expertos en robótica conectarlo a sus sistemas de control de robots existentes. Por ejemplo, con Gemini Robotics, se puede pedir a un robot que "coja el plátano y lo ponga en la cesta", y este utilizará la vista de la cámara de la escena para reconocer el plátano, guiando un brazo robótico para que realice la acción correctamente. O podrías decir: "dobla un zorro de origami", y usará sus conocimientos de origami y cómo doblar papel con cuidado para realizar la tarea.
En 2023, hablamos del RT-2 de Google, que representó un avance notable hacia capacidades robóticas más generalizadas al usar datos de internet para ayudar a los robots a comprender comandos de lenguaje y adaptarse a nuevos escenarios, duplicando así su rendimiento en tareas inéditas en comparación con su predecesor. Dos años después, Gemini Robotics parece haber dado otro gran salto, no solo en la comprensión de qué hacer, sino también en la ejecución de manipulaciones físicas complejas que el RT-2 claramente no podía realizar. Mientras que el RT-2 se limitaba a reutilizar movimientos físicos que ya había practicado, Gemini Robotics, según se informa, demuestra una destreza significativamente mejorada que permite tareas antes imposibles como doblar origami y empaquetar bocadillos en bolsas Ziploc . Este cambio de robots que sólo entienden comandos a robots que pueden realizar tareas físicas delicadas sugiere que DeepMind puede haber comenzado a resolver uno de los mayores desafíos de la robótica: lograr que los robots conviertan su "conocimiento" en movimientos cuidadosos y precisos en el mundo real.DeepMind afirma que Gemini Robotics "duplica con creces su rendimiento en un completo benchmark de generalización en comparación con otros modelos de visión, lenguaje y acción de vanguardia".

-
Robótica
- Domotizar la casa y controlarla remotamente con Linux
- Robots agricultores, jornaleros del futuro.
- El Soldado del Futuro.
- Crean un robot destinado a la reparación de redes de internet tras un desastre
- Automóviles sin conductor estarán en el mercado en 10 años
- Nace el robot 'Robin' para orientar a los jóvenes sobre sexo y drogas
- Robots que aprenden a mentir, ¿Robots contra Robots?
- Nuevo robot puede ayudarle a encontrar su camino
- Robot aviones para realizar un seguimiento del tiempo y el clima
- Avances en amenazas: robots militares asesinos
- Patrullas robots vigilan las calles de Atlanta
- Una inteligencia autónoma de cuatro años en SL