Soy una investigadora en Google DeepMind y trabajo en manipulación robótica. Obtuve mi doctorado en el MIT trabajando con el Profesor Alberto Rodríguez.
Desarrollo algoritmos y soluciones que permiten a los robots resolver nuevas tareas con gran precisión y destreza.
Mi investigación fue financiada por las becas de
LaCaixa y Facebook.
Mi investigación se centra en el desarrollo de algoritmos para la generalización robótica precisa: hacer que los robots sean capaces de resolver muchas tareas sin comprometer su rendimiento y fiabilidad. Al aprender modelos de percepción y control, podemos proporcionar a los robots las herramientas adecuadas para prosperar en situaciones y tareas variadas. En mi trabajo, he estudiado cómo el aprendizaje de modelos de IA permite un control preciso y cómo el desarrollo de una percepción de tacto y vision precisa permite resolver tareas complejas, como coger, localizar y colocar con precisión nuevos objetos sin experiencia previa. Mi objetivo es continuar desarrollando algoritmos que hagan que los robots sean diestros y versátiles al manipular su entorno.
Proyecto final del doctorado: recogida y colocación precisa de objetos sin experiencia previa! ¿Porque es esto importante? Actualmente, la industria no puede resolver este problema para una gran variedad de objetos. Nuestro sistema abre la puerta a soluciones robóticas en una amplia variedad de aplicaciones donde la flexibilidad es clave.
ExoStart: RL para controlar manos robóticas.
Visión+tacto para la colocación precisa de objetos usando SimPLE.
ExoStart: Efficient learning for dexterous manipulation with sensorized exoskeleton demonstrations
Z. Si, J. Chen, E. Karagozler, A. Bronars, J. Hutchinson, T. Lampe, N. Gileadi, T. Howell, S. Saliceti, L. Barczyk, I. Correa, T. Erez, M. Shridhar, M. Martins, K. Bousmalis, N. Heess, F. Nori, M. Bauza enviado a ICRA 2026 PDF /
sitio web
Presentamos ExoStart, un marco de aprendizaje general y escalable que aprovecha el poder de la destreza humana para el control de manos robóticas. En particular, obtenemos datos de alta calidad recopilando demostraciones directas utilizando un exoesqueleto de bajo coste.
Gemini 2.5: Pushing the frontier with advanced reasoning, multimodality, long context, and next generation agentic capabilities
Gemini Team
Informe Técnico PDF /
sitio web
Gemini 2.5 Pro es el modelo de Google DeepMind más capaz hasta la fecha, alcanzando un rendimiento de vanguardia en benchmarks de codificación y razonamiento de frontera. Gemini 2.5 Pro es también un modelo pensante que sobresale en la comprensión multimodal y es capaz de procesar hasta 3 horas de video.
Gemini robotics: Bringing ai into the physical world
Gemini Robotics Team
Informe Técnico PDF /
sitio web
Gemini Robotics es un modelo generalista avanzado de Visión-Lenguaje-Acción (VLA) capaz de controlar robots directamente. Gemini Robotics ejecuta movimientos suaves y reactivos para abordar una amplia gama de complejas tareas, siguiendo instrucciones de vocabulario diverso y abierto.
Exploiting Policy Idling for Dexterous Manipulation
A. Chen, P. Brakel, A. Bronars, A. Xie, S. Huang, O. Groth, M. Bauza, et al.
IROS , 2025
PDF
Investigamos cómo aprovechar la detectabilidad del comportamiento de inactividad para guiar la exploración y la mejora de la política. Nuestro enfoque, Perturbaciones Inducidas por Pausa (PIP), aplica perturbaciones en los estados de inactividad detectados, ayudando así a escapar del problema de inactivdad.
DemoStart: Demonstration-led autocurriculum applied to sim-to-real with multi-fingered robots M. Bauza, J. Chen, V. Dalibard, N. Gileadi, et al.
ICRA 2025 PDF /
sitio web
DemoStart es un método de aprendizaje por refuerzo con autocurrículo capaz de aprender comportamientos de manipulación complejos en un brazo equipado con una mano robótica de tres dedos, usando una recompensa dispersa y un puñado de demostraciones.
simPLE: a visuotactile method learned in simulation to precisely pick, localize, regrasp, and place objects M. Bauza, T. Bronars, Y. Hou, I. Taylor, N. Chavan-Dafle, A. Rodriguez
Science Robotics, 2024
PDF /
sitio web
Aprendemos en simulación cómo recoger y colocar objetos con precisión mediante percepción visuotáctil. Nuestra solución se transfiere al mundo real y maneja con éxito diferentes tipos de formas de objetos sin requerir experiencia previa.
Learning to learn faster from human feedback with language model predictive control
Jacky Liang, Fei Xia, Wenhao Yu, Andy Zeng, Montserrat Gonzalez Arenas, Maria Attarian, Maria Bauza, et al.
RSS, 2024
PDF /
sitio web
Language Model Predictive Control (LMPC) es un marco que ajusta PaLM 2 para mejorar su capacidad de enseñanza en 78 tareas a través de 5 tipos de robots. LMPC acelera la adaptación rápida del robot mediante el aprendizaje en contexto.
RoboCat: A Self-Improving Foundation Agent for Robotic Manipulation
K. Bousmalis, G. Vezzani, D. Rao, C. Devin, A. Lee, M. Bauza, et al.
TMLR, 2023
PDF /
sitio web
Presentamos RoboCat, un agente de IA para robótica que se automejora, aprende a realizar una variedad de tareas en diferentes brazos y luego genera nuevos datos de entrenamiento para mejorar su técnica.
Aprendemos en simulación cómo localizar objetos con precisión con el tacto. Nuestra solución transfiere al mundo real, brindando distribuciones de posición y orientación fiables desde el primer contacto.
Nuestra tecnologia se usa en Magna, ABB y MERL. Nuestro sensor tactil es Gelslim.
Creamos un modelo individual para cada punto, optimizando objetivos no supervisados. Asi evitamos brechas de generalización y podemos imponer una amplia variedad de estructuras.
Proponemos un modelo dinámico híbrido, redes de interacción aumentadas por simulador, que combina un simulador de física con una red neuronal basada en objetos.
Aumentamos un simulador analítico de cuerpo rígido con una red neuronal que aprende a modelar la incertidumbre como residuos. Premio al mejor artículo sobre robótica cognitiva en IROS 2018.
Más de un millón de datos recopilados en experimentos de empuje reales.
Noticias mas antiguas
Julio 2022 Charla invitada en el workshop de RSS 2022 sobre la ciencia de golpearse con cosas (The Science of Bumping Into Things).
Mayo 2022 Co-organizacion en ICRA 2022 del workshop de Manipulacion bimanual: como resolver los retos en el mundo real (Bi-manual Manipulation: Addressing Real-world Challenges).
Diciembre 2021 Charla invitada en Washington University robotics colloquium.
Noviembre 2021 Charla invitada en Stanford y CMU Manipulation discussion grup.
Octubre 2021 Charla invitada en Cornell Robotic Seminar y seleccionada para asistir a las estrellas en ascenso de EECS (Rising Stars in EECS).
Julio 2021 Asisti al workshop de pioneros de RSS (2021 RSS Pioneers Workshop).
Mayo 2021 Finalista para el premio de mejor articulo de robots de servicio en ICRA 2021
Marzo 2021 Charla invitada en el seminario de AI de la universidad de Toronto.
Octubre 2020 Charla invitada en el seminario GRASP de University of Pennsylvania.
Mayo 2020 Co-organizacion del workshop de ICRA 2020 sobre Incertidumbre en las interacciones con abundante contacto (Uncertainty in Contact-Rich Interactions).
Noviembre 2019 Seleccionada para atender la cumbre mundial de jovenes cientificos (Global Young Scientists Summit). Otorgada solo a 5 estudiantes de doctorado entre todos los departamentos de MIT.
Octubre 2019 Seleccionada como estrella en ascenso en ingenieria mecanica (Rising Stars in Mechanical Engineering). Otorgada a 30 estudiantes mujeres de doctorado y postdoctorado a nivel internacional.
Enero 2019 Recibi la beca de Facebook para el doctorado (Facebook Emerging Scholar Award). Entregada a 21 de las 900 aplicaciones.
Diciembre 2018 Recibi la beca de NVIDIA para el doctorado (NVIDIA Graduate Fellowship). Entregada a 10 de las mas de 30 aplicaciones.