NETWORK MANAGEMENT - ARTIFICIAL INTELLIGENCE
Instituto de computación
Universidad de la República
Soy asistente grado 2 del Instituto de Computaciónn de la Facultad de Ingeniería. Allí me desempeño como docente de la carrera Ingeniería en Computación desde el año 2019. He participado del dictado de las asignaturas: Sistemas Operativos, Programación 1, Taller de introducción a la computación y Taller de Robótica Educativa con el robot Butiá.
Desde joven desarrollé una pasión por la robótica, que me llevó a participar de la competencias Sumo.uy (Uruguay 2013 a 2016) y RoboCup Junior (China 2015 y Alemania 2016). Hoy en día formo parte del grupo de investigación MINA (Network Management / Artificial Intelligence) del Instituto de Computación y participo en variados proyectos de investigación, desarrollo y extensión vinculados a la robótica.
Soy parte de la organización de la competencia nacional de robótica Sumo.uy desde el año 2017.
En este proyecto se construyó un dispositivo controlado por comandos de voz que es capaz de
automáticamente generar mapas de su entorno, ubicarse en el mismo y planificar trayectorias seguras hacia
el lugar que el usuario indique.
Utilizando los lentes de realidad aumentada Moverio BT-300 se dibujan líneas en el suelo perpendiculares
a la trayectoria calculada, de modo que el usuario solo deba pisarlas para desplazarse. Con estos estímulos
se busca mitigar uno de los síntomas más debilitantes de la enfermedad de Parkinson: el congelamiento de la marcha.
En el marco de el curso taller de sistemas ciberfísicos desarrollé el sistema de navegación autónoma del bote HIDRODATA. Este es capaz de realizar una trayectoria entre dos puntos indicados por sus coordenadas en latitud y longitud. Esquivando las condiciones de cartografía del lago/laguna/río donde se encuentra y evitando obstáculos que se le puedan presentar dinámicamente en el trayecto.
Las técnicas actuales para el desarrollo de la inteligencia artificial suelen reque- rir etapas de entrenamiento muy exigentes, con cientos de miles de ejemplos para aprender a resolver las tareas. Debido a esto, ha sido un desafío utilizarlas en robóti- ca autónoma, donde cada intento de resolver la tarea requiere tiempo y normalmente supervisión humana. En los últimos tiempos ha surgido el interés de desarrollar ro- bots con sentido común, capaces de comprender a un mayor nivel de abstracción el mundo a su alrededor y así acelerar su aprendizaje y mejorar su desempeño. La física intuitiva es una parte del sentido común, que refiere a la capacidad de predecir el comportamiento de los objetos en el mundo. Una de las teorías existentes postula que las personas contamos con algo similar a un motor de videojuegos embebido en nuestra mente, que utilizamos para dar sentido a nuestra percepción y predecir posibles eventos a nuestro alrededor. En este trabajo de maestría se lleva esta teoría a la práctica, implementando módulos capaces de convertir la percepción a entida- des y luego, de insertarlas en un simulador de físicas y desplegándolos en un robot real. Las ventajas de utilizar esta implementación son demostradas sobre un brazo robótico, en tareas simples de manipulación de cubos. En particular, se presentan experimentos sobre mejora de la percepción, auto-calibración, estimación de posi- ciones en situaciones de oclusión y una prueba integradora que incorpora algunos mecanismos de sorpresa a una tarea específica de apilado de objetos. En todos los casos la utilización del simulador mejora de manera no trivial el desempeño del robot.
Aquí se presenta un caso donde el experimentador mueve dos torres de cubos y el sistema, gracias a la información semántica que posee, logra mantener el simulador sincronizado.
En este caso un error de detección corrompe el estado del simulador y el sistema, gracias a la información semántica que posee, logra volver a un estado correcto.
En esta prueba el experimentador desarma una torre ya formada y el sistema reacciona a este evento, volviendo a un estado sincronizado con la realidad.
En esta prueba se comienza con dos torres ya formadas y se pasa un cubo de una a otra, formando una torre de tres cubos. El sistema logra sincronizarse, pero pierde información semántica
This section presents the grasping result for our article "Object Grasping Improvement through Synthetic Perception-Based Pose Correction in Robotic Manipulation".
this configuration shares the detection, segmentation, and motor control modules, but performs no correction on the object’s pose. The full trajectory is done in an open-loop manner and performed in 4 seconds
in this configuration, as soon as the mesh is placed in PyBullet, the robot starts moving towards it, but the trajectory is set to take 15 seconds. During this time, the object’s position inside the simulation is corrected at 30 Hz, and at four evenly spaced time intervals (0s, 3.75s, 7.5s, 11.25s) the goal position for the gripper is updated to match the object’s new position and sent to the HOW module
this last one only corrects the object’s position when the arm is not moving. Once the object appears in the simulation, it waits for 1 second in the home position, triggering the pose correction from that point of view. Then it performs a ballistic reach motion toward the object, stopping at 80% of the trajectory for another second, triggering a new pose correction. Finally, it moves towards the object’s new position and closes the gripper.