ES2812568T3 - Robot móvil autónomo para ejecutar asignaciones de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios - Google Patents
Robot móvil autónomo para ejecutar asignaciones de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios Download PDFInfo
- Publication number
- ES2812568T3 ES2812568T3 ES13741038T ES13741038T ES2812568T3 ES 2812568 T3 ES2812568 T3 ES 2812568T3 ES 13741038 T ES13741038 T ES 13741038T ES 13741038 T ES13741038 T ES 13741038T ES 2812568 T3 ES2812568 T3 ES 2812568T3
- Authority
- ES
- Spain
- Prior art keywords
- mobile robot
- robot
- work
- location
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 31
- 238000004891 communication Methods 0.000 claims description 22
- 238000005070 sampling Methods 0.000 claims description 2
- 238000007726 management method Methods 0.000 description 18
- 239000002775 capsule Substances 0.000 description 13
- 238000013439 planning Methods 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 9
- 230000032258 transport Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000006101 laboratory sample Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/406—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
- G05B19/4061—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39082—Collision, real time collision avoidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/50—Miscellaneous
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Electromagnetism (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Un robot móvil (700) para ejecutar una asignación de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios, comprendiendo el robot móvil (700): a) un base del robot (722), que comprende (i) un mapa (710) que define un plano de planta (712) para el entorno físico, un conjunto de ubicaciones de trabajo con respecto al plano de planta (712), y que asocian un conjunto de operaciones de trabajo con dos o más ubicaciones de trabajo en el conjunto de ubicaciones de trabajo; caracterizado por que la base del robot (722) comprende además (ii) un controlador de la base del robot (704) que recibe la asignación de trabajo, incluyendo la asignación de trabajo una ubicación especificada de trabajo sin especificar una operación de trabajo, estando asociada la ubicación especificada de trabajo mediante el mapa (710) con dicho conjunto de operaciones de trabajo; y (iii) un sistema de navegación integrado (708); comprendiendo además el robot móvil (700): b) donde, en respuesta a recibir la asignación de trabajo, el sistema de navegación integrado (708) de manera automática (i) determina una ubicación del plano de planta en función de la ubicación especificada de trabajo y el mapa (710), representando la ubicación del plano de planta una ubicación real en el entorno físico, (ii) determina, de acuerdo con el mapa (710), que mover el robot móvil (700) desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, mediante la conducción del robot móvil (700) a lo largo de una primera trayectoria, provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios o no estacionarios en el entorno físico, (iii) genera una segunda trayectoria desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, de acuerdo con el mapa, para evitar dicho contacto, y (iv) conduce el robot móvil (700) hasta la ubicación real representada por la ubicación del plano de planta utilizando la segunda trayectoria; y c) el controlador de la base del robot (704) provoca que el robot móvil (700) realice de manera automática dicho conjunto de operaciones de trabajo asociado en el mapa con la ubicación especificada de trabajo, después de que el robot móvil (700) llegue a la ubicación real; d) donde el conjunto de operaciones de trabajo asociado con la ubicación especificada de trabajo en el mapa (710) es diferente de un conjunto de una o más operaciones de trabajo asociado con otra ubicación de trabajo en el mapa (710).
Description
DESCRIPCIÓN
Robot móvil autónomo para ejecutar asignaciones de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios
Campo de la invención
Esta invención de la presente se refiere en general a robots móviles. En particular, la presente invención está dirigida a robots móviles para ejecutar asignaciones de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios.
Técnica relacionada
En un entorno de procesamiento de pedidos típico, se requiere con frecuencia que los operarios humanos completen los pedidos colocando los productos en carros con estructura de rejilla y los muevan a lo largo de toda una fábrica o almacén. Existen muchas desventajas al utilizar operarios humanos, que incluyen, por ejemplo: dificultades para rastrear la ubicación física de los artículos transportados; dificultades para mover los artículos por la fábrica o el almacén de acuerdo con los horarios dictados por componentes automáticos en el sistema de procesamiento de pedidos; exponer a los operarios humanos a un aumento de los riesgos de lesiones físicas o muerte; y exponer los equipos y productos de fabricación a mayores niveles de contaminación provocados por la presencia de humanos. En un entorno de fabricación industrial típico, los productos se pueden mover por la fábrica o el almacén utilizando un sistema de transporte elevado de productos (monorraíles) suspendido del techo en lugar de humanos. Las desventajas de utilizar sistemas de transporte elevados incluyen: estar constreñido a una trayectoria de reparto (lineal) fija; no poder repartir productos a destinos finales si un componente anterior en el proceso está fuera de servicio; y tener que mover la totalidad de la infraestructura elevada a una nueva ubicación si se debe mover una única estación de trabajo en el proceso a una ubicación diferente.
Para ayudar a mover materiales entre ubicaciones en la fábrica o el almacén de manera más eficiente, se han introducido los robots móviles, también denominados vehículos de guiado automático (o “AGV”), en las plantas de procesamiento de pedidos, instalaciones de fabricación, hospitales y edificios de oficinas. Aunque la utilidad y flexibilidad de los robots móviles convencionales utilizados en estos entornos han sido hasta ahora muy limitadas debido a diversas limitaciones operativas significativas, que incluyen: (1) los robots móviles tienen que navegar siguiendo unos marcadores, railes, cables o cuadrículas instalados en los suelos de las instalaciones; (2) los robots móviles tiene poca capacidad, o ninguna, para determinar sus rutas hasta los destinos especificados (es decir, para navegar de manera autónoma); (3) los robots móviles tienen poca capacidad, o ninguna, para modificar una ruta seleccionada hasta un destino especificado en respuesta a otros objetos no estacionarios, que incluyen personas, con los que se encuentran mientras se dirigen al destino especificado; y (4) los robots móviles tienen poca capacidad, o ninguna, para determinar y llevar a cabo de manera automática una tarea u operación particular tras llegar a un destino especificado; por citar algunos ejemplos. Otra limitación significativa de la tecnología existente de robots móviles es que las soluciones existentes tienden a depender de que los robots móviles sean siempre capaces de desplazarse en líneas rectas, lo que no es favorable para herramientas de mantenimiento y estaciones de trabajo que tienen formas y tamaños variables, o que están desplazadas físicamente entre sí. Muchas fábricas crecen con el tiempo a medida que el capital lo permite, y por tanto no se pueden disponer en líneas rectas perfectas. El documento US 2009/234499 A1 expone un sistema y un método para controlar un robot, donde un mapa del entorno y un elemento de designación del robot se presentan a un usuario.
Compendio de la invención
Las realizaciones de la presente invención abordan y solucionan estos problemas y limitaciones al proporcionar un robot móvil inteligente que, en respuesta a recibir una asignación de trabajo: (1) determina de manera automática cómo llegar a la ubicación de trabajo en el entorno físico (es decir, navegación autónoma) para llevar a cabo la asignación de trabajo; (2) determina de manera automática que desplazarse a lo largo de una trayectoria seleccionada inicialmente es probable que provoque que el robot móvil entre en contacto con otro objeto no estacionario o choque con este; (3) determina de manera automática una nueva trayectoria a utilizar para alcanzar el destino previsto, lo que evita de ese modo posibles colisiones con obstáculos estacionarios y no estacionarios, que incluyen personas, en el entorno físico; y (4) realiza de manera automática una operación de trabajo una vez que ha alcanzado la ubicación prevista de trabajo. Cabe destacar que todas estas determinaciones se realizan a bordo del propio robot móvil, lo que proporciona un beneficio extraordinario en términos de la utilidad y flexibilidad del robot móvil, especialmente en situaciones que conllevan un gran número de robots móviles, un gran número de obstáculos no estacionarios, que incluyen personas, en el entorno físico y colecciones grandes y diversas de ubicaciones de trabajo y operaciones de trabajo. Esta tecnología es especialmente útil en entornos tales como, aunque sin carácter limitante, entornos de salas blancas ISO 5, pasillos estrechos (p. ej., de menos de 2 metros de ancho), en condiciones típicas de instalaciones de fabricación de semiconductores.
En un aspecto de la presente invención, se proporciona un robot móvil para ejecutar una asignación de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios. El robot móvil comprende en general una
base del robot que incluye un mapa que define un plano de planta del entorno físico, un controlador de la base del robot y un sistema de navegación integrado. La asignación de trabajo incluye una ubicación de trabajo definida mediante el mapa y puede incluir una operación de trabajo definida mediante el mapa. La ubicación especificada de trabajo tiene un conjunto de operaciones de trabajo asociado con este mediante el mapa, que el robot móvil debe realizar de manera automática después de que el robot móvil llegue a la ubicación especificada de trabajo. En respuesta a la recepción de la asignación de trabajo, el controlador de la base del robot genera una señal de mando que provoca que el sistema de navegación integrado determine de manera automática, de acuerdo con el mapa, cómo llegar (a modo de “qué trayectoria utilizar”) al lugar en el plano de planta que representa la ubicación especificada de trabajo. El sistema de navegación integrado determina, de acuerdo con el mapa, que mover el robot móvil desde la posición en ese momento hasta la ubicación del plano de planta, mediante la conducción del robot móvil a lo largo de una primera trayectoria, provocará que el robot móvil entre en contacto con un obstáculo estacionario (tal como una puerta cerrada o con un mueble) o un obstáculo no estacionario (tal como una persona, vehículo u otro robot móvil). El sistema de navegación integrado genera de manera automática una segunda trayectoria desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, de acuerdo con el mapa, para evitar dicho contacto, y conduce al robot móvil a llegar a la ubicación requerida de trabajo utilizando la segunda trayectoria. El conjunto de operaciones de trabajo asociado con la ubicación especificada de trabajo en el mapa es diferente de un conjunto de una o más operaciones de trabajo asociadas con otra ubicación de trabajo en el mapa.
El mapa define un plano de planta correspondiente al entorno físico y también define un conjunto de ubicaciones de trabajo con respecto al plano de planta. Para dos o más de las ubicaciones de trabajo en el plano de planta, el mapa también define un conjunto de operaciones de trabajo a realizar de manera automática en esa ubicación de trabajo. Por tanto, el mapa puede contener, por ejemplo, datos que definen si existe una ubicación particular de trabajo en términos de las coordenadas que delimitan el plano de planta, así como también ciertas operaciones de trabajo que se deberían llevar a cabo de manera automática tras la llegada a esa ubicación particular de trabajo. En respuesta a recibir una asignación de trabajo en el controlador de la base del robot, el sistema de navegación integrado se activa para utilizar el mapa, el plano de planta y las coordenadas en el plano de planta con el fin de conducir el robot móvil hasta un conjunto de coordenadas en el plano de planta (es decir, la “la ubicación de trabajo en el plano de planta”) tal como se define mediante el mapa. La ubicación del plano de planta en el mapa representa una ubicación real de trabajo en el mundo real del entorno físico. Así, por ejemplo, si el mapa define una ubicación de trabajo denominada “estación de carga de cápsulas”, que representa una estación de carga de cápsulas real en el mundo real del entorno físico, y el mapa también identifica, en términos de las coordenadas del plano de planta, donde está situada en el plano de planta la “estación de carga de cápsulas”, entonces el sistema de navegación integrado está configurado para utilizar el mapa, el plano de planta y las coordenadas con el fin de conducir el robot móvil a la estación de carga de capsulas en el mapa, por lo que provoca también que el robot móvil sea conducido a la ubicación de carga de cápsulas real en el mundo real del entorno físico.
En otro ejemplo, la asignación de trabajo enviada al robot móvil puede ordenar al robot móvil que realice una cierta operación de trabajo, tal como “cargar batería”, sin identificar, en la propia orden de asignación, ninguna ubicación particular donde se debería realizar esta operación de trabajo. Las definiciones del mapa pueden incluir información suficiente para permitir que el sistema de navegación integrado en el robot móvil obtenga la ubicación real para la asignación de trabajo en función únicamente de la operación de trabajo a realizar. Así, en este ejemplo, al haber recibido una asignación para “cargar batería”, el sistema de navegación integrado en el robot móvil utilizará el mapa para obtener las ubicaciones en ese momento de las estaciones de carga de baterías con respecto al plano de planta, así como también la disponibilidad en ese momento de las estaciones de carga de baterías cercanas, y en función de esta información, conducirá de manera automática al robot móvil hasta la estación de carga de baterías más cercana que no esté siendo utilizada en ese momento por otro robot móvil. Una vez allí, el robot móvil podría comenzar a cargar su batería de manera automática debido a que cargar su batería es la tarea que la asignación ordenó hacer al robot móvil. De manera similar, si la orden de asignación de trabajo especifica una ubicación, tal como “ir a la estación de carga de baterías n.° 5”, sin especificar una operación de trabajo a realizar tras la llegada a la ubicación especificada, el robot móvil se puede configurar para iniciar de manera automática la carga de su batería tras la llegada, debido a que las definiciones y atributos almacenados en el mapa indican que la carga de la batería es una de las operaciones de trabajo asociadas con la estación de carga de baterías n.° 5.
El mapa también puede dictar a través de sus definiciones que ciertas operaciones de trabajo se producirán en ciertas ubicaciones. En este caso, cuando un robot móvil recibe una asignación de trabajo que le indica que vaya a una ubicación particular, la asignación de trabajo no necesita especificar necesariamente qué operaciones de trabajo debería llevar a cabo el robot móvil tras la llegada, debido a que el mapa en la memoria del robot móvil ya ha asociado una o más operaciones de trabajo con esa ubicación particular de trabajo. Por tanto, al utilizar el plano de planta definido del mapa, así como también las definiciones de ubicación de trabajo y operación de trabajo en el mapa, los robots móviles que operan de acuerdo con las realizaciones de la presente invención son capaces de recibir y procesar: (a) asignaciones de trabajo que especifican las ubicaciones de trabajo sin especificar las operaciones de trabajo, (b) asignaciones de trabajo que especifican las operaciones de trabajo sin especificar las ubicaciones de trabajo, y (c) asignaciones de trabajo que especifican tanto las ubicaciones de trabajo como las operaciones de trabajo.
El controlador de la base del robot se puede configurar para recibir la asignación de trabajo (o los cambios asociados con la asignación de trabajo) desde diversas fuentes, que incluyen, sin carácter limitante, desde un sistema remoto de gestión de trabajos a través de una interfaz de comunicaciones inalámbrica, desde un terminal operativo en la red informática a través de la interfaz de comunicaciones inalámbrica, o desde una persona a través de un dispositivo de interfaz humano máquina conectado directamente al robot móvil. La interfaz humano máquina puede comprender uno o más dispositivos de visualización, monitores, teclados, teclados numéricos, pantallas táctiles, escáneres, teléfonos, impresoras, botones, altavoces, interruptores, cámaras o luces.
El sistema de navegación integrado está configurado para llevar a cabo diversos pasos de manera automática, que incluyen: (1) determinar la ubicación de trabajo para la asignación de trabajo en función de la asignación de trabajo y el mapa; (2) determinar que conducir el robot móvil a lo largo de una primera trayectoria desde la posición en ese momento del robot móvil en el entorno físico hasta una ubicación real de trabajo, provocará que el robot móvil entre en contacto con uno de los obstáculos estacionarios o no estacionarios en el entorno físico; (3) generar una segunda trayectoria, de acuerdo con el mapa, para evitar el contacto con los obstáculos estacionarios y no estacionarios; y (4) conducir el robot móvil hasta la ubicación real de trabajo a lo largo de la segunda trayectoria. En algunas realizaciones, el sistema de navegación integrado también puede determinar que conducir el robot móvil hasta la ubicación real de trabajo a lo largo de la segunda trayectoria aún podría provocar que el robot móvil entre en contacto con uno de los obstáculos estacionarios y no estacionarios, y responder generando y utilizando una tercera trayectoria, de acuerdo con el mapa, para evitar el contacto. Por tanto, el sistema de navegación integrado es capaz de recalcular y cambiar la trayectoria de desplazamiento para conducir el robot móvil hasta la ubicación especificada o implícita de trabajo (que representa la ubicación real de trabajo en el entorno físico) tantas veces como sea necesario, dependiendo del número de obstáculos estacionarios o no estacionarios con los que se encuentra a lo largo del recorrido.
La primera trayectoria lo puede determinar el propio sistema de navegación integrado de acuerdo con el mapa, o puede estar determinado por otro sistema informático, tal como un sistema remoto de gestión de trabajos, y se recibe en el robot móvil a través de una interfaz de comunicaciones inalámbrica en el robot móvil. De manera habitual, el sistema de navegación integrado utiliza lecturas de sensores del entorno físico, para determinar que conducir el robot móvil hasta la ubicación de trabajo, a lo largo de la primera trayectoria o a lo largo de la segunda trayectoria, podría provocar que el robot móvil entre en contacto con uno o más obstáculos estacionarios o no estacionarios. Aunque el controlador de la base del robot y/o el sistema de navegación integrado también se pueden configurar para recibir de manera periódica, a través de la interfaz de comunicaciones inalámbrica, información actualizada que indica las posiciones y los rumbos en ese momento de los demás robots móviles en el entorno físico, así como también de otros obstáculos no estacionarios, que el sistema de navegación integrado utiliza posteriormente para determinar si se podrían producir colisiones. Por tanto, en algunas realizaciones, el mapa proporciona las posiciones en ese momento y/o las trayectorias seleccionadas en ese momento para uno o más obstáculos no estacionarios en el entorno físico, tal como otro robot móvil, un ser humano, un vehículo motorizado o un vehículo no motorizado, y el sistema de navegación integrado utiliza esas posiciones en ese momento y/o las trayectorias seleccionadas en ese momento para evaluar si conducir el robot móvil a la ubicación de trabajo a lo largo de la primera trayectoria o a lo largo de la segunda trayectoria podría provocar que el robot móvil entre en contacto con esos obstáculos no estacionarios. En esta realización, la base del robot recibe de manera periódica información actualizada para el mapa, donde la información actualizada contempla los cambios en las posiciones en ese momento y las trayectorias seleccionadas en ese momento de los obstáculos no estacionarios.
Cuando el robot móvil alcanza la ubicación de trabajo especificada en la asignación de trabajo, el robot móvil lleva a cabo de manera automática una o más operaciones de trabajo asociadas con la ubicación de trabajo del mapa. Por tanto, el controlador de la base del robot está configurado para generar de manera automática una señal de mando que provoca que el robot móvil realice una o más operaciones de trabajo asociadas con la ubicación de trabajo del mapa. El controlador de la base del robot puede generar la señal de mando antes o después de que el robot móvil sea conducido hasta la ubicación real de trabajo mediante el sistema de navegación integrado. Algunas de las operaciones asociadas de trabajo se pueden llevar a cabo mediante la carga útil del robot (p. ej., descargar el cargamento), mientras que otras operaciones asociadas de trabajo se pueden llevar a cabo mediante la base del robot (p. ej., rotar -90 grados). Cabe destacar que el mapa no necesariamente asocia operaciones de trabajo con todas las ubicaciones de trabajo en el plano de planta. Por tanto, algunas ubicaciones de trabajo no tendrán asociadas operaciones de trabajo, mientras que otras ubicaciones de trabajo tendrán una o más operaciones de trabajo asociadas con ellas. En casos donde la ubicación de trabajo no tiene ninguna operación de trabajo asociada con ella, el robot móvil puede obtener instrucciones sobre qué operaciones de trabajo realizar desde la asignación original, o desde asignaciones posteriores recibidas después de alcanzar la ubicación de trabajo. El robot móvil también se puede configurar para recibir instrucciones específicas de operaciones de trabajo desde un operario humano situado en la ubicación de trabajo.
Los obstáculos estacionarios en el entorno físico que son evitados por los robots móviles que operan de acuerdo con las realizaciones de la presente invención pueden incluir, por ejemplo, una pared, una puerta, un marco de puerta, un mueble, una estación de trabajo, una herramienta de fabricación, una interrupción en la superficie de desplazamiento del robot móvil, un objeto suspendido por encima de dicha superficie de desplazamiento, una zona restringida en el entorno físico, una zona contaminada en el entorno físico o una zona peligrosa en el entorno físico. Se puede imaginar un obstáculo estacionario de una zona restringida como un obstáculo estacionario “virtual”, tal como una zona de “no
entrar” o “de ida”, que se puede colocar en el mapa por parte de un operario del sistema para controlar el acceso del robot móvil a esa zona.
De manera habitual, el robot móvil está configurado para ejecutar de manera automática diversos tipos de asignaciones de trabajo una vez que alcanza la ubicación seleccionada de trabajo en la asignación de trabajo. En consecuencia, el robot móvil también puede tener una carga útil del robot, conectada a la base del robot, que esté configurada de manera específica para llevar a cabo ciertas operaciones de trabajo asociadas con la ejecución de la asignación de trabajo. Si la asignación de trabajo incluye una operación seleccionada de trabajo definida mediante el mapa, el controlador de la base del robot activa la carga útil del robot para realizar de manera automática esa operación de trabajo después de que el robot móvil llegue a la ubicación seleccionada de trabajo. La carga útil del robot puede incluir un área de cargamento para transportar objetos y/o un actuador para realizar ciertos tipos de trabajos. Se puede utilizar cualquier número de actuadores para la carga útil, que incluyen, aunque sin carácter limitante, un brazo robótico articulado, un manipulador electromecánico, un robot portátil, un motor eléctrico, una unidad de giro horizontal, una unidad de inclinación, un transportador, un dispositivo mecánico de elevación, un dispositivo mecánico de agarre, una bomba, un pulverizador, un dispositivo de vacío, un láser, un dispositivo de toma de muestras y un actuador lineal.
Para las realizaciones de la presente invención que tienen cargas útiles y áreas de cargamento y actuadores de las cargas útiles, la carga útil también puede incluir un controlador de la carga útil del robot, que puede operar con la base del robot y/o el controlador de la base del robot, que controla el funcionamiento de los actuadores y/o las áreas de cargamento, de modo que el actuador lleva a cabo la operación de trabajo en el mundo real bajo el control del controlador de la carga útil del robot. Si el actuador en la carga útil del robot comprende, por ejemplo, un brazo mecánico articulado (o un manipulador robótico de tipo industrial), entonces el controlador de la base del robot genera una señal de mando que provoca que el controlador de la carga útil en la carga útil del robot provoque que el brazo mecánico recoja un objeto y coloque ese objeto en el área de cargamento de la carga útil del robot. Otra señal transmitida desde el controlador de la base del robot al controlador de la carga útil puede provocar que el brazo mecánico retire un objeto del área de cargamento.
Preferentemente, el controlador de la carga útil está configurado para enviar una señal de estado de la asignación al controlador de la base del robot que indica si las asignaciones de trabajo se han completado con éxito y/o proporcionan códigos de error y otra información para el controlador de la base del robot, cuando la carga útil del robot no puede completar la asignación de trabajo. En ciertas realizaciones, el controlador de la base del robot comprende además un gestor de estado configurado para registrar un estado en ese momento del robot móvil, que se puede transmitir a un sistema remoto de gestión de trabajos, a un ordenador personal acoplado de manera que se pueda comunicar con el robot móvil, y/o a otro robot móvil en la red a través de una interfaz de comunicaciones inalámbrica conectada a la base del robot.
La carga útil del robot en el robot móvil también puede incluir un sensor para realizar ciertas operaciones de trabajo en el mundo real. Los sensores pueden incluir, por ejemplo, una grabadora de vídeo, una grabadora de sonido, una grabadora de imágenes fotográficas, un lector RFID, un lector de banda magnética, un lector de código de barras, un detector de gases, un detector de partículas, un sensor de temperatura, un escáner, un sensor de distancia, un sensor de comunicación de campo cercano y un detector de señales inalámbrico. Cuando la carga útil del robot en el robot móvil comprende un área de cargamento, la carga útil del robot también puede incluir un sensor configurado para detectar cuando un artículo está colocado o situado de manera segura dentro del área de cargamento.
En otro aspecto de la presente invención, se proporciona un método de ejecución de una asignación de trabajo con un robot móvil en un entorno físico en el que hay obstáculos estacionarios y no estacionarios, comprendiendo el método los pasos de: (1) almacenar en una base del robot un mapa que define un plano de planta correspondiente al entorno físico, un conjunto de ubicaciones de trabajo con respecto al plano de planta y un conjunto de operaciones de trabajo asociado con una o más de las ubicaciones de trabajo en el conjunto de ubicaciones de trabajo; (2) recibir la asignación de trabajo en la base del robot, incluyendo la asignación de trabajo una ubicación de trabajo definida mediante el mapa, una operación de trabajo definida mediante el mapa o ambas; y (3) en respuesta a recibir la asignación de trabajo, activar un sistema de navegación integrado en el robot móvil para (a) determinar de manera automática, de acuerdo con el mapa, una ubicación del plano de planta para la asignación de trabajo, representando la ubicación del plano de planta una ubicación real en el entorno físico, (b) determinar de manera automática que conducir el robot móvil hasta la ubicación del plano de planta a lo largo de una primera trayectoria provocará que el robot móvil entre en contacto con uno o más obstáculos estacionarios o no estacionarios, (c) generar de manera automática una segunda trayectoria, de acuerdo con el mapa, para evitar el contacto; y (d) conducir de manera automática el robot móvil hasta la ubicación real de trabajo representada por la ubicación del plano de planta utilizando la segunda trayectoria. El paso final del método comprende hacer que el robot móvil lleve a cabo una operación de trabajo, o un conjunto de operaciones de trabajo, asociada con la ubicación especificada de trabajo mediante el mapa. En este aspecto, el método puede incluir además los pasos de: (4) determinar en el sistema de navegación integrado que conducir el robot móvil a lo largo de la segunda trayectoria podría provocar que el robot móvil entre en contacto con uno de los obstáculos estacionarios y no estacionarios, (5) generar una tercera trayectoria, de acuerdo con el mapa, para evitar el contacto, y (6) conducir el robot móvil hasta la ubicación real de trabajo representada mediante la ubicación del plano de planta utilizando la tercera trayectoria.
Las realizaciones de la presente invención tienen un amplio abanico de usos prácticos, que incluyen, aunque sin carácter limitante:
Transportar materiales y recipientes, tales como contenedores de tamaño uniforme, por una instalación de fabricación o centro de distribución. Estos entornos pueden conllevar muchos vehículos distintos y tráfico peatonal;
Transportar productos, tales como muestras farmacéuticas y de laboratorio, entre diferentes ubicaciones dentro de entornos hospitalarios. Estos entornos también pueden conllevar muchos vehículos o tráfico peatonal, así como también mucha interacción con el público (personas sin familiaridad con los vehículos autónomos);
Transportar materiales extremadamente sensibles, tales como cápsulas de interfaces de fabricación estándar (SMIF, por sus siglas en inglés) dentro de una sala blanca o entre estanterías o herramientas utilizadas para fabricar cápsulas SMIF;
Transportar equipos electrónicos, tales como pantallas LCD, sistemas de telepresencia, proyectores, escáneres de códigos de barras u otros equipos pesados y/o valiosos entre ubicaciones en un edificio de oficinas típico; y Monitorización ambiental (señales de radiofrecuencia, calidad del aire, temperatura) en una ubicación particular en uno cualquiera de los entornos citados anteriormente; y
Escaneo RFID con el fin de realizar un seguimiento de los recursos. Por ejemplo, a medida que el robot móvil se conduce por el entorno físico, este escanea etiquetas RFID y cataloga las etiquetas RFID descubiertas en una base de datos, de modo que los recursos puedan ser localizados con más facilidad cuando se necesiten.
Descripción breve de las figuras
Los dibujos anexos, que se incorporan y forman parte de la memoria descriptiva, ilustran realizaciones preferidas de la invención, y junto con la descripción, sirven para explicar los principios de la presente invención. En los dibujos, números de referencia similares indican elementos idénticos o funcionalmente similares. De manera adicional, el(los) dígitos más a la izquierda de un número de referencia identifica(n) el dibujo en el que aparece en primer lugar el número de referencia.
La figura 1 muestra una realización ejemplar de un robot móvil configurado para operar de acuerdo con la presente invención.
La figuras 2A y 2B muestran, una vista en perspectiva frontal y una vista en perspectiva lateral, respectivamente, de la base del robot sin estar unida la carga útil del robot.
La figura 3 muestra una vista en perspectiva frontal de la carga útil del robot sin estar unida la base del robot.
Las figuras 4A, 4B y 4C muestran, con más detalle, tres componentes del área de cargamento multinivel 305 de la carga útil del robot 110 mostrada en la figura 3.
Las figuras 5 y 6 muestran realizaciones ejemplares adicionales de robots móviles configurados para operar de acuerdo con la presente invención.
La figura 7 contiene un diagrama de bloques de alto nivel que ilustra, a modo de ejemplo sin carácter limitante, algunos de los componentes físicos y lógicos principales en un robot móvil ejemplar, configurado para operar de acuerdo con las realizaciones de la presente invención.
La figura 8 contiene un diagrama de flujo de alto nivel que ilustra, a modo de ejemplo, los pasos y operaciones principales que puede realizar un robot móvil que opera de acuerdo con una realización de la presente invención. La figura 9 ilustra, únicamente a modo de ejemplo, un algoritmo conocido que podría utilizar un robot móvil para planificar una trayectoria entre la posición en ese momento del robot móvil y una ubicación particular de acuerdo con un mapa.
La figura 10 ilustra, a modo de ejemplo, parte del contenido de datos de un archivo de mapa que define un plano de planta para el entorno físico. El archivo de mapa se almacena en la memoria del robot móvil de acuerdo con las realizaciones de la invención.
La figura 11 muestra una representación gráfica del archivo de mapa ilustrado en la figura 10.
Descripción detallada de las realizaciones preferidas
Ahora se hará referencia con detalle a las realizaciones preferidas de la invención, cuyos ejemplos se ilustran en los dibujos anexos. Cabe destacar que la presente invención se puede implementar utilizando software, hardware o cualquiera de sus combinaciones, tal como sería evidente para aquellos que son expertos en la técnica, y las figuras
y ejemplos que se ofrecen a continuación no pretenden limitar el alcance de la presente invención o sus realizaciones o equivalentes.
En la figura 1 se muestra una realización ejemplar de un robot móvil configurado para operar de acuerdo con la presente invención. Tal como se muestra en la figura 1, el robot móvil 100 incluye una base del robot 105 y una carga útil del robot 110, que está conectada a la base del robot 105 y soportada por esta a medida que el robot móvil 100 se mueve por el entorno físico. Un sensor láser orientado de manera horizontal 120 en la base del robot 105 produce un plano orientado de manera horizontal de rayos de luz láser (no se muestra), los cuales, cuando se reflejan de vuelta al sensor láser 120, ayudan al sistema de navegación integrado (no se muestra en la figura 1) en la base del robot 105 a detectar objetos y obstáculos (personas, muebles, otros robots, etc.) en las cercanías y potencialmente en la trayectoria de desplazamiento del robot móvil 100. En algunas realizaciones, es necesaria ayuda para cargar y descargar artículos de los estantes en el robot móvil 100. En consecuencia, en la realización representada en la figura 1, la carga útil del robot 110 comprende varias áreas de cargamento configuradas para contener el cargamento 125 y el cargamento 130, que un operario humano u otro robot móvil o robot industrial (no se muestra en la figura 1) puede colocar en las áreas de cargamento y retirar de estas. Las ruedas 135 en la base del robot 105 están acopladas electrónicamente al sistema de navegación integrado por medio de un microcontrolador de desplazamiento en el interior de la base del robot 105, de manera que permita al sistema de navegación integrado conducir el robot móvil 100 a las ubicaciones reales en el entorno físico, de acuerdo con un mapa almacenado en la memoria de la base del robot 105. Tal como se muestra en la figura 1, el robot móvil 100 está dotado opcionalmente de un sensor láser orientado de manera vertical 115, que se conecta a la carga útil del robot 110 y se acopla electrónicamente al sistema de navegación integrado en la base del robot 105. A medida que el robot móvil se mueve por el entorno físico, el sensor láser 115 escanea y detecta el área delante del robot móvil 100 en un plano orientado sustancialmente de manera vertical, de modo que facilite que el sistema de navegación integrado en la base del robot 105 detecte objetos y obstáculos que de forma ordinaria no detectaría mediante el sensor láser orientado de manera horizontal 120.
Las figuras 2A y 2B muestran una vista en perspectiva frontal y una vista en perspectiva lateral, respectivamente, de la base del robot 105 sin estar unida la carga útil del robot 110.
La figura 3 muestra una vista en perspectiva frontal de la carga útil del robot 110 sin estar unida la base del robot 105. Tal como se muestra en la figura 3, la carga útil del robot 110 comprende un área de cargamento multinivel 305 para transportar el cargamento colocado en la carga útil del robot 110. Se monta una pluralidad de sensores de presencia de cargamento 310a y 310b debajo de las placas 315 y 320, sobre las cuales se asienta el cargamento en el primer y segundo nivel del área de cargamento multinivel 305. Los sensores de presencia de cargamento 310a y 310b, que se pueden adquirir, por ejemplo, de Keyence (P/N PZ-G42CP), son sensores reflectivos que están orientados para apuntar hacia arriba. También se pueden montar dos o más sensores microinterruptores de “colocación” de cargamento en las placas 315 y 320, para indicar si se ha colocado el cargamento de manera adecuada (no en ángulo) en las placas 315 y 320. En algunas realizaciones, las ruedas 135 en el robot móvil 100 pueden permanecer bloqueadas, de modo que el robot móvil 100 no se pueda mover con el cargamento hasta que se compruebe el estado de los sensores de presencia de cargamento 310a y 310b. De manera adicional, los sensores de presencia de cargamento 310a y 310b y los sensores de colocación de cargamento también se pueden comprobar y utilizar para garantizar que el cargamento está cargado desde la parte inferior hacia la parte superior, con el fin de garantizar que el robot móvil 100 no es pesado en la parte superior mientras está en movimiento. Tal como se muestra en la figura 3, se pueden conectar dispositivos de interfaz humano máquina, que incluyen un botón de llamada 325 y una pantalla táctil 330, a la carga útil del robot 110 para hacer posible la comunicación con un operario humano. También se pueden proporcionar sensores de sonar 335 y sensores láser 340 integrados en la carga útil del robot 110 para detectar y evitar los obstáculos (tal como se describe en la presente).
Las figuras 4A, 4B y 4C muestran, con más detalle, tres componentes del área de cargamento multinivel 305 de la carga útil del robot 110 mostrada en la figura 3. En particular, tal como se muestra en las figuras 4A, 4B y 4C, la carga útil del robot 110 puede comprender una base del área de cargamento 405, un soporte de nivel 1 del área de cargamento 410 y un soporte de nivel 2 del área de cargamento 415. El soporte de nivel 1410 se monta sobre la base del área de cargamento 405, y el soporte de nivel 2415 se monta sobre el soporte de nivel 1410. La carga útil del robot 110 ensamblada se monta a continuación sobre la base del robot 105 mostrada en la figura 2. Todos los componentes eléctricos en la carga útil del robot 110 se pueden cablear en un PLC integrado en la carga útil del robot 110 o directamente en la base del robot 105.
En las figuras 5 y 6 se muestran realizaciones ejemplares adicionales de robots móviles configurados para operar de acuerdo con la presente invención. Tal como se muestra mejor en la figura 5, una realización del robot móvil 500 incluye una base del robot 505 configurada para transportar una carga útil del robot 510. La carga útil del robot 510 incluye un actuador de brazo mecánico articulado 515 configurado para identificar, agarrar y elevar cápsulas de interfaces de fabricación estándar “SMIF” 520. Tal como se muestra en la figura 6, el robot móvil 600 también comprende una carga útil del robot 610 que tiene un actuador de brazo mecánico articulado 615. El actuador de brazo mecánico articulado 615 está configurado para retirar las cápsulas SMIF 620 desde una plataforma 623 en la estación de trabajo 625 y colocar las cápsulas SMIF 620 en los soportes 630 fijados a la carga útil del robot 610. En realizaciones preferidas, el actuador de brazo mecánico articulado 615 puede comprender un brazo articulado de 4 grados de
libertad SCARA (brazo robótico articulado selectivamente compatible) o de 6 grados de libertad que se monta en la base del robot 605 del robot móvil 600.
El controlador de la base del robot en la base del robot 605 está programado para activar el sistema de navegación integrado en la base del robot 605, de modo que el robot móvil 600 transporte las cápsulas SMIF 620 directamente a otra ubicación o estación de trabajo sin seguir marcadores, railes o cables, y sin chocar con obstáculos estacionarios o no estacionarios. Más en particular, el sistema de navegación integrado en la base del robot 605 determina de manera automática, de acuerdo con un mapa almacenado en la base del robot 600, una trayectoria hasta la siguiente estación de trabajo. El sistema de navegación integrado utiliza a continuación la trayectoria para conducir el robot móvil 600 hasta la ubicación de la siguiente estación de trabajo, evitando obstáculos positivos y negativos, así como también otros dispositivos de transporte robóticos, a lo largo del camino.
La figura 7 contiene un diagrama de bloques de alto nivel que ilustra, a modo de ejemplo sin carácter limitante, algunos de los componentes físicos y lógicos principales en un robot móvil 700 ejemplar, configurado para operar de acuerdo con las realizaciones de la presente invención. Tal como se muestra en el diagrama de bloques de la figura 7, el robot móvil 700 ejemplar incluye una base del robot 722 y una carga útil del robot 724. La base del robot 722 comprende diversos componentes de hardware y software, que incluyen un controlador de la base del robot 704, un sistema de navegación integrado 708, un sistema de desplazamiento 718, un mapa 710 que define un plano de planta 712, una interfaz de comunicaciones inalámbrica 702, unos sensores 706, una interfaz humano máquina 714, una interfaz de programación de aplicaciones (API) 716 y un sistema de alimentación 720.
El controlador de la base del robot 704 comprende instrucciones de programas informáticos ejecutables en un microprocesador (no se muestra) integrado en la base del robot 722 para iniciar, coordinar y gestionar todas las funciones automáticas asociadas con el robot móvil 700, que incluyen, aunque sin carácter limitante, la ejecución de asignaciones de trabajo, el desplazamiento y la navegación automáticos, las comunicaciones con otros ordenadores y otros robots, la activación de las funciones de la carga útil del robot y el control de las funciones de alimentación. El controlador de la base del robot 704 tiene un gestor de asignaciones (no se muestra) que realiza un seguimiento de todas las asignaciones y operaciones de trabajo del robot. Cuando se recibe una asignación de trabajo en el robot móvil 700, el controlador de la base del robot 704 activa los demás subsistemas en el robot móvil 700 para responder a la asignación de trabajo. Por tanto, el controlador de la base del robot 704 genera y distribuye las señales de mando adecuadas que provocan que otros módulos y unidades de procesamiento en el robot móvil 700 comiencen a llevar a cabo la asignación de trabajo solicitada. Así, por ejemplo, cuando la asignación de trabajo recibida requiere que el robot móvil 700 se conduzca por sí mismo hasta una cierta ubicación en el entorno físico, es el controlador de la base del robot 704 el que genera la señal de mando que provoca que el sistema de navegación integrado 708 comience a conducir el robot móvil 700 hasta el destino especificado. El controlador de la base del robot 704 también proporciona una señal de activación para la carga útil del robot 724, si es necesario, para provocar que la carga útil del robot 724 realice una operación particular en la ubicación especificada de trabajo. El controlador de la base del robot 704 también gestiona y actualiza el mapa 710, y el plano de planta 712, cuando sea conveniente, en función de una información actualizada del mapa o el plano de planta recibida desde otros sistemas informáticos u otros robots en la red informática. El controlador de la base del robot 704 también recibe información del estado de las asignaciones, si la hay, desde la carga útil del robot 724, y si es conveniente, retransmite la información de estado a un sistema remoto de gestión de trabajos (no se muestra), que de manera habitual delega las asignaciones de trabajo al robot móvil 700. De manera habitual, el controlador de la base del robot 704 se comunicará con el sistema de gestión de trabajos a través de una interfaz de programación de aplicaciones (API) 716 y una interfaz de comunicaciones inalámbrica 702.
El mapa 710 define un plano de planta 712 correspondiente al entorno físico, y también define un conjunto de ubicaciones de trabajo en términos del plano de planta 712. El mapa 710 también asocia una o más operaciones de trabajo con una o más de las ubicaciones de trabajo en el conjunto de ubicaciones de trabajo. La figura 10 muestra un ejemplo del contenido de datos de un archivo informático que comprende el mapa 710. La figura 11 muestra una representación gráfica del mapa 710. Cada ubicación de trabajo en el plano de planta 712 se corresponde con una ubicación real en el entorno físico. Algunas ubicaciones de trabajo en el plano de planta 712 también tendrán asociado a ellas un conjunto de una o más operaciones de trabajo que el robot móvil 700 debe llevar a cabo de manera automática después de que el robot móvil 700 llegue a la ubicación real. El mapa 710 se puede obtener mediante el controlador de la base del robot 704 desde el sistema remoto de gestión de trabajos (no se muestra), o como alternativa, desde otro robot móvil o desde un terminal operativo independiente de la red (no se muestra). Ciertas operaciones de trabajo en el plano de planta pueden tener múltiples ubicaciones en el entorno físico. No obstante, se sobreentiende que no es necesario programar previamente todas las operaciones de trabajo en el mapa 710. También es posible que el controlador de la base del robot 704, o el sistema remoto de gestión de trabajos, demande las operaciones de trabajo según sean necesarias, independientemente de si está definida o no la operación de trabajo en el mapa 710.
El sistema de navegación integrado 708, que opera bajo el control del controlador de la base del robot 704, ejecuta todas las funciones de localización, planificación de trayectorias, seguimiento de trayectorias y de evitar obstáculos para el robot móvil 700. Si el sistema incluye un motor para evitar obstáculos positivos y negativos con el fin de ayudar al robot móvil 700 a evitar el choque con objetos que pueden estar descansando en el suelo, pero cuya forma no está
identificada de manera adecuada mediante el láser de escaneo horizontal del robot móvil, y evitar entrar en huecos en el suelo, esta funcionalidad está recogida en el sistema de navegación integrado 708. El sistema de navegación integrado 708 determina de manera automática la ubicación de trabajo para la asignación de trabajo en función del mapa y la asignación de trabajo. Utilizando los sensores 706, el sistema de navegación integrado 708 también detecta cuando conducir el robot móvil a lo largo de una trayectoria seleccionada, desde la posición en ese momento del robot móvil hasta una ubicación real en el entorno físico, provocará que el robot móvil toque, choque o en cualquier caso se acerque demasiado a uno o más de los obstáculos estacionarios o no estacionarios en el entorno físico. Cuando el sistema de navegación integrado 708 determina que se podría producir un contacto con un obstáculo, es capaz de planificar de manera automática una segunda trayectoria hasta la ubicación prevista de trabajo, de acuerdo con el mapa, para evitar el contacto. La planificación de trayectorias se puede lograr utilizando cualquiera de las diversas técnicas de planificación de trayectorias de robots conocidas en la técnica. Una de dichas técnicas de planificación de trayectorias se analiza con detalle en el capítulo 7 del libro “Artificial Intelligence and Mobile Robots”, primera edición, publicado en 1998 por AAAI Press, y editado por David Kortenkamp, R. Peter Bonnaso y Robin Murphy. Para la finalidad de la presente invención, el motor de planificación de trayectorias planifica una trayectoria que evita todas las ubicaciones que se han identificado que contienen obstáculos. El sistema de navegación integrado 708 también puede utilizar láseres de detección para muestrear objetos en el entorno físico, y comparar las muestras con la información en el mapa 710. Este proceso se denomina “localización láser” o “localización de Monte Carlo con un láser”. Otra técnica conocida, denominada localización con luz, conlleva la utilización de una cámara para encontrar luces en el techo y a continuación comparar las luces encontradas con las luces identificadas en el mapa 710. Todas estas técnicas diferentes se pueden emplear para ayudar al sistema de navegación integrado 708 a determinar su posición en ese momento con relación a la ubicación de trabajo.
Después de que el sistema de navegación integrado 708 determina una segunda trayectoria alternativa a la ubicación del plano de planta que representa la ubicación real de trabajo, este trabaja en combinación con el sistema de desplazamiento 718, para conducir el robot móvil 700 desde su ubicación en ese momento hasta la ubicación real de trabajo utilizando la segunda trayectoria. En algunas realizaciones, el sistema de navegación integrado 708 puede determinar posteriormente que conducir el robot móvil 700 hasta la ubicación real de trabajo a lo largo de la segunda trayectoria puede provocar que el robot móvil 700 entre en contacto con otro obstáculo estacionario o no estacionario, en cuyo caso el sistema de navegación integrado 708 crea y utiliza una tercera trayectoria, de acuerdo con el mapa, para evitar el contacto. Por tanto, el sistema de navegación integrado 708 es capaz de generar y cambiar las trayectorias de desplazamiento entre la ubicación en ese momento del robot móvil y la ubicación del plano de planta (que representa la ubicación real de trabajo en el entorno físico) tantas veces como sea necesario, para lograr conducir el robot móvil 700 hasta la ubicación real de trabajo. Por otra parte, si el sistema de navegación integrado 708 determina, por medio de su motor de planificación de trayectorias interno, que no existe ninguna trayectoria hasta la ubicación real de trabajo, puede estar programado opcionalmente para enviar un mensaje de error de vuelta al controlador de la base del robot 704, que informa de la condición de error a un sistema remoto de gestión de trabajos, si es conveniente.
La API 716 se puede hacer funcionar con el controlador de la base del robot 704 y la interfaz de comunicaciones inalámbrica 702 para proporcionar información y comandos al controlador de la base del robot 704, así como también recuperar el estado de asignación de trabajo y la información de ruta desde el controlador de la base del robot 704. Por ejemplo, si la carga útil del robot 724 necesita enviar información referente al estado del cargamento en el área de cargamento 740 al sistema de gestión de trabajos (no se muestra), la información del cargamento se puede transmitir desde el controlador de la carga útil del cargamento del robot 736 al controlador de la base del robot 704 a través de la API 716. A continuación, el controlador de la base del robot 704 transmitirá la información del cargamento al sistema remoto de gestión de trabajos a través de la misma API 716. En realizaciones preferidas, la API 716 es ARCL o interfaz AR, una interfaz de programación de aplicaciones distribuida por Omron Adept Technologies, Inc. de San Ramon, California. No obstante, se pueden adaptar y utilizar de manera adecuada otras API para proporcionar comunicación entre el robot móvil 700 y otros sistemas informáticos.
Los sensores 706 puede comprender una colección de diferentes sensores, tal como sensores de sonar, sensores de choque, cámaras, sensores de gas, sensores de humo, sensores de movimiento, etc., y se pueden utilizar para realizar diversas funciones diferentes. Estos sensores también se pueden utilizar para la mitigación del tráfico mediante la redirección del robot móvil 700 cuando se detectan otros robots móviles en las proximidades. Otros elementos en la base del robot incluyen la alimentación 720, que de manera habitual incluye una batería y el software para gestionar la batería.
El sistema de desplazamiento 718 incluye el hardware y la electrónica necesarios para hacer que el robot móvil 700 se mueva, incluyendo, por ejemplo, motores eléctricos, ruedas, mecanismos de realimentación para los motores eléctricos y las ruedas, y codificadores. El sistema de navegación integrado 708 “conduce” de manera habitual el robot móvil 700 mediante el envío de órdenes a las ruedas y a los motores eléctricos a través del sistema de desplazamiento 718.
La interfaz humano máquina, o HMI 714, incluye de manera habitual el hardware y la electrónica, tal como botones, interruptores, pantallas táctiles, paneles táctiles, altavoces, así como también controladores de software para los
botones, interruptores, pantallas táctiles, paneles táctiles y altavoces, que hacen posible que el robot móvil 700 proporcione datos a las personas y reciba órdenes y otras entradas de estas.
Volviendo ahora a los componentes de la carga útil del robot 724, los sensores de cargamento 738 proporcionan señales al controlador de la carga útil del robot 736, y posiblemente, de manera directa al controlador de la base del robot 704 por medio de la API 716, que permite al controlador de la carga útil del robot 736 y/o al controlador de la base del robot 704 tomar decisiones estructuradas sobre si el robot móvil 700 ha completado una asignación o está disponible para adquirir más cargamento. La HMI 726 puede incluir botones, interruptores, teclados, pantallas táctiles, etc., o alguna combinación de botones, interruptores, teclados y pantallas táctiles, utilizados para comunicarse con un operario humano. Las personas pueden utilizar, por ejemplo, la HMI 726 para hacer que el robot móvil 700 continúe hasta una ubicación especificada en el entorno físico, mediante la selección de la ubicación en el mapa interno 710 del robot móvil. Para facilitar la selección de una nueva ubicación, el robot móvil 700 se puede configurar para mostrar las ubicaciones, los planos de planta, las zonas y los sectores definidos mediante el mapa 710 en una HMI 726 que comprende una pantalla de visualización.
Los sensores de la carga útil 732 pueden incluir, por ejemplo, sensores de temperatura o gases, cámaras, lectores de RFID, sensores ambientales, sensores de examen del Ethernet inalámbrico, etc. Los sensores de la carga útil 732 se pueden utilizar para proporcionar información sobre el estado de la carga útil del robot 724, el estado del cargamento en el área de cargamento 740, el estado del entorno físico, la proximidad del robot móvil 700 a objetos físicos o alguna combinación de toda esta información.
Los actuadores 730 pueden incluir un amplio rango de dispositivos, que incluyen aunque sin carácter limitante, actuadores lineales, unidades de giro horizontal e inclinación, brazos mecánicos articulados, cintas transportadoras, robots industriales no móviles, manipuladores, elevadores, taladros, bombas y pulverizadores. Los actuadores 730 pueden incluir cualquier elemento para distribuir cosas en el entorno o recoger cosas de este.
La carga útil del robot 724 también puede incluir una interfaz de comunicaciones inalámbrica 734, que envía información a otros dispositivos o redes y recibe información de estos. Las aplicaciones de telepresencia, que permiten, por ejemplo a los médicos ver y hablar con los pacientes, utilizando robots móviles controlados de manera remota que transportan equipos de grabación de audio y vídeo, pueden utilizar la interfaz de comunicaciones inalámbrica 734, por ejemplo, para retransmitir las señales de audio y vídeo desde el robot móvil 700 hasta el médico situado de manera remota.
El controlador de la carga útil del robot 736 procesa las señales de mando y funcionamiento que llegan a la carga útil del robot 724, y controla y coordina en general todas las funciones realizadas por la carga útil del robot 724. En realizaciones preferidas, el controlador de la carga útil del robot 736 también puede cancelar una asignación de trabajo. Por ejemplo, si el robot móvil 700 llega a una ubicación especificada de trabajo para recoger un artículo, tal como una cápsula SMIF, y aprende a través de los sensores o la tecnología de visión conectada a la carga útil del robot 724 que la cápsula SMIF no está presente en esa ubicación, entonces el controlador de la carga útil del robot 736 puede cancelar la asignación de trabajo mediante la generación de una señal de cancelación de trabajo y su transmisión al controlador de la base del robot 704 en la base del robot 722, junto con una cadena de datos que indique la razón de la cancelación. El controlador de la base del robot 704 retransmite de manera habitual esa señal de cancelación al sistema de gestión de trabajos para informar al sistema de gestión de trabajos que el robot móvil 700 está disponible ahora para recibir una nueva asignación de trabajo. Cuando ha terminado con una asignación, el controlador de la carga útil del robot 736 envía una señal de finalización al controlador de la base del robot 704, o como alternativa, conmuta un bit de E/S en la memoria de la base del robot 722, que informa al controlador de la base del robot 704 que se ha completado la asignación de trabajo.
La figura 8 contiene un diagrama de flujo de alto nivel que ilustra, a modo de ejemplo, los pasos y operaciones principales que un robot móvil que opera de acuerdo con una realización de la presente invención puede realizar. En el primer paso, en el paso 805, se almacena un mapa que define un plano de planta del entorno físico en la base del robot. El mapa también define un conjunto de ubicaciones de trabajo con respecto al plano de planta mediante, por ejemplo, la asociación de ciertas ubicaciones de trabajo con ciertas coordenadas bidimensionales en el plano de planta. El mapa también asocia ciertas operaciones de trabajo con ciertas ubicaciones de trabajo en el plano de planta. La asociación de operaciones de trabajo con ciertas ubicaciones de trabajo proporciona al sistema de propulsión la información que este necesita para determinar de manera automática, para aquellas ubicaciones de trabajo determinadas, qué operaciones de trabajo se deberían realizar en esas ubicaciones de trabajo. También permite que el robot móvil 700 deduzca ubicaciones de trabajo en función de asignaciones que especifican únicamente las operaciones de trabajo asociadas.
A continuación, en el paso 810, el controlador de la base del robot recibe una asignación de trabajo. De manera habitual, aunque no necesariamente, la asignación de trabajo se recibe desde un sistema remoto de gestión empresarial o de trabajos a cargo del procesamiento de las solicitudes de trabajo que se puedan generar, por ejemplo, mediante un sistema de gestión de órdenes automático o un sistema de gestión de almacén automático conectado de manera operativa al sistema de gestión de trabajos. La asignación de trabajo puede especificar una ubicación de trabajo, una operación de trabajo o ambas, una ubicación de trabajo y una operación de trabajo. Si se especifica
una ubicación de trabajo, la ubicación especificada de trabajo puede tener o no una o más operaciones de trabajo asociadas con ella mediante las definiciones en el mapa. En el paso 815, en respuesta a recibir la asignación de trabajo, el controlador de la base del robot genera una señal o instrucción de mando que activa el sistema de navegación integrado. A continuación, en el paso 820, el sistema de navegación integrado determina una ubicación del plano de planta en función del mapa almacenado en la base del robot y la asignación de trabajo (p. ej., la ubicación especificada de trabajo, si la hay). La ubicación del plano de planta es una ubicación en el plano de planta (p. ej., una coordenada bi o tridimensional) que se corresponde con la ubicación especificada de trabajo en función del mapa. La ubicación del plano de planta también se corresponde con una ubicación real de trabajo, o la representa, en el entorno físico del mundo real en el que opera el robot móvil.
En el paso 825, el sistema de navegación integrado utiliza una cualquiera de diversas técnicas de planificación de trayectorias conocidas para generar una nueva trayectoria (es decir, una ruta) entre la posición en ese momento del robot móvil en el mapa hasta la ubicación del plano de planta. La figura 9 muestra un diagrama de flujo de alto nivel que ilustra los pasos en un ejemplo de dicha técnica de planificación de trayectorias. El robot móvil puede determinar su posición en ese momento utilizando una cualquiera de diversas técnicas de localización conocidas, que incluyen, por ejemplo, comparar lecturas láser o del sensor de la cámara que identifican puertas, paredes y luces superiores con las ubicaciones de dichas puertas, paredes y luces superiores en una representación electrónica de un mapa almacenado en la memoria del robot móvil. El mapa de localización puede ser o no el mismo mapa que utiliza el sistema de navegación integrado para definir las operaciones de trabajo y las ubicaciones de trabajo del plano de planta.
A continuación, en el paso 830, el sistema de navegación integrado determina de manera automática si la utilización de la nueva trayectoria generada en el paso 830 anterior es probable que provoque que el robot móvil entre en contacto con un obstáculo estacionario (tal como una puerta, una pared o un mueble) o un obstáculo no estacionario (tal como una persona u otro robot móvil o vehículo) en el entorno físico. Dicho de otro modo, el sistema de navegación integrado determina si hay un obstáculo estacionario o no estacionario que bloquea el acceso a la nueva trayectoria generada en el paso 825 anterior o la utilización segura de esta. Dependiendo de los requisitos del sistema particular y del entorno físico, se puede considerar una trayectoria “bloqueada” en función de cualquier número de condiciones y/o preferencias del operario. En algunas situaciones, por ejemplo, el acceso a una nueva trayectoria se puede considerar “bloqueado” si existe siquiera una posibilidad remota de que la utilización de la nueva trayectoria provocará que el robot móvil entre en “contacto” con una persona. En el contexto de esta exposición, entrar en “contacto” con una persona u otro obstáculo podría significar cualquier cosa, desde chocar realmente con la persona u otro obstáculo hasta simplemente encontrarse dentro de un cierto rango o distancia de la persona u otro obstáculo. Por tanto, el término “contacto” no está limitado en la presente a significar un contacto físico real. Por ejemplo, contacto también puede significar encontrarse dentro del rango de los sensores o entrar en la misma sala o zona. Existe constancia de técnicas para determinar la probabilidad de que un robot móvil entre en contacto con un obstáculo en el entorno físico. Una técnica, por ejemplo, es instalar sensores de sonar o láser en la parte delantera del robot móvil y utilizar las lecturas de estos sensores para determinar la proximidad del robot móvil a una persona o cosa a medida que este se desplaza a lo largo de una trayectoria prevista.
Si el sistema de navegación integrado determina que se producirá, o que se podría producir, el contacto, el programa del sistema de navegación integrado vuelve de nuevo al paso 825 para trazar una nueva trayectoria entre la posición en ese momento del robot móvil y la ubicación de trabajo. Cuando se genera la nueva trayectoria, el programa comprobará de nuevo para ver si la trayectoria está “despejada”. Por tanto, tal como se ilustra mediante el bucle en los pasos 825 y 830, el programa del sistema de navegación integrado comprobará y revisará la trayectoria entre la posición en ese momento del robot móvil y la ubicación seleccionada o implicada tantas veces como sea necesario, para encontrar una nueva trayectoria que no conlleve entrar en contacto con un obstáculo estacionario o no estacionario.
Cuando el sistema de navegación integrado encuentra una nueva trayectoria que se puede utilizar sin poner al robot móvil en contacto con un obstáculo, el sistema de navegación integrado “conduce” de manera automática el robot móvil hasta la ubicación real de trabajo en el entorno físico utilizando la nueva trayectoria. Véase el paso 835. Cuando el robot móvil llega a la ubicación real de trabajo, las realizaciones de la presente invención se pueden configurar de modo que, tal como se muestra en los pasos 840 y 845, el controlador de la base del robot transmita de manera automática una señal de mando al controlador de la carga útil para iniciar una operación de trabajo (o un conjunto de operaciones de trabajo) asociada mediante el mapa con la ubicación especificada de trabajo en la asignación. Por ejemplo, si existe una operación de trabajo asociada con la ubicación especificada de trabajo, esa operación de trabajo puede comprender una operación tal como “descargar el cargamento”. Si un conjunto de operaciones de trabajo está asociado con la ubicación especificada de trabajo, entonces el conjunto de operaciones de trabajo podría incluir, por ejemplo, “recoger el cargamento, rotar -90 grados, avanzar 50 yardas y descargar el cargamento”. En el paso 850, el controlador de la carga útil activa de manera automática un actuador para llevar a cabo la operación asociada de trabajo o el conjunto de operaciones asociadas de trabajo, y el controlador de la carga útil envía una señal de estado de vuelta al controlador de la base del robot cuando la asignación se ha completado. Por último, en el paso 860, el controlador de la base del robot envía una señal de estado de vuelta al sistema de gestión de trabajos, si es conveniente, que informa al sistema de gestión de trabajos que la asignación se ha completado.
La figura 9 ilustra, únicamente a modo de ejemplo, un algoritmo conocido que podría utilizar un robot móvil para planificar una trayectoria entre la posición en ese momento del robot móvil y una ubicación particular, de acuerdo con un mapa y un plano de planta delineado mediante un sistema de coordenadas bidimensional. En general, los pasos del algoritmo de planificación de trayectorias incluyen recibir la ubicación de trabajo (paso 905), planificar una trayectoria global hasta la ubicación de trabajo (paso 910), planificar una trayectoria local alrededor de obstáculos detectados y de los que existe constancia (paso 915), encontrar un conjunto permisible de comandos de movimiento para el robot móvil con el fin de seguir la trayectoria (paso 925) y enviar los comandos de movimiento a un controlador o unos motores de desplazamiento (paso 930).
Claims (25)
1. Un robot móvil (700) para ejecutar una asignación de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios, comprendiendo el robot móvil (700):
a) un base del robot (722), que comprende
(i) un mapa (710) que define un plano de planta (712) para el entorno físico, un conjunto de ubicaciones de trabajo con respecto al plano de planta (712), y que asocian un conjunto de operaciones de trabajo con dos o más ubicaciones de trabajo en el conjunto de ubicaciones de trabajo;
caracterizado por que la base del robot (722) comprende además
(ii) un controlador de la base del robot (704) que recibe la asignación de trabajo, incluyendo la asignación de trabajo una ubicación especificada de trabajo sin especificar una operación de trabajo, estando asociada la ubicación especificada de trabajo mediante el mapa (710) con dicho conjunto de operaciones de trabajo; y (iii) un sistema de navegación integrado (708);
comprendiendo además el robot móvil (700):
b) donde, en respuesta a recibir la asignación de trabajo, el sistema de navegación integrado (708) de manera automática
(i) determina una ubicación del plano de planta en función de la ubicación especificada de trabajo y el mapa (710), representando la ubicación del plano de planta una ubicación real en el entorno físico,
(ii) determina, de acuerdo con el mapa (710), que mover el robot móvil (700) desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, mediante la conducción del robot móvil (700) a lo largo de una primera trayectoria, provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios o no estacionarios en el entorno físico,
(iii) genera una segunda trayectoria desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, de acuerdo con el mapa, para evitar dicho contacto, y
(iv) conduce el robot móvil (700) hasta la ubicación real representada por la ubicación del plano de planta utilizando la segunda trayectoria; y
c) el controlador de la base del robot (704) provoca que el robot móvil (700) realice de manera automática dicho conjunto de operaciones de trabajo asociado en el mapa con la ubicación especificada de trabajo, después de que el robot móvil (700) llegue a la ubicación real;
d) donde el conjunto de operaciones de trabajo asociado con la ubicación especificada de trabajo en el mapa (710) es diferente de un conjunto de una o más operaciones de trabajo asociado con otra ubicación de trabajo en el mapa (710).
2. El robot móvil (700) de la reivindicación 1, donde el sistema de navegación integrado (708) de manera automática: a) determina que conducir el robot móvil (700) a lo largo de dicha segunda trayectoria provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios y no estacionarios;
b) genera una tercera trayectoria desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, de acuerdo con el mapa (710), para evitar dicho contacto; y
c) conduce el robot móvil (700) hasta la ubicación real representada mediante la ubicación del plano de planta utilizando la tercera trayectoria.
3. El robot móvil (700) de la reivindicación 1, donde:
a) la base del robot (722) comprende una interfaz de comunicaciones inalámbrica (702); y
b) dicha primera trayectoria se recibe en el robot móvil (700) desde una fuente remota a través de la interfaz de comunicaciones inalámbrica (702).
4. El robot móvil (700) de la reivindicación 1, donde:
a) la base del robot (722) comprende además un sensor (706) configurado para proporcionar al sistema de navegación integrado (708) lecturas del sensor correspondientes a una posición en ese momento de uno de los obstáculos estacionarios y no estacionarios; y
b) el sistema de navegación integrado (708) utiliza las lecturas del sensor para determinar que conducir el robot móvil (700) hasta la ubicación del plano de planta, a lo largo de dicha primera trayectoria, provocará que el robot móvil (700) entre en contacto con dicho obstáculo de los obstáculos estacionarios y no estacionarios.
5. El robot móvil (700) de la reivindicación 1, donde:
a) el mapa (710) proporciona las posiciones en ese momento de dichos obstáculos no estacionarios; y
b) el sistema de navegación integrado (708) utiliza dichas posiciones en ese momento para determinar que conducir el robot móvil (700) hasta la ubicación del plano de planta, a lo largo de dicha primera trayectoria, provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios y no estacionarios.
6. El robot móvil (700) de la reivindicación 1, donde:
a) el mapa (710) proporciona un conjunto de trayectorias seleccionadas en ese momento para dichos obstáculos no estacionarios; y
b) el sistema de navegación integrado (708) utiliza dicho conjunto de trayectorias seleccionadas en ese momento para determinar que conducir el robot móvil (700) hasta la ubicación del plano de planta, a lo largo de dicha primera trayectoria, provocará que el robot móvil entre en contacto con uno de dichos obstáculos no estacionarios.
7. El robot móvil (700) de la reivindicación 1, donde:
a) la base del robot (722) comprende una interfaz de comunicaciones inalámbrica (702); y
b) el controlador de la base del robot (704) recibe la asignación de trabajo a través de la interfaz de comunicaciones inalámbrica (702).
8. El robot móvil (700) de la reivindicación 7, donde la interfaz de comunicaciones inalámbrica (702) recibe la asignación de trabajo desde un sistema remoto de asignación de trabajos, un sistema informático personal remoto o un segundo robot móvil en el entorno físico.
9. El robot móvil (700) de la reivindicación 1, donde:
a) la base del robot (722) comprende una interfaz humano máquina (714); y
b) el controlador de la base del robot (704) recibe la asignación de trabajo de una persona a través de la interfaz humano máquina (714).
10. El robot móvil (700) de la reivindicación 1, que comprende además:
a) una carga útil del robot (724), conectada a la base del robot (722);
b) donde el controlador de la base del robot (704) genera una señal de mando que provoca que la carga útil del robot (724) realice de manera automática dicha o dichas operaciones asociadas de trabajo después de que el robot móvil (700) llegue a la ubicación del plano de planta.
11. El robot móvil (700) de la reivindicación 10, donde la carga útil del robot (724) comprende un actuador (730).
12. El robot móvil (700) de la reivindicación 11, donde el actuador (730) comprende uno o más de un brazo robótico articulado, un manipulador electromecánico, un robot portátil, un motor eléctrico, una unidad de giro horizontal, una unidad de inclinación, un transportador, un dispositivo mecánico de elevación, un dispositivo mecánico de agarre, una bomba, un pulverizador, un dispositivo de vacío, un láser, un dispositivo de toma de muestras y un actuador lineal.
13. El robot móvil (700) de la reivindicación 10, donde la carga útil del robot (724) comprende:
a) un área de cargamento (740); y
b) un sensor (706) configurado para detectar si un objeto está situado dentro del área de cargamento (740).
14. El robot móvil (700) de la reivindicación 1, donde:
a) el controlador de la base del robot (704) comprende un gestor de estado configurado para registrar un estado en ese momento del robot móvil (700); y
b) el estado en ese momento se transmite a un sistema remoto de gestión de trabajos.
15. El robot móvil (700) de la reivindicación 10, donde:
a) la base del robot (722) comprende una interfaz de comunicaciones inalámbrica (702);
b) el controlador de la base del robot (704) comprende un gestor de estado configurado para registrar un estado en ese momento del robot móvil (700); y
c) el estado en ese momento se comunica a otro robot móvil en el entorno físico a través de la interfaz de comunicaciones inalámbrica (704).
16. En un entorno físico en el que hay obstáculos estacionarios y no estacionarios, un método de ejecutar una asignación de trabajo con un robot móvil (700) que comprende una base del robot (722) y un sistema de navegación integrado (708), comprendiendo el método:
a) almacenar en la base del robot (722) un mapa (710) que define un plano de planta (712) correspondiente al entorno físico, un conjunto de ubicaciones de trabajo con respecto al plano de planta (712) y asociar un conjunto de operaciones de trabajo con dos o más ubicaciones de trabajo en el conjunto de ubicaciones de trabajo; caracterizado por que el método comprende además:
b) recibir la asignación de trabajo en la base del robot (722), incluyendo la asignación de trabajo una ubicación especificada de trabajo sin especificar una operación de trabajo, estando asociada la ubicación especificada de trabajo mediante el mapa (710) con dicho conjunto de operaciones de trabajo; y
c) en respuesta a recibir la asignación de trabajo, activar el sistema de navegación integrado (708) para de manera automática
(i) determinar una ubicación del plano de planta en función de la ubicación especificada de trabajo y el mapa (710), correspondiendo la ubicación del plano de planta a una ubicación real en el entorno físico;
(ii) determinar, de acuerdo con el mapa (710), que mover el robot móvil (700) desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, mediante la conducción del robot móvil (700) a lo largo de una primera trayectoria, provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios y no estacionarios en el entorno físico;
(iii) generar una segunda trayectoria desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, de acuerdo con el mapa (710), para evitar dicho contacto; y
(iv) conducir el robot móvil (700) hasta la ubicación real representada por la ubicación del plano de planta utilizando la segunda trayectoria; y
d) provocar que el robot móvil (700) realice de manera automática dicho conjunto de operaciones de trabajo asociado en el mapa con la ubicación especificada de trabajo, después de que el robot móvil (700) llegue a la ubicación real de trabajo;
e) donde el conjunto de operaciones de trabajo asociado con la ubicación especificada de trabajo en el mapa (710) es diferente de un conjunto de una o más operaciones de trabajo asociado con otra ubicación de trabajo en el mapa (710).
17. El método de la reivindicación 16, que comprende además:
a) determinar que conducir el robot móvil (700) a lo largo de dicha segunda trayectoria provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios y no estacionarios;
b) generar una tercera trayectoria desde la posición en ese momento del robot móvil hasta la ubicación del plano de planta, de acuerdo con el mapa (710), para evitar dicho contacto; y
c) conducir el robot móvil (700) hasta la ubicación real representada mediante la ubicación del plano de planta utilizando la tercera trayectoria.
18. El método de la reivindicación 16, que comprende además:
a) recibir lecturas de sensores en el sistema de navegación integrado (708), correspondiendo las lecturas de sensores a una posición en ese momento de uno de los obstáculos estacionarios y no estacionarios; y
b) utilizar las lecturas de sensores en el sistema de navegación integrado (708) para determinar que conducir el robot móvil (700) hasta la ubicación del plano de planta a lo largo de dicha primera trayectoria provocará que el robot móvil (700) entre en contacto con dicho obstáculo de los obstáculos estacionarios y no estacionarios.
19. El método de la reivindicación 16, que comprende además:
a) almacenar en el mapa (710) una descripción de las posiciones en ese momento de dichos obstáculos no estacionarios; y
b) en el sistema de navegación integrado (708), utilizar dicha descripción en el mapa (710) para determinar que conducir el robot móvil (700) hasta la ubicación especificada de trabajo, a lo largo de dicha primera trayectoria, provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos estacionarios y no estacionarios.
20. El método de la reivindicación 16, que comprende además:
a) almacenar en el mapa (710) un conjunto de trayectorias seleccionadas en ese momento para dichos obstáculos no estacionarios; y
b) en el sistema de navegación integrado (708), utilizar dicho conjunto de trayectorias seleccionadas en ese momento para determinar que conducir el robot móvil (700) hasta la ubicación del plano de planta, a lo largo de dicha primera trayectoria, provocará que el robot móvil (700) entre en contacto con uno de dichos obstáculos no estacionarios.
21. El método de la reivindicación 16, que comprende además:
a) conectar una carga útil del robot (724) a la base del robot (722); y
b) generar una señal de mando mediante el controlador de la base del robot (704) que provoca que la carga útil del robot (724) realice de manera automática dicha o dichas operaciones de trabajo después de que el robot móvil (700) llegue a la ubicación del plano de planta.
22. El método de la reivindicación 21, donde la carga útil del robot (724) comprende un actuador (730).
23. El método de la reivindicación 21, que comprende además:
a) colocar un objeto en el área de cargamento (740) fijada a la carga útil del robot (724); y
b) utilizar un sensor (732) en la carga útil del robot (724) para detectar que el objeto está situado dentro del área de cargamento (740).
24. El método de la reivindicación 16, que comprende además:
a) registrar un estado en ese momento del robot móvil (700) en la base del robot (722); y
b) transmitir el estado en ese momento a un sistema remoto de gestión de trabajos.
25. El método de la reivindicación 16, que comprende además:
a) registrar un estado en ese momento del robot móvil (700) en la base del robot (722); y
b) transmitir el estado en ese momento a otro robot móvil en el entorno físico a través de la interfaz de comunicaciones inalámbrica (702) en la base del robot (722).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261590806P | 2012-01-25 | 2012-01-25 | |
US201261596685P | 2012-02-08 | 2012-02-08 | |
PCT/US2013/023250 WO2013112907A1 (en) | 2012-01-25 | 2013-01-25 | Autonomous mobile robot for handling job assignments in a physical environment inhabited by stationary and non-stationary obstacles |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2812568T3 true ES2812568T3 (es) | 2021-03-17 |
Family
ID=48873949
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13741038T Active ES2812568T3 (es) | 2012-01-25 | 2013-01-25 | Robot móvil autónomo para ejecutar asignaciones de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios |
Country Status (7)
Country | Link |
---|---|
US (2) | US9592609B2 (es) |
EP (3) | EP3113055B1 (es) |
DK (2) | DK2807526T3 (es) |
ES (1) | ES2812568T3 (es) |
PL (1) | PL2807526T3 (es) |
SG (2) | SG11201400958XA (es) |
WO (2) | WO2013112842A1 (es) |
Families Citing this family (202)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9321591B2 (en) | 2009-04-10 | 2016-04-26 | Symbotic, LLC | Autonomous transports for storage and retrieval systems |
US8696010B2 (en) * | 2010-12-15 | 2014-04-15 | Symbotic, LLC | Suspension system for autonomous transports |
US9561905B2 (en) | 2010-12-15 | 2017-02-07 | Symbotic, LLC | Autonomous transport vehicle |
US8965619B2 (en) | 2010-12-15 | 2015-02-24 | Symbotic, LLC | Bot having high speed stability |
US9187244B2 (en) | 2010-12-15 | 2015-11-17 | Symbotic, LLC | BOT payload alignment and sensing |
US9499338B2 (en) | 2010-12-15 | 2016-11-22 | Symbotic, LLC | Automated bot transfer arm drive system |
US11078017B2 (en) | 2010-12-15 | 2021-08-03 | Symbotic Llc | Automated bot with transfer arm |
SG11201400958XA (en) | 2012-01-25 | 2014-04-28 | Adept Technology Inc | Autonomous mobile robot for handling job assignments in a physical environment inhabited by stationary and non-stationary obstacles |
ES2827192T3 (es) | 2012-02-08 | 2021-05-20 | Omron Tateisi Electronics Co | Sistema de gestión de tareas para una flota de robots móviles autónomos |
US9533773B1 (en) * | 2012-04-30 | 2017-01-03 | The Boeing Company | Methods and systems for automated vehicle asset tracking |
EP2667268A1 (de) * | 2012-05-24 | 2013-11-27 | Siemens Aktiengesellschaft | Verfahren zum Betrieb eines Automatisierungsgeräts |
KR101945734B1 (ko) * | 2012-08-16 | 2019-02-11 | 한화에어로스페이스 주식회사 | 로봇 시스템 및 그의 동작 방법 |
US9958854B2 (en) * | 2013-06-10 | 2018-05-01 | The Boeing Company | Systems and methods for robotic measurement of parts |
ITRM20130128U1 (it) | 2013-07-23 | 2015-01-24 | Particle Measuring Systems S R L | Dispositivo per il campionamento microbico dell'aria |
US9280157B2 (en) * | 2013-09-04 | 2016-03-08 | Amazon Technologies, Inc. | System and method for transporting personnel within an active workspace |
ES2968379T3 (es) * | 2013-09-09 | 2024-05-09 | Dematic Corp | Recogida móvil autónoma |
CN105705441B (zh) | 2013-09-13 | 2018-04-10 | 西姆伯蒂克有限责任公司 | 自主运输车、存储和取回系统及在该系统内传递拣选面的方法 |
US9971852B2 (en) * | 2013-11-06 | 2018-05-15 | Geoffrey E Olson | Robotics connector |
US9329597B2 (en) | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
US9792434B1 (en) | 2014-01-17 | 2017-10-17 | Knightscope, Inc. | Systems and methods for security data analysis and display |
US10279488B2 (en) | 2014-01-17 | 2019-05-07 | Knightscope, Inc. | Autonomous data machines and systems |
US10514837B1 (en) | 2014-01-17 | 2019-12-24 | Knightscope, Inc. | Systems and methods for security data analysis and display |
US9886036B2 (en) | 2014-02-10 | 2018-02-06 | John Bean Technologies Corporation | Routing of automated guided vehicles |
US9535421B1 (en) * | 2014-02-28 | 2017-01-03 | Savioke, Inc. | Mobile delivery robot with interior cargo space |
TWI555524B (zh) * | 2014-04-30 | 2016-11-01 | 國立交通大學 | 機器人的行動輔助系統 |
US20150379441A1 (en) * | 2014-06-30 | 2015-12-31 | Ebay Inc. | Shared asset management system |
US9927797B2 (en) | 2014-08-29 | 2018-03-27 | Amazon Technologies, Inc. | Safety compliance for mobile drive units |
US9475195B2 (en) * | 2014-09-12 | 2016-10-25 | Toyota Jidosha Kabushiki Kaisha | Anticipatory robot navigation |
WO2016061255A1 (en) | 2014-10-14 | 2016-04-21 | Harvest Automation, Inc. | Storage material handling system |
CN104460666B (zh) * | 2014-10-27 | 2017-05-10 | 上海理工大学 | 一种基于距离矢量的机器人自主避障移动控制方法 |
US9701012B1 (en) * | 2014-10-30 | 2017-07-11 | Daniel Theobald | Controlled interaction between a mobile robot and another entity |
US9606544B2 (en) * | 2014-10-31 | 2017-03-28 | Clearpath Robotics, Inc. | System, computing device and method for unmanned vehicle fleet control |
US10845822B2 (en) | 2014-10-31 | 2020-11-24 | Clearpath Robotics Inc. | Systems and methods for utilizing fleets of robots |
US12084824B2 (en) | 2015-03-06 | 2024-09-10 | Walmart Apollo, Llc | Shopping facility assistance systems, devices and methods |
US20180099846A1 (en) | 2015-03-06 | 2018-04-12 | Wal-Mart Stores, Inc. | Method and apparatus for transporting a plurality of stacked motorized transport units |
US10287149B2 (en) | 2015-03-06 | 2019-05-14 | Walmart Apollo, Llc | Assignment of a motorized personal assistance apparatus |
WO2016142794A1 (en) | 2015-03-06 | 2016-09-15 | Wal-Mart Stores, Inc | Item monitoring system and method |
US9864371B2 (en) | 2015-03-10 | 2018-01-09 | John Bean Technologies Corporation | Automated guided vehicle system |
US20170341235A1 (en) | 2016-05-27 | 2017-11-30 | General Electric Company | Control System And Method For Robotic Motion Planning And Control |
US9707680B1 (en) | 2015-05-28 | 2017-07-18 | X Development Llc | Suggesting, selecting, and applying task-level movement parameters to implementation of robot motion primitives |
US10114379B2 (en) * | 2015-06-01 | 2018-10-30 | Dpix, Llc | Point to point material transport vehicle improvements for glass substrate |
US9995047B2 (en) * | 2015-06-09 | 2018-06-12 | Integrated Construction Enterprises, Inc. | Construction board installation robot |
US10124359B2 (en) | 2015-06-17 | 2018-11-13 | Integrated Construction Enterprises, Inc. | Autonomous painting systems and related methods |
US11919019B2 (en) | 2015-06-17 | 2024-03-05 | Revolutionice Inc. | Autonomous painting systems and related methods |
US10378935B1 (en) | 2015-07-08 | 2019-08-13 | Revolutionice Inc. | Remote facade inspection gantry |
US9945677B1 (en) * | 2015-07-23 | 2018-04-17 | X Development Llc | Automated lane and route network discovery for robotic actors |
US9758305B2 (en) | 2015-07-31 | 2017-09-12 | Locus Robotics Corp. | Robotic navigation utilizing semantic mapping |
US9625571B1 (en) * | 2015-08-06 | 2017-04-18 | X Development Llc | Disabling robot sensors |
US9746852B1 (en) * | 2015-08-17 | 2017-08-29 | X Development Llc | Using laser sensors to augment stereo sensor readings for robotic devices |
US10168711B2 (en) | 2015-09-16 | 2019-01-01 | Omron Adept Technologies, Inc. | Method and apparatus for autonomous conveyance of transport carts |
FR3042061B1 (fr) * | 2015-10-02 | 2017-11-24 | Kingbox | Procede, robot mobile et systeme pour la gestion automatisee d’un local de self-stockage |
CA174441S (en) | 2015-10-07 | 2018-01-02 | Starship Tech Oü | Delivery robot |
JP1551868S (es) * | 2015-12-01 | 2016-06-13 | ||
JP6638373B2 (ja) * | 2015-12-17 | 2020-01-29 | 日本電気株式会社 | 道路情報検出装置、道路情報検出システム、道路情報検出方法及びプログラム |
US9740207B2 (en) * | 2015-12-23 | 2017-08-22 | Intel Corporation | Navigating semi-autonomous mobile robots |
EP3192616B1 (en) | 2016-01-14 | 2024-09-25 | Jungheinrich AG | Robot to pick up and transport objects and method using such a robot |
US12134192B2 (en) | 2016-02-09 | 2024-11-05 | Cobalt Robotics Inc. | Robot with rotatable arm |
US11445152B2 (en) | 2018-08-09 | 2022-09-13 | Cobalt Robotics Inc. | Security automation in a mobile robot |
US11772270B2 (en) | 2016-02-09 | 2023-10-03 | Cobalt Robotics Inc. | Inventory management by mobile robot |
US10265859B2 (en) | 2016-02-09 | 2019-04-23 | Cobalt Robotics Inc. | Mobile robot with removable fabric panels |
US10901431B1 (en) * | 2017-01-19 | 2021-01-26 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US11726490B1 (en) * | 2016-02-19 | 2023-08-15 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US10386847B1 (en) * | 2016-02-19 | 2019-08-20 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US10788836B2 (en) | 2016-02-29 | 2020-09-29 | AI Incorporated | Obstacle recognition method for autonomous robots |
US11927965B2 (en) | 2016-02-29 | 2024-03-12 | AI Incorporated | Obstacle recognition method for autonomous robots |
US10452071B1 (en) * | 2016-02-29 | 2019-10-22 | AI Incorporated | Obstacle recognition method for autonomous robots |
US11449061B2 (en) | 2016-02-29 | 2022-09-20 | AI Incorporated | Obstacle recognition method for autonomous robots |
USD812663S1 (en) * | 2016-03-22 | 2018-03-13 | Clearpath Robotics, Inc. | Autonomous mobile robot |
US9927814B2 (en) | 2016-03-28 | 2018-03-27 | Fetch Robotics, Inc. | System and method for localization of robots |
CA2961938A1 (en) | 2016-04-01 | 2017-10-01 | Wal-Mart Stores, Inc. | Systems and methods for moving pallets via unmanned motorized unit-guided forklifts |
US9956688B2 (en) | 2016-04-12 | 2018-05-01 | Fetch Robotius, Inc. | System and method for predicting robotic power disconnection |
US9868214B2 (en) * | 2016-06-20 | 2018-01-16 | X Development Llc | Localization of a mobile system |
WO2018005304A1 (en) * | 2016-06-26 | 2018-01-04 | De Zulueta Elizabeth | Autonomous robotic aide |
US10071856B2 (en) * | 2016-07-28 | 2018-09-11 | X Development Llc | Inventory management |
WO2018039337A1 (en) | 2016-08-23 | 2018-03-01 | Canvas Technology, Inc. | Autonomous cart for manufacturing and warehouse applications |
MX2019002215A (es) | 2016-08-26 | 2019-07-08 | Crown Equip Corp | Herramientas de escaneo de campos multiples en vehiculos de manejo de materiales. |
CA3187706C (en) | 2016-08-26 | 2023-08-29 | Crown Equipment Corporation | Materials handling vehicle obstacle scanning tools |
EP4050451B1 (en) | 2016-08-26 | 2024-02-14 | Crown Equipment Corporation | Materials handling vehicle path validation and dynamic path modification |
US10001768B2 (en) | 2016-09-01 | 2018-06-19 | Locus Robotics Corp. | Item storage array for mobile base in robot assisted order-fulfillment operations |
US10353395B2 (en) | 2016-09-26 | 2019-07-16 | X Development Llc | Identification information for warehouse navigation |
US10126746B2 (en) | 2016-12-01 | 2018-11-13 | Walmart Apollo, Llc | Autonomous drone and tool selection and delivery |
US10515319B2 (en) | 2016-12-16 | 2019-12-24 | Fetch Robotics, Inc. | System and method for computing a probability that an object comprises a target |
CN207903267U (zh) * | 2017-01-16 | 2018-09-25 | 浙江国自机器人技术有限公司 | 一种可检测货物的自动导引运输车 |
US10585440B1 (en) | 2017-01-23 | 2020-03-10 | Clearpath Robotics Inc. | Systems and methods for using human-operated material-transport vehicles with fleet-management systems |
US11724399B2 (en) | 2017-02-06 | 2023-08-15 | Cobalt Robotics Inc. | Mobile robot with arm for elevator interactions |
CN106625685A (zh) * | 2017-03-13 | 2017-05-10 | 安徽朗巴智能科技有限公司 | 一种工业机器人用多路巡检防撞控制系统 |
CN106843228B (zh) * | 2017-03-23 | 2020-01-03 | 汕头大学 | 基于移动终端划线设定智能小车行走路径的方法及系统 |
CN107030691B (zh) * | 2017-03-24 | 2020-04-14 | 华为技术有限公司 | 一种看护机器人的数据处理方法及装置 |
CN106843230B (zh) * | 2017-03-24 | 2019-11-19 | 上海思岚科技有限公司 | 应用于移动设备的虚拟墙系统及其实现方法 |
US10990919B2 (en) | 2017-03-27 | 2021-04-27 | Clearpath Robotics Inc. | Systems and methods for autonomous lineside parts delivery to an assembly line process |
WO2018178875A1 (en) * | 2017-03-27 | 2018-10-04 | Clearpath Robotics, Inc. | Systems and methods for autonomous provision replenishment |
US10928835B2 (en) | 2017-03-27 | 2021-02-23 | Clearpath Robotics Inc. | Systems and methods for flexible manufacturing using self-driving vehicles |
CN106985145B (zh) * | 2017-04-24 | 2019-06-11 | 合肥工业大学 | 一种搬运输送机器人 |
US11420323B2 (en) * | 2017-05-16 | 2022-08-23 | Abb Schweiz Ag | Method and control system for controlling movement sequences of a robot |
US20180333860A1 (en) * | 2017-05-18 | 2018-11-22 | Translogic Corporation | System and method for prescription medicine delivery |
WO2018213931A1 (en) | 2017-05-25 | 2018-11-29 | Clearpath Robotics Inc. | Systems and methods for process tending with a robot arm |
WO2018215581A1 (en) | 2017-05-26 | 2018-11-29 | Starship Technologies Oü | A battery and a system for swapping and/or charging a battery of a mobile robot |
US20180370028A1 (en) * | 2017-06-24 | 2018-12-27 | Elizabeth Marie De Zulueta | Autonomous Robotic Aide |
US11760221B2 (en) | 2017-06-27 | 2023-09-19 | A9.Com, Inc. | Charging systems and methods for autonomous carts |
US10793369B2 (en) | 2017-07-12 | 2020-10-06 | A9.Com, Inc. | Conveyor system for autonomous robot |
EP3659104B1 (en) | 2017-07-28 | 2024-01-17 | Starship Technologies OÜ | Device and system for secure package delivery by a mobile robot |
US10899542B2 (en) * | 2017-08-15 | 2021-01-26 | Tompkins International | Mobile sorter platforms and method for sorting articles |
US10723555B2 (en) | 2017-08-28 | 2020-07-28 | Google Llc | Robot inventory updates for order routing |
US10429847B2 (en) | 2017-09-22 | 2019-10-01 | Locus Robotics Corp. | Dynamic window approach using optimal reciprocal collision avoidance cost-critic |
US10386851B2 (en) | 2017-09-22 | 2019-08-20 | Locus Robotics Corp. | Multi-resolution scan matching with exclusion zones |
JP2019059004A (ja) * | 2017-09-28 | 2019-04-18 | セイコーエプソン株式会社 | ロボットシステム |
WO2019072965A1 (en) * | 2017-10-11 | 2019-04-18 | Trinamix Gmbh | AUTONOMOUS ROBOTIC DEVICE AND CONTROL METHOD THEREOF |
CA178039S (en) * | 2017-10-18 | 2018-10-10 | Novadelta Comercio Ind Cafes Sa | Coffee machine robot |
WO2019084686A1 (en) | 2017-10-31 | 2019-05-09 | Clearpath Robotics Inc. | Systems and methods for operating robotic equipment in controlled zones |
WO2019104133A1 (en) | 2017-11-21 | 2019-05-31 | Service Robotics & Technologies, Inc. | Map-based framework for the integration of robots and smart devices |
US10365656B2 (en) | 2017-11-22 | 2019-07-30 | Locus Robotics Corp. | Robot charger docking localization |
US10761539B2 (en) | 2017-11-22 | 2020-09-01 | Locus Robotics Corp. | Robot charger docking control |
JP1612989S (es) * | 2017-11-22 | 2018-09-10 | ||
US11014238B2 (en) * | 2017-11-27 | 2021-05-25 | Amazon Technologies, Inc. | Dynamic navigation of autonomous vehicle with safety infrastructure |
US10688662B2 (en) * | 2017-12-13 | 2020-06-23 | Disney Enterprises, Inc. | Robot navigation in context of obstacle traffic including movement of groups |
US10293489B1 (en) * | 2017-12-15 | 2019-05-21 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and system, and cleaning robot using the same |
US10606269B2 (en) | 2017-12-19 | 2020-03-31 | X Development Llc | Semantic obstacle recognition for path planning |
CN107943059B (zh) * | 2017-12-29 | 2024-03-15 | 南京工程学院 | 基于深度视觉导航的重载多足机器人及其运动规划方法 |
USD888790S1 (en) * | 2018-01-18 | 2020-06-30 | Lingdong Technology (Beijing) Co.Ltd | Autonomy transportation vehicle |
WO2019140536A1 (en) | 2018-01-22 | 2019-07-25 | Clearpath Robotics Inc. | Systems and methods for measuring fleets of self-driving industrial vehicles |
WO2019144222A1 (en) | 2018-01-24 | 2019-08-01 | Clearpath Robotics Inc. | Systems and methods for maintaining vehicle state information |
US11256270B2 (en) | 2018-02-07 | 2022-02-22 | Clearpath Robotics Inc. | Communication systems for self-driving vehicles, and methods of providing thereof |
CN108363395A (zh) * | 2018-02-11 | 2018-08-03 | 智久(厦门)机器人科技有限公司 | 一种agv自主避障的方法 |
EP3774199B1 (en) * | 2018-03-30 | 2024-03-27 | Jabil Inc. | Apparatus, system, and method of providing hazard detection and control for a mobile robot |
US10828780B2 (en) * | 2018-04-13 | 2020-11-10 | The Boeing Company | Airplane passenger service robot |
USD918978S1 (en) * | 2018-04-17 | 2021-05-11 | Beijing Jingdong Qianshi Technology Co., Ltd. | Selecting robot (first generation) |
CN108801653B (zh) * | 2018-06-25 | 2020-05-05 | 工业和信息化部计算机与微电子发展研究中心(中国软件评测中心) | 搬运小车的测评方法 |
US11407111B2 (en) * | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
US11766785B2 (en) * | 2018-06-29 | 2023-09-26 | Noiseout, Inc. | Automated testing system |
KR102127931B1 (ko) * | 2018-07-20 | 2020-06-29 | 엘지전자 주식회사 | 로봇 청소기 및 그것의 제어방법 |
US11175147B1 (en) * | 2018-07-20 | 2021-11-16 | Digital Dream Labs, Llc | Encouraging and implementing user assistance to simultaneous localization and mapping |
US11460849B2 (en) | 2018-08-09 | 2022-10-04 | Cobalt Robotics Inc. | Automated route selection by a mobile robot |
US11082667B2 (en) | 2018-08-09 | 2021-08-03 | Cobalt Robotics Inc. | Contextual automated surveillance by a mobile robot |
JP1636154S (es) * | 2018-09-10 | 2019-07-16 | ||
JP1636153S (es) * | 2018-09-10 | 2019-07-16 | ||
USD890828S1 (en) * | 2018-09-19 | 2020-07-21 | Amazon Technologies, Inc. | Mobile conveyor unit |
TWI671610B (zh) | 2018-09-28 | 2019-09-11 | 財團法人工業技術研究院 | 自動引導車、自動引導車控制系統、以及自動引導車之控制方法 |
TWI679512B (zh) * | 2018-10-05 | 2019-12-11 | 東元電機股份有限公司 | 無人自走車 |
USD917591S1 (en) * | 2018-10-31 | 2021-04-27 | Hangzhou Hikrobot Technology Co., Ltd | Automatic guided transport vehicle |
US20230286545A1 (en) * | 2022-03-11 | 2023-09-14 | Apprentice FS, Inc. | System and method for autonomously delivering supplies to operators performing procedures within a facility |
USD890239S1 (en) * | 2018-11-14 | 2020-07-14 | Grey Orange Pte. Ltd. | Modular cross belt sortation machine |
WO2020102032A1 (en) | 2018-11-16 | 2020-05-22 | Particle Measuring Systems, Inc. | Particle sampling systems and methods for robotic controlled manufacturing barrier systems |
USD915486S1 (en) * | 2018-12-31 | 2021-04-06 | Toyota Research Institute, Inc. | Virtual mobility robot |
USD888791S1 (en) * | 2019-01-07 | 2020-06-30 | Lingdong Technology (Beijing) Co. Ltd | Logistic vehicle |
USD924291S1 (en) * | 2019-01-18 | 2021-07-06 | Tata Consultancy Services Limited | Industrial robot |
JP1646794S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646795S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646793S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646798S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646797S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646799S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646800S (es) * | 2019-03-14 | 2019-12-02 | ||
JP1646796S (es) * | 2019-03-14 | 2019-12-02 | ||
WO2020190877A1 (en) * | 2019-03-15 | 2020-09-24 | Nextshift Robotics, Inc. | Object picker |
USD892188S1 (en) * | 2019-04-05 | 2020-08-04 | IAM Robotics, LLC | Autonomous mobile robot |
US11623339B1 (en) * | 2019-05-16 | 2023-04-11 | Amazon Technologies, Inc. | Portable robotic manipulation systems |
CN111661550B (zh) * | 2019-06-24 | 2021-04-16 | 灵动科技(北京)有限公司 | 自动运输装置 |
CN110244743B (zh) * | 2019-07-03 | 2022-02-01 | 浙江大学 | 一种融合多传感器信息的移动机器人自主脱困方法 |
USD909442S1 (en) * | 2019-07-25 | 2021-02-02 | Lingdong Technology (Beijing) Co. Ltd | Logistic vehicle |
US11597104B2 (en) | 2019-07-31 | 2023-03-07 | X Development Llc | Mobile robot sensor configuration |
USD909441S1 (en) * | 2019-09-25 | 2021-02-02 | Lingdong Technology (Beijing) Co. Ltd | Logistic vehicle |
IT201900020248A1 (it) | 2019-11-04 | 2021-05-04 | Particle Measuring Systems S R L | Dispositivo di monitoraggio mobile per aree a contaminazione controllata |
JP7365200B2 (ja) * | 2019-11-08 | 2023-10-19 | 東京エレクトロン株式会社 | 監視システム |
JP7172964B2 (ja) * | 2019-11-25 | 2022-11-16 | トヨタ自動車株式会社 | 管理システム、管理方法、プログラム、自律移動装置 |
JP6825686B1 (ja) * | 2019-12-17 | 2021-02-03 | 株式会社安川電機 | 生産システム、生産方法、及びプログラム |
USD937920S1 (en) * | 2019-12-19 | 2021-12-07 | Toyota Research Institute, Inc. | Virtual mobility robot |
RU2736559C1 (ru) * | 2019-12-27 | 2020-11-18 | Автономная некоммерческая образовательная организация высшего образования «Сколковский институт науки и технологий» | Способ навигации мобильного сервисного робота |
TWI801797B (zh) | 2020-01-21 | 2023-05-11 | 美商粒子監測系統有限公司 | 撞擊器及用於對來自一流體流之生物顆粒取樣之方法 |
US11465843B2 (en) | 2020-02-25 | 2022-10-11 | Crown Equipment Corporation | Materials handling vehicle and goods storage and retrieval system comprising mobile storage carts, transporters, and materials handling vehicles |
US11465839B2 (en) | 2020-02-25 | 2022-10-11 | Crown Equipment Corporation | System comprising a multilevel warehouse racking system comprising tote transfer zones, materials handling vehicles, and transporters, and methods of use thereof |
WO2021178693A1 (en) * | 2020-03-04 | 2021-09-10 | Fort Robotics, Inc. | Secure wireless communication of robotic safety state information |
USD931922S1 (en) * | 2020-03-06 | 2021-09-28 | Grey Orange Pte. Ltd. | Modular sortation machine |
EP4122097A4 (en) * | 2020-03-20 | 2024-05-29 | Rosendin Electric, Inc. | ROBOT ARM COOPERATING WITH AN OFF-ROAD BASE VEHICLE |
USD968492S1 (en) * | 2020-05-29 | 2022-11-01 | Blue Ocean Robotics Aps | UV-light disinfection robot |
CN111426325B (zh) * | 2020-06-12 | 2020-11-27 | 北京云迹科技有限公司 | 定位方法及装置、机器人、存储介质及定位系统 |
US11947437B2 (en) | 2020-07-29 | 2024-04-02 | International Business Machines Corporation | Assignment of robotic devices using predictive analytics |
US12122367B2 (en) | 2020-09-10 | 2024-10-22 | Rockwell Automation Technologies, Inc. | Systems and methods for operating one or more self-driving vehicles |
US11479414B2 (en) * | 2020-09-11 | 2022-10-25 | Locus Robotics Corp. | Dynamic item putaway management using mobile robots |
US11724883B2 (en) | 2020-09-11 | 2023-08-15 | Locus Robotics Corp. | Presort system for executing robot-assisted putaway tasks |
USD963720S1 (en) * | 2020-09-15 | 2022-09-13 | Lingdong Technology (Beijing) Co.Ltd | Logistic vehicle |
USD970572S1 (en) * | 2020-12-09 | 2022-11-22 | Samsung Electronics Co., Ltd. | Service robot |
RU2769710C1 (ru) * | 2021-01-14 | 2022-04-05 | Автономная некоммерческая образовательная организация высшего образования «Сколковский институт науки и технологий» | Способ построения маршрута движения и управления движением мобильного сервисного робота в торговом помещении |
USD1018618S1 (en) * | 2021-02-09 | 2024-03-19 | Naver Labs Corporation | Goods delivery robot |
USD969894S1 (en) * | 2021-03-15 | 2022-11-15 | Shenzhen Pudu Technology Co., Ltd. | Robot |
US11500715B1 (en) | 2021-05-27 | 2022-11-15 | Fort Robotics, Inc. | Determining functional safety state using software-based ternary state translation of analog input |
JP1728875S (ja) * | 2021-05-31 | 2022-11-01 | 案内用ロボット | |
JP1726665S (ja) * | 2021-05-31 | 2022-10-05 | 案内ロボット | |
USD966382S1 (en) * | 2021-06-25 | 2022-10-11 | Ubtech North America Research And Development Center Corp | Robot |
USD963722S1 (en) * | 2021-06-28 | 2022-09-13 | Ubtech North America Research And Development Center Corp | Robot |
USD966383S1 (en) * | 2021-06-29 | 2022-10-11 | Ubtech North America Research And Development Center Corp | Robot |
US20220410392A1 (en) * | 2021-06-29 | 2022-12-29 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
WO2023278865A1 (en) | 2021-07-01 | 2023-01-05 | Fort Robotics, Inc. | Method for encoded diagnostics in a functional safety system |
USD988381S1 (en) * | 2021-10-20 | 2023-06-06 | Bear Robotics, Inc. | Robot |
WO2023069793A1 (en) * | 2021-10-24 | 2023-04-27 | Lucomm Technologies, Inc. | Robotic system |
USD1030833S1 (en) * | 2021-12-24 | 2024-06-11 | Lg Electronics Inc. | Delivery robot |
USD1042573S1 (en) * | 2022-04-14 | 2024-09-17 | Neural Foundry Limited | Healthcare robot |
WO2023205208A1 (en) | 2022-04-19 | 2023-10-26 | Fort Robotics, Inc. | Method for safety responses to security policy violations |
US12081202B2 (en) | 2022-05-05 | 2024-09-03 | Fort Robotics, Inc. | Feedback-diverse, dual-controller-architecture functional safety system |
DE102022206056A1 (de) * | 2022-06-15 | 2023-12-21 | BSH Hausgeräte GmbH | Organisationssystem für einen Haushalt |
US12086019B2 (en) | 2022-09-13 | 2024-09-10 | Fort Robotics, Inc. | Method for decreasing probability of undetected errors on large messages over a black channel |
CN116359932A (zh) * | 2023-03-27 | 2023-06-30 | 珠海创智科技有限公司 | 基于激光雷达传感器的障碍物距离反馈方法及装置 |
WO2024208916A1 (en) * | 2023-04-05 | 2024-10-10 | G.D S.P.A. | Module for robotic arm |
Family Cites Families (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0078357A1 (fr) | 1981-10-29 | 1983-05-11 | "Inter-Béton" société anonyme | Procédé de réalisation d'ouvrages, en particulier d'ouvrages de protection de berges et talus, et installation pour la mise en oeuvre de ce procédé |
GB8313338D0 (en) | 1983-05-14 | 1983-06-22 | Gen Electric Co Plc | Vehicle control |
US4674048A (en) | 1983-10-26 | 1987-06-16 | Automax Kabushiki-Kaisha | Multiple robot control system using grid coordinate system for tracking and completing travel over a mapped region containing obstructions |
US4763055A (en) | 1986-11-20 | 1988-08-09 | Westinghouse Electric Corp. | Digital robot control having high performance servo control system |
US5610815A (en) | 1989-12-11 | 1997-03-11 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
US5279672A (en) | 1992-06-29 | 1994-01-18 | Windsor Industries, Inc. | Automatic controlled cleaning machine |
US5324948A (en) | 1992-10-27 | 1994-06-28 | The United States Of America As Represented By The United States Department Of Energy | Autonomous mobile robot for radiologic surveys |
US5559696A (en) | 1994-02-14 | 1996-09-24 | The Regents Of The University Of Michigan | Mobile robot internal position error correction system |
JPH07281753A (ja) | 1994-04-15 | 1995-10-27 | Toshiba Corp | 移動ロボット |
US5764014A (en) | 1996-02-01 | 1998-06-09 | Mannesmann Dematic Rapistan Corp. | Automated guided vehicle having ground track sensor |
US6853877B1 (en) | 1996-09-06 | 2005-02-08 | Nomadic Technologies | Method and apparatus for mobile robot motion control |
US5931875A (en) | 1996-12-19 | 1999-08-03 | Caterpillar Inc. | System and method for managing a fleet of mobile machines for dumping at a plurality of dump points |
US5897595A (en) | 1996-12-19 | 1999-04-27 | Caterpillar Inc. | System and method for managing access of a fleet of mobile machines to a resource having multiple entry points |
AUPP299498A0 (en) | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
US6614427B1 (en) * | 1999-02-01 | 2003-09-02 | Steve Aubrey | Process for making stereoscopic images which are congruent with viewer space |
US6374155B1 (en) * | 1999-11-24 | 2002-04-16 | Personal Robotics, Inc. | Autonomous multi-platform robot system |
JP3701004B2 (ja) | 2000-03-29 | 2005-09-28 | 日本輸送機株式会社 | 無人フォークリフト |
SE0004466D0 (sv) | 2000-12-04 | 2000-12-04 | Abb Ab | Mobile Robot |
US6580246B2 (en) | 2001-08-13 | 2003-06-17 | Steven Jacobs | Robot touch shield |
US6667592B2 (en) | 2001-08-13 | 2003-12-23 | Intellibot, L.L.C. | Mapped robot system |
US6836701B2 (en) * | 2002-05-10 | 2004-12-28 | Royal Appliance Mfg. Co. | Autonomous multi-platform robotic system |
US6748292B2 (en) | 2002-07-15 | 2004-06-08 | Distrobot Systems, Inc. | Material handling method using autonomous mobile drive units and movable inventory trays |
US6895301B2 (en) | 2002-07-15 | 2005-05-17 | Distrobot Systems, Inc. | Material handling system using autonomous mobile drive units and movable inventory trays |
US7054716B2 (en) * | 2002-09-06 | 2006-05-30 | Royal Appliance Mfg. Co. | Sentry robot system |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US7015831B2 (en) | 2002-12-17 | 2006-03-21 | Evolution Robotics, Inc. | Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques |
WO2004106009A1 (ja) * | 2003-06-02 | 2004-12-09 | Matsushita Electric Industrial Co., Ltd. | 物品操作システムおよび方法、並びに物品管理システムおよび方法 |
US7026954B2 (en) | 2003-06-10 | 2006-04-11 | Bellsouth Intellectual Property Corporation | Automated parking director systems and related methods |
US7250907B2 (en) | 2003-06-30 | 2007-07-31 | Microsoft Corporation | System and methods for determining the location dynamics of a portable computing device |
WO2005015466A1 (ja) | 2003-08-07 | 2005-02-17 | Matsushita Electric Industrial Co., Ltd. | 生活支援システム及びその制御用プログラム |
US7591630B2 (en) | 2003-08-29 | 2009-09-22 | Casepick Systems, Llc | Materials-handling system using autonomous transfer and transport vehicles |
US20070061041A1 (en) * | 2003-09-02 | 2007-03-15 | Zweig Stephen E | Mobile robot with wireless location sensing apparatus |
US7117068B2 (en) | 2003-09-29 | 2006-10-03 | Quantum Corporation | System and method for library robotics positional accuracy using parallax viewing |
US7099745B2 (en) * | 2003-10-24 | 2006-08-29 | Sap Aktiengesellschaft | Robot system using virtual world |
US7854108B2 (en) * | 2003-12-12 | 2010-12-21 | Vision Robotics Corporation | Agricultural robot system and method |
WO2005074362A2 (en) | 2004-02-03 | 2005-08-18 | F. Robotics Aquisitions Ltd. | Robot docking station |
US7908040B2 (en) * | 2004-07-15 | 2011-03-15 | Raytheon Company | System and method for automated search by distributed elements |
WO2006013829A1 (ja) * | 2004-08-02 | 2006-02-09 | Matsushita Electric Industrial Co., Ltd. | 物品運搬用ロボット、物品運搬システム、及び物品運搬方法 |
JP4348276B2 (ja) * | 2004-11-02 | 2009-10-21 | 本田技研工業株式会社 | ロボット制御装置 |
US7650013B2 (en) | 2004-11-15 | 2010-01-19 | Mobilerobots Inc. | System and method for map and position-determination enhancement |
US9534899B2 (en) * | 2005-03-25 | 2017-01-03 | Irobot Corporation | Re-localization of a robot for slam |
JP4621073B2 (ja) | 2005-05-23 | 2011-01-26 | 本田技研工業株式会社 | ロボット制御装置 |
US7456596B2 (en) | 2005-08-19 | 2008-11-25 | Cisco Technology, Inc. | Automatic radio site survey using a robot |
ATE522330T1 (de) * | 2005-09-30 | 2011-09-15 | Irobot Corp | Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung |
CA2837477C (en) | 2005-10-14 | 2016-06-21 | Aethon, Inc. | Robotic ordering and delivery apparatuses, systems and methods |
JP4375320B2 (ja) * | 2005-10-27 | 2009-12-02 | 株式会社日立製作所 | 移動ロボット |
US7693654B1 (en) | 2005-11-23 | 2010-04-06 | ActivMedia Robotics/MobileRobots | Method for mapping spaces with respect to a universal uniform spatial reference |
US7912633B1 (en) | 2005-12-01 | 2011-03-22 | Adept Mobilerobots Llc | Mobile autonomous updating of GIS maps |
EP2544066B1 (en) * | 2005-12-02 | 2018-10-17 | iRobot Corporation | Robot system |
US20070140821A1 (en) * | 2005-12-19 | 2007-06-21 | Betzalel Robotics, Llc | Autonomous load/unload robot |
WO2008013568A2 (en) * | 2005-12-30 | 2008-01-31 | Irobot Corporation | Autonomous mobile robot |
US7873469B2 (en) | 2006-06-19 | 2011-01-18 | Kiva Systems, Inc. | System and method for managing mobile drive units |
US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US8271132B2 (en) | 2008-03-13 | 2012-09-18 | Battelle Energy Alliance, Llc | System and method for seamless task-directed autonomy for robots |
US8073564B2 (en) | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
US7894393B2 (en) | 2006-09-26 | 2011-02-22 | Via Telecom, Inc. | Systems and methods for determining slotted mode operation timing in a hybrid access terminal |
US8180486B2 (en) * | 2006-10-02 | 2012-05-15 | Honda Motor Co., Ltd. | Mobile robot and controller for same |
WO2009040777A2 (en) * | 2007-09-27 | 2009-04-02 | Koninklijke Philips Electronics, N.V. | Leader robot election in collaborative robot groups |
WO2009118043A1 (en) * | 2008-03-26 | 2009-10-01 | Genova Robot Srl | A method and a device for determining of a vehicle for the autonomous driving of a vehicle, in particular a robotized vehicle |
EP2303085B1 (en) * | 2008-04-24 | 2017-07-26 | iRobot Corporation | Application of localization, positioning & navigation systems for robotic enabled mobile products |
US8961695B2 (en) * | 2008-04-24 | 2015-02-24 | Irobot Corporation | Mobile robot for cleaning |
DE102008030546A1 (de) | 2008-06-27 | 2009-12-31 | Siemens Aktiengesellschaft | Steuerung für ein autonomes Förderfahrzeug und Verfahren zum Betrieb eines autonomen Förderfahrzeugs |
KR101021836B1 (ko) | 2008-10-09 | 2011-03-17 | 한국전자통신연구원 | 동적 행위 바인딩을 통한 다수 로봇의 협업 구현 시스템 및그 구현 방법 |
US8169596B2 (en) | 2009-08-17 | 2012-05-01 | Seegrid Corporation | System and method using a multi-plane curtain |
US8234010B2 (en) * | 2010-02-16 | 2012-07-31 | Deere & Company | Tethered robot positioning |
US9020636B2 (en) * | 2010-12-16 | 2015-04-28 | Saied Tadayon | Robot for solar farms |
SG11201400958XA (en) * | 2012-01-25 | 2014-04-28 | Adept Technology Inc | Autonomous mobile robot for handling job assignments in a physical environment inhabited by stationary and non-stationary obstacles |
ES2827192T3 (es) * | 2012-02-08 | 2021-05-20 | Omron Tateisi Electronics Co | Sistema de gestión de tareas para una flota de robots móviles autónomos |
US9527211B2 (en) * | 2013-05-10 | 2016-12-27 | Cnh Industrial America Llc | Control architecture for multi-robot system |
-
2013
- 2013-01-25 SG SG11201400958XA patent/SG11201400958XA/en unknown
- 2013-01-25 EP EP16182867.8A patent/EP3113055B1/en active Active
- 2013-01-25 SG SG11201400966UA patent/SG11201400966UA/en unknown
- 2013-01-25 US US14/370,372 patent/US9592609B2/en active Active
- 2013-01-25 US US14/001,266 patent/US8688275B1/en active Active
- 2013-01-25 ES ES13741038T patent/ES2812568T3/es active Active
- 2013-01-25 DK DK13741038.7T patent/DK2807526T3/da active
- 2013-01-25 DK DK13740713.6T patent/DK2791842T3/da active
- 2013-01-25 WO PCT/US2013/023154 patent/WO2013112842A1/en active Application Filing
- 2013-01-25 EP EP13741038.7A patent/EP2807526B1/en active Active
- 2013-01-25 PL PL13741038T patent/PL2807526T3/pl unknown
- 2013-01-25 EP EP13740713.6A patent/EP2791842B1/en active Active
- 2013-01-25 WO PCT/US2013/023250 patent/WO2013112907A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
DK2791842T3 (da) | 2019-09-30 |
US8688275B1 (en) | 2014-04-01 |
SG11201400966UA (en) | 2014-04-28 |
PL2807526T3 (pl) | 2020-11-30 |
WO2013112842A1 (en) | 2013-08-01 |
EP3113055A1 (en) | 2017-01-04 |
EP3113055B1 (en) | 2021-06-02 |
US20140350725A1 (en) | 2014-11-27 |
US20140074287A1 (en) | 2014-03-13 |
EP2791842A1 (en) | 2014-10-22 |
DK2807526T3 (da) | 2020-08-17 |
US9592609B2 (en) | 2017-03-14 |
EP2791842A4 (en) | 2016-01-20 |
WO2013112907A1 (en) | 2013-08-01 |
EP2807526B1 (en) | 2020-07-01 |
SG11201400958XA (en) | 2014-04-28 |
EP2807526A1 (en) | 2014-12-03 |
EP2791842B1 (en) | 2019-09-04 |
EP2807526A4 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2812568T3 (es) | Robot móvil autónomo para ejecutar asignaciones de trabajo en un entorno físico en el que hay obstáculos estacionarios y no estacionarios | |
ES2827192T3 (es) | Sistema de gestión de tareas para una flota de robots móviles autónomos | |
US10147069B2 (en) | System and method for piece picking or put-away with a mobile manipulation robot | |
US7894939B2 (en) | Robotic ordering and delivery apparatuses, systems and methods | |
US9881277B2 (en) | Wrist band haptic feedback system | |
US9471062B1 (en) | Vehicle operating method and system | |
JP2019219734A (ja) | 自律移動体、および自律移動体の制御プログラム | |
JP2021039450A (ja) | 設計支援システム、設計支援方法、及びプログラム | |
JP2019219735A (ja) | 自律移動体、および自律移動体の制御プログラム | |
US11914363B2 (en) | Mobile robot, transport system, method, and computer-readable medium | |
AU2021339659B2 (en) | Robot navigation management between zones in an environment | |
JP7494746B2 (ja) | 自律移動システム、自律移動方法及び自律移動プログラム | |
WO2017172347A1 (en) | Wrist band haptic feedback system | |
JP2022039254A (ja) | 荷物搬送システム、荷物搬送方法および荷物搬送プログラム |