CN112401747B - 通过人工智能避开卡住情况的机器人清洁器及其操作方法 - Google Patents
通过人工智能避开卡住情况的机器人清洁器及其操作方法 Download PDFInfo
- Publication number
- CN112401747B CN112401747B CN201911356686.7A CN201911356686A CN112401747B CN 112401747 B CN112401747 B CN 112401747B CN 201911356686 A CN201911356686 A CN 201911356686A CN 112401747 B CN112401747 B CN 112401747B
- Authority
- CN
- China
- Prior art keywords
- robot cleaner
- robot
- rotation angle
- processor
- condition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000013473 artificial intelligence Methods 0.000 title abstract description 110
- 238000004140 cleaning Methods 0.000 claims description 31
- 230000003139 buffering effect Effects 0.000 claims description 5
- 238000011017 operating method Methods 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 description 26
- 230000006870 function Effects 0.000 description 24
- 238000005516 engineering process Methods 0.000 description 22
- 230000003993 interaction Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 13
- 238000010801 machine learning Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 239000000126 substance Substances 0.000 description 7
- 239000010410 layer Substances 0.000 description 6
- 239000000428 dust Substances 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000035807 sensation Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 230000000946 synaptic effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000010407 vacuum cleaning Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/0075—Means for protecting the manipulator from its environment or vice versa
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
- B25J5/007—Manipulators mounted on wheels or on carriages mounted on wheels
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/12—Programme-controlled manipulators characterised by positioning means for manipulator elements electric
- B25J9/126—Rotary actuators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B40/00—Technologies aiming at improving the efficiency of home appliances, e.g. induction cooking or efficient technologies for refrigerators, freezers or dish washers
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
通过人工智能避开卡住情况的机器人清洁器及其操作方法。一种使用人工智能来避开卡住情况的机器人清洁器包括:感测单元,该感测单元被配置为检测所述机器人清洁器的所述卡住情况;驱动单元,该驱动单元被配置为驱动所述机器人清洁器;以及处理器,该处理器被配置为:确定所述机器人清洁器在通过所述感测单元检测到所述卡住情况时的旋转角度,控制所述驱动单元使得所述机器人清洁器旋转所确定的旋转角度,并且控制所述驱动单元使得所述机器人清洁器在旋转所述旋转角度之后倒退一定距离。
Description
技术领域
本公开涉及用于通过人工智能(AI)避开卡住情况的机器人清洁器。
背景技术
机器人清洁器是这样一种AI装置:它在用户没有操作的情况下在待清洁的区域中自驱动,以从地板上抽吸诸如灰尘这样的异物,由此自动执行清洁。
这种机器人清洁器通过识别空间的结构来设置清洁路径,并且沿着所设置的清洁路径执行清洁操作。另外,机器人清洁器根据预设时间表(schedule)或用户命令来执行清洁。
通常,这种机器人清洁器在待清洁的区域中检测与诸如家具或办公用品、墙壁等这样的障碍物的距离,根据这些距离映射待清洁的区域,并且控制左轮和右轮的驱动以执行避障操作。
然而,机器人清洁器不能主动地应对新的卡住情况,由此处于卡住情况。
因此,需要在机器人清洁器检测到卡住情况时快速地避开卡住情况的方法。
发明内容
本公开将提供能够在检测到卡住情况时在避开该卡住情况的同时行进的机器人清洁器。
本公开将提供能够在检测到卡住情况时行进以返回到卡住情况之前的情况的机器人清洁器。
根据本公开的实施方式的机器人清洁器能够确定机器人清洁器在检测到卡住情况时的旋转角度,控制驱动单元使得机器人清洁器旋转所确定的旋转角度,并且控制驱动单元使得机器人清洁器在旋转所述旋转角度之后倒退一定距离。
根据本公开的实施方式的机器人清洁器能够在检测到卡住情况的时间点测量机器人清洁器的当前行进角度,并且基于所测得的当前行进角度和在检测到卡住情况之前的多个时间点测得的多个行进角度来确定旋转角度。
附图说明
根据本文中以下给出的具体实施方式和附图,将能够更充分地理解本公开,具体实施方式和附图只是通过例示给出的,因此没有限制本公开,并且其中:
图1例示了根据本公开的实施方式的AI装置100。
图2例示了根据本公开的实施方式的AI服务器200。
图3例示了根据本公开的实施方式的AI系统1。
图4例示了根据本公开的实施方式的AI装置100。
图5是根据本公开的实施方式的AI装置100的立体图。
图6是根据本公开的实施方式的AI装置100的底视图。
图7A是根据本公开的另一实施方式的人工智能装置的侧视图,并且图7B是人工智能装置的底视图。
图8是例示了根据本公开的实施方式的操作机器人清洁器以避开卡住情况的方法的流程图。
图9A至图9E是例示了根据本公开的实施方式在机器人清洁器处识别并避开卡住情况的处理的视图。
图10和图11是例示了根据本公开的实施方式的当机器人清洁器识别到卡住情况时确定旋转角度的处理的视图。
具体实施方式
下文中,参照附图更详细地描述本公开的实施方式,并且不顾及附图符号,用相同的附图标记指派相同或相似的组件,因此省略对它们的重复描述。下面描述中使用的组件的后缀“模块”和“单元”在考虑到容易撰写说明书的情况下被指派或混合,它们本身并没有独特的含义或作用。在下面的描述中,将省略对公知功能或构造的详细描述,因为它们将以不必要的细节使本公开不清楚。另外,使用附图来帮助容易地理解本文中公开的实施方式,但是本公开的技术构思不限于此。应该理解,还包括本公开的概念和技术范围中包含的所有变形形式、等同形式或替代形式。
应该理解,在本文中使用术语“第一”和“第二”来描述各种组件,但是这些组件不应该受这些术语限制。这些术语只是用来将一个组件与其它组件区分开。
在下面的本公开中,当一个部件(或元件、器件等)被称为“连接”到另一部件(或元件、器件等)时,应该理解,这个部件可以“直接连接”到这另一个部件,或者经由中间部件(或元件、器件等)“电连接”到这另一个部件。还将理解,当一个部件被称为“直接连接”或“直接链接”到另一个部件时,这意指不存在中间部件。
<人工智能(AI)>
人工智能是指研究人工智能或用于制造人工智能的方法的领域,并且机器学习是指限定人工智能领域中处理的各种问题并研究用于解决各种问题的方法的领域。机器学习被限定为通过进行特定任务时稳定的体验来增强该特定任务的性能的算法。
人工神经网络(ANN)是机器学习中使用的模型,并且可能意指有解决问题能力的完整模型,该模型由通过突触连接形成网络的人工神经元(节点)构成。人工神经网络可以由不同的层中的神经元之间的连接模式、用于更新模型参数的学习过程以及用于生成输出值的激活函数来限定。
人工神经网络可以包括输入层、输出层以及可选的一个或更多个隐藏层。每一层都包括一个或更多个神经元,并且人工神经网络可以包括将神经元链接到神经元的突触。在人工神经网络中,每个神经元可以输出针对通过突触输入的输入信号、权重和偏转的激活函数的函数值。
模型参数是指通过学习确定的参数,并且包括突触连接的权重值和神经元的偏转。超参数意指在学习之前将在机器学习算法中设置的参数,并且包括学习速率、重复次数、最小批大小和初始化函数。
人工神经网络的学习目的可以是确定使损失函数最小化的模型参数。损失函数可以被用作在人工神经网络的学习过程中确定最佳模型参数的指标。
根据学习方法,机器学习可以被分为监督学习、无监督学习和强化学习。
监督学习可以是指在给出针对学习数据的标签的状态下学习人工神经网络的方法,并且该标签可以意指人工神经网络在学习数据被输入人工神经网络时必须推断出的正确答案(或结果值)。无监督学习可以是指在尚未给出针对学习数据的标签的状态下学习人工神经网络的方法。强化学习可以是指以下的学习方法:在特定环境中限定的代理学习以选择使每种状态下累积的补偿最大化的行为或行为序列。
被实现为在人工神经网络当中的包括多个隐藏层的深度神经网络(DNN)的机器学习也被称为深度学习,并且深度学习是机器学习的一部分。在下文中,机器学习用于意指深度学习。
<机器人>
机器人可以是指按其自身能力自动地处理或操作给定任务的机器。特别地,具有识别环境并执行自行确定和操作的功能的机器人可以被称为智能机器人。
根据使用目的或领域,机器人可以被分为工业机器人、医疗机器人、家用机器人、军事机器人等。
机器人包括可以包括致动器或电机的驱动单元,并且可以执行诸如移动机器人关节这样的各种物理操作。另外,可移动机器人可以在驱动单元中包括轮子、制动器、推进器等,并且可以通过驱动单元在地面上行驶或者在空中飞行。
<自动驾驶>
自动驾驶是指自己驾驶的技术,并且自动驾驶车辆是指在没有用户操作或用户最少操作的情况下行驶的车辆。
例如,自动驾驶可以包括用于在驾驶的同时保持车道的技术、诸如自适应巡航控制这样的用于自动调整速度的技术、用于沿着预定路径自动行驶的技术以及用于在设置了目的地时自动设置并行驶路线的技术。
车辆可以包括仅具有内燃发动机的车辆、同时具有内燃发动机和电动机的混合动力车辆以及仅具有电动机的电动车辆,并且不仅可以包括汽车,还可以包括火车、摩托车等。
此时,自动驾驶车辆可以被视为是具有自动驾驶功能的机器人。
<扩展现实(XR)>
扩展现实被统称为虚拟现实(VR)、增强现实(AR)和混合现实(MR)。VR技术仅将真实世界物体和背景作为CG图像提供,AR技术在真实物体图像上提供虚拟CG图像,并且MR技术是将虚拟物体在真实世界中混合并组合的计算机图形技术。
MR技术与AR技术的相似之处在于,真实物体和虚拟物体被一起示出。然而,在AR技术中,虚拟物体按补充真实物体的形式被使用,而在MR技术中,虚拟物体和真实物体以同等方式被使用。
XR技术可以被应用于头戴式显示器(HMD)、平视显示器(HUD)、移动电话、平板PC、膝上型计算机、台式机、TV、数字标牌等。应用了XR技术的装置可以被称为XR装置。
图1例示了根据本公开的实施方式的AI装置100。
AI装置(或AI设备)100可以由诸如TV、投影仪、移动电话、智能电话、台式计算机、笔记本、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航装置、平板PC、可穿戴装置、机顶盒(STB)、DMB接收器、无线电、洗衣机、冰箱、台式计算机、数字标牌、机器人、车辆等这样的固定装置或移动装置实现。
参照图1,AI装置100可以包括通信单元110、输入单元120、学习处理器130、感测单元140、输出单元150、存储器170和处理器180。
通信单元110可以使用有线/无线通信技术将数据发送到诸如其它AI装置100a至100e或AI服务器200这样的外部装置并且从这些外部装置接收数据。例如,通信单元110可以将传感器信息、用户输入、学习模型和控制信号发送到外部装置和从外部装置接收传感器信息、用户输入、学习模型和控制信号。
通信单元110所使用的通信技术包括GSM(全球移动通信系统)、CDMA(码分多址)、LTE(长期演进)、5G、WLAN(无线LAN)、Wi-Fi(无线保真)、BluetoothTM、RFID(射频识别)、红外数据协会(IrDA)、ZigBee、NFC(近场通信)等。
输入单元120可以获取各种类型的数据。
此时,输入单元120可以包括用于输入视频信号的相机、用于接收音频信号的麦克风以及用于从用户接收信息的用户输入单元。相机或麦克风可以被当作传感器,并且从相机或麦克风获取的信号可以被称为感测数据或传感器信息。
当通过使用学习模型获取输出时,输入单元120可以获取用于模型学习的学习数据和要使用的输入数据。输入单元120可以获取原始的输入数据。在这种情况下,处理器180或学习处理器130可以通过对输入数据进行预处理来提取输入特征。
学习处理器130可以通过使用学习数据来学习由人工神经网络构成的模型。被学习的人工神经网络可以被称为学习模型。学习模型可以被用于推断新输入数据而非学习数据的结果值,并且推断出的值可以被用作确定要执行特定操作的基础。
此时,学习处理器130可以与AI服务器200的学习处理器240一起执行AI处理。
此时,学习处理器130可以包括在AI装置100中集成或实现的存储器。另选地,可以使用存储器170、直接连接到AI装置100的外部存储器或保持在外部装置中的存储器来实现学习处理器130。
感测单元140可以通过使用各种传感器来获取关于AI装置100的内部信息、关于AI装置100的周围环境信息和用户信息中的至少一条。
感测单元140中所包括的传感器的示例可以包括接近传感器、照度传感器、加速度传感器、磁传感器、陀螺仪传感器、惯性传感器、RGB传感器、IR传感器、指纹识别传感器、超声波传感器、光学传感器、麦克风、激光雷达和雷达。
输出单元150可以生成与视觉感觉、听觉感觉或触觉感觉相关的输出。
此时,输出单元150可以包括用于输出时间信息的显示单元、用于输出听觉信息的扬声器以及用于输出触觉信息的触觉模块。
存储器170可以存储支持AI装置100的各种功能的数据。例如,存储器170可以存储由输入单元120获取的输入数据、学习数据、学习模型、学习历史等。
处理器180可以基于通过使用数据分析算法或机器学习算法确定或生成的信息来确定AI装置100的至少一个可执行操作。处理器180可以控制AI装置100的组件执行所确定的操作。
为此目的,处理器180可以请求、搜索、接收或利用学习处理器130或存储器170的数据。处理器180可以控制AI装置100的组件执行预测操作或者至少一个可执行操作当中的被确定是所期望的操作。
当需要与外部装置连接以执行所确定的操作时,处理器180可以生成用于控制外部装置的控制信号,并且可以将所生成的控制信号发送到对应的外部装置。
处理器180可以获取用户输入的意图信息,并且可以基于所获取的意图信息来确定用户的需求。
处理器180可以通过使用用于将语音输入转换为文本串的语音到文本(STT)引擎或用于获得自然语言意图信息的自然语言处理(NLP)引擎中的至少一种来获取与用户输入对应的意图信息。
STT引擎或NLP引擎中的至少一个可以被配置为其中至少一部分被根据机器学习算法学习的人工神经网络。STT引擎或NLP引擎中的至少一个可以是被学习处理器130学习的,或者可以被AI服务器200的学习处理器240学习,或者可以通过它们的分布式处理来学习。
处理器180可以收集包括AI装置100的操作内容或者用户对操作的反馈的历史信息,并且可以将所收集的历史信息存储在存储器170或学习处理器130中,或者将所收集的历史信息发送到诸如AI服务器200这样的外部装置。所收集的历史信息可以被用于更新学习模型。
处理器180可以控制AI装置100的组件中的至少一部分,以便驱动存储在存储器170中的应用程序。此外,处理器180可以将AI装置100中所包括的组件中的两个或更多个结合进行操作,以便驱动应用程序。
图2例示了根据本公开的实施方式的AI服务器200。
参照图2,AI服务器200可以是指通过使用机器学习算法的人工神经网络或者使用被学习的人工神经网络的装置。AI服务器200可以包括用于执行分布式处理的多个服务器,或者可以被限定为5G网络。此时,AI服务器200可以被包括作为AI装置100的部分配置,并且可以将AI处理的至少部分一起执行。
AI服务器200可以包括通信单元210、存储器230、学习处理器240、处理器260等。
通信单元210可以向诸如AI装置100这样的外部装置发送数据和从诸如AI装置100这样的外部装置接收数据。
存储器230可以包括模型存储单元231。模型存储单元231可以存储通过学习处理器240学习或被学习的模型(或人工神经网络231a)。
学习处理器240可以通过使用学习数据来学习人工神经网络231a。学习模型可以在被安装在人工神经网络的AI服务器200上的状态下使用,或者可以在被安装在诸如AI装置100这样的外部装置上的状态下使用。
学习模型可以以硬件、软件或者硬件和软件的组合来实现。如果学习模型中的全部或部分以软件实现,则构成学习模型的一条或更多条指令可以被存储在存储器230中。
处理器260可以通过使用学习模型来推断新输入数据的结果值,并且基于推断出的结果值来生成响应或控制命令。
图3例示了根据本公开的实施方式的AI系统1。
参照图3,在AI系统1中,AI服务器200、机器人100a、自动驾驶车辆100b、XR装置100c、智能电话100d或家用电器100e中的至少一个连接到云网络10。应用了AI技术的机器人100a、自动驾驶车辆100b、XR装置100c、智能电话100d或家用电器100e可以被称为AI装置100a至100e。
云网络10可以是指形成云计算基础设施的部分或存在于云计算基础设施中的网络。可以通过使用3G网络、4G或LTE网络或者5G网络来配置云网络10。
即,构成AI系统1的装置100a至100e和200可以通过云网络10彼此连接。特别地,装置100a至100e和200中的各个可以通过基站彼此通信,但是可以在不使用基站的情况下直接彼此通信。
AI服务器200可以包括执行AI处理的服务器和对大数据执行操作的服务器。
AI服务器200可以通过云网络10连接到构成AI系统1的AI装置(即,机器人100a、自动驾驶车辆100b、XR装置100c、智能电话100d或家用电器100e)中的至少一个,并且可以辅助所连接的AI装置100a至100e的AI处理的至少一部分。
此时,AI服务器200可以替代AI装置100a至100e根据机器学习算法学习人工神经网络,并且可以直接存储学习模型或者将学习模型发送至AI装置100a至100e。
此时,AI服务器200可以从AI装置100a至100e接收输入数据,可以通过使用学习模型来推断接收到的输入数据的结果值,可以基于推断出的结果值来生成响应或控制命令,并且可以将响应或控制命令发送到AI装置100a至100e。
另选地,AI装置100a至100e可以通过直接使用学习模型来推断输入数据的结果值,并且可以基于推断结果来生成响应或控制命令。
下文中,将描述应用了上述技术的AI装置100a至100e的各种实施方式。可以将图3中例示的AI装置100a至100e视为图1中例示的AI装置100的具体实施方式。
<AI+机器人>
应用了AI技术的机器人100a可以被实现为引导机器人、搬运机器人、清洁机器人、可穿戴机器人、娱乐机器人、宠物机器人、无人飞行机器人等。
机器人100a可以包括用于控制操作的机器人控制模块,并且机器人控制模块可以是指软件模块或用硬件实现软件模块的芯片。
机器人100a可以通过使用从各种传感器获取的传感器信息来获取关于机器人100a的状态信息,可以检测(识别)周围环境和物体,可以生成地图数据,可以确定路线和行进计划,可以确定对用户交互的响应或者可以确定操作。
机器人100a可以使用从激光雷达、雷达和相机当中的至少一个传感器获取的传感器信息,以便确定行进路线和行进计划。
机器人100a可以通过使用由至少一个人工神经网络构成的学习模型来执行上述操作。例如,机器人100a可以通过使用学习模型来识别周围环境和物体,并且可以使用所识别的周围信息或物体信息来确定操作。可以直接从机器人100a学习学习模型,或者可以从诸如AI服务器200这样的外部装置学习学习模型。
此时,机器人100a可以通过直接使用学习模型而生成结果来执行操作,但是可以将传感器信息发送到诸如AI服务器200这样的外部装置,并且可以接收所生成的结果来执行操作。
机器人100a可以使用地图数据、从传感器信息检测到的物体信息以及从外部设备获取的物体信息中的至少一个来确定行进路线和行进计划,并且可以控制驱动单元使得机器人100a沿着所确定的行进路线和行进计划行进。
地图数据可以包括关于布置在机器人100a移动的空间中的各种物体的物体识别信息。例如,地图数据可以包括关于诸如墙壁和门这样的固定物体以及诸如花粉和桌子这样的可移动物体。物体识别信息可以包括名称、类型、距离和位置。
另外,机器人100a可以通过基于用户的控制/交互控制驱动单元来执行操作或行进。此时,机器人100a可以获取由于用户的操作或言语表达而引起的交互的意图信息,并且可以基于所获取的意图信息来确定响应,并且可以执行操作。
<AI+自动驾驶>
应用了AI技术的自动驾驶车辆100b可以被实现为移动机器人、车辆、无人驾驶飞行器等。
自动驾驶车辆100b可以包括用于控制自动驾驶功能的自动驾驶控制模块,并且自动驾驶控制模块可以是指软件模块或用硬件实现软件模块的芯片。自动驾驶控制模块可以作为自动驾驶车辆100b的组件被包括在自动驾驶车辆100b中,但是可以用单独的硬件实现并且连接到自动驾驶车辆100b的外部。
自动驾驶车辆100b可以通过使用从各种传感器获取的传感器信息来获取关于自动驾驶车辆100b的状态信息,可以检测(识别)周围环境和物体,可以生成地图数据,可以确定路线和行进计划,或者可以确定操作。
如同机器人100a,自动驾驶车辆100b可以使用从激光雷达、雷达和相机当中的至少一个传感器获取的传感器信息来确定行进路线和行进计划。
特别地,自动驾驶车辆100b可以通过从外部装置接收传感器信息来识别由视野覆盖的区域或一定距离内的区域的环境或物体,或者可以从外部装置接收直接识别的信息。
自动驾驶车辆100b可以通过使用由至少一个人工神经网络构成的学习模型来执行上述操作。例如,自动驾驶车辆100b可以通过使用学习模型来识别周围环境和物体,并且可以通过使用识别到的周围信息或物体信息来确定行进移动线路。可以直接从自动驾驶车辆100b学习学习模型,或者可以从诸如AI服务器200这样的外部装置学习学习模型。
此时,自动驾驶车辆100b可以通过直接使用学习模型而生成结果来执行操作,但是可以将传感器信息发送到诸如AI服务器200这样的外部装置,并且可以接收所生成的结果来执行操作。
自动驾驶车辆100b可以使用地图数据、从传感器信息检测到的物体信息以及从外部设备获取的物体信息中的至少一个来确定行进路线和行进计划,并且可以控制驱动单元使得自动驾驶车辆100b沿着所确定的行进路线和行进计划行进。
地图数据可以包括关于布置在自动驾驶车辆100b行进的空间(例如,道路)中的各种物体的物体识别信息。例如,地图数据可以包括关于诸如路灯、岩石和建筑物这样的固定物体以及诸如车辆和行人这样的可移动物体的物体识别信息。物体识别信息可以包括名称、类型、距离和位置。
另外,自动驾驶车辆100b可以通过基于用户的控制/交互控制驱动单元来执行操作或行进。此时,自动驾驶车辆100b可以获取由于用户的操作或言语表达而引起的交互的意图信息,并且可以基于所获取的意图信息来确定响应,并且可以执行操作。
<AI+XR>
应用了AI技术的XR装置100c可以由头戴式显示器(HMD)、设置在车辆中的平视显示器(HUD)、电视、移动电话、智能电话、计算机、可穿戴装置、家用电器、数字标牌、车辆、固定机器人、移动机器人等实现。
XR装置100c可以分析从各种传感器或外部装置获取的三维点云数据或图像数据,生成三维点的位置数据和属性数据,获取关于周围空间或真实物体的信息,并且进行渲染以输出要输出的XR对象。例如,XR装置100c可以与所识别的对象对应地输出包括关于所识别的对象的附加信息的XR对象。
XR装置100c可以通过使用由至少一个人工神经网络构成的学习模型来执行上述操作。例如,XR装置100c可以通过使用学习模型来从三维点云数据或图像数据来识别真实物体,并且可以提供与所识别的真实物体对应的信息。可以直接从XR装置100c学习学习模型,或者可以从诸如AI服务器200这样的外部装置学习学习模型。
此时,XR装置100c可以通过直接使用学习模型而生成结果来执行操作,但是可以将传感器信息发送到诸如AI服务器200这样的外部装置,并且可以接收所生成的结果来执行操作。
<AI+机器人+自动驾驶>
应用了AI技术和自动驾驶技术的机器人100a可以被实现为引导机器人、搬运机器人、清洁机器人、可穿戴机器人、娱乐机器人、宠物机器人、无人飞行机器人等。
应用了AI技术和自动驾驶技术的机器人100a可以是指具有自动驾驶功能的机器人本身或者与自动驾驶车辆100b交互的机器人100a。
具有自动驾驶功能的机器人100a可以统称为在没有用户控制的情况下沿着给定移动线路自己移动或者通过自己确定移动线路自己移动的装置。
具有自动驾驶功能的机器人100a和自动驾驶车辆100b可以使用同样的感测方法以便确定移动路径和行进计划中的至少一个。例如,具有自动驾驶功能的机器人100a和自动驾驶车辆100b可以通过使用通过激光雷达、雷达和相机感测到的信息来确定行进路线和行进计划中的至少一个。
与自动驾驶车辆100b交互的机器人100a与自动驾驶车辆100b分开存在,并且可以执行与自动驾驶车辆100b的自动驾驶功能交互工作或者与登上自动驾驶车辆100b的用户交互工作的操作。
此时,与自动驾驶车辆100b交互的机器人100a可以通过为了自动驾驶车辆100b的利益获取传感器信息并将传感器信息提供给自动驾驶车辆100b或者通过获得传感器信息,生成周围环境信息或物体信息并且将信息提供给自动驾驶车辆100b来控制或辅助自动驾驶车辆100b的自动驾驶功能。
另选地,与自动驾驶车辆100b交互的机器人100a可以监视登上自动驾驶车辆100b的用户,或者可以通过与用户的交互来控制自动驾驶车辆100b的功能。例如,当确定驾驶员处于困倦状态时,机器人100a可以激活自动驾驶车辆100b的自主驾驶功能或者辅助对自动驾驶车辆100b的驱动单元的控制。由机器人100a控制的自动驾驶车辆100b的功能可以不仅包括自动驾驶功能,而且包括由自动驾驶车辆100b中设置的导航系统或音频系统所提供的功能。
另选地,与自动驾驶车辆100b交互的机器人100a可以在自动驾驶车辆100b外部向自动驾驶车辆100b提供信息或者辅助自动驾驶车辆100b的功能。例如,机器人100a可以向自动驾驶车辆100b提供诸如智能信号这样的包括信号信息等的交通信息,并且通过如同电动车辆的自动充电器一样与自动驾驶车辆100b交互来将充电器自动连接到充电端口。
<AI+机器人+XR>
应用了AI技术和XR技术的机器人100a可以被实现为引导机器人、搬运机器人、清洁机器人、可穿戴机器人、娱乐机器人、宠物机器人、无人飞行机器人、无人机等。
应用了XR技术的机器人100a可以是指经历XR图像中的控制/交互的机器人。在这种情况下,机器人100a可以与XR装置100c分开并且彼此交互工作。
当将在XR图像内经历控制/交互的机器人100a可以从包括相机的传感器获取传感器信息时,机器人100a或XR装置100c可以基于传感器信息生成XR图像,并且XR装置100c可以输出所生成的XR图像。机器人100a可以基于通过XR装置100c输入的控制信号或用户的交互进行操作。
例如,用户可以确认与通过诸如XR装置100c这样的外部装置远程交互工作的机器人100a的时间点对应的XR图像,通过交互来调整机器人100a的自动驾驶行进路径,控制操作或驱动,或者确认关于周围物体的信息。
<AI+自动驾驶+XR>
应用了AI技术和XR技术的自动驾驶车辆100b可以被实现为移动机器人、车辆、无人驾驶飞行器等。
应用了XR技术的自动驾驶车辆100b可以是指具有用于提供XR图像的装置的自动驾驶车辆或者经历XR图像中的控制/交互的自动驾驶车辆。特别地,经历XR图像中的控制/交互的自动驾驶车辆100b可以与XR装置100c区分开,并且彼此交互工作。
具有用于提供XR图像的装置的自动驾驶车辆100b可以从包括相机的传感器获取传感器信息,并且输出基于所获取的传感器信息而生成的XR图像。例如,自动驾驶车辆100b可以包括HUD以输出XR图像,由此向乘客提供真实物体或与画面中的物体对应的XR对象。
此时,当XR对象被输出到HUD时,可以输出XR对象的至少一部分,以便与乘客的视线所指向的真实物体交叠。此外,当将XR对象输出到设置在自动驾驶车辆100b中的显示器时,可以输出XR对象的至少一部分以便使其与画面中的物体交叠。例如,自动驾驶车辆100b可以输出与诸如车道、另一车辆、交通信号灯、交通路标、两轮车、行人、建筑物这样的物体对应的XR对象。
当将在XR图像内经历控制/交互的自动驾驶车辆100b可以从包括相机的传感器获取传感器信息时,自动驾驶车辆100b或XR装置100c可以基于传感器信息生成XR图像,并且XR装置100c可以输出所生成的XR图像。自动驾驶车辆100b可以基于通过诸如XR装置100c这样的外部装置输入的控制信号或者用户的交互进行操作。
图4例示了根据本公开的实施方式的AI装置100。
下面,将省略对图1的冗余重复。
参照图4,AI装置100还可以包括驱动单元160和清洁单元190。
输入单元120可以包括用于图像信号输入的相机121、用于接收音频信号输入的麦克风122以及用于从用户接收信息的用户输入单元123。
作为用户的控制命令,对输入单元120收集到的语音数据或图像数据进行分析和处理。
然后,输入单元120被用于输入从用户输入的图像信息(或信号)、音频信息(或信号)、数据或信息,并且移动终端100可以包括至少一个相机121,以便输入图像信息。
相机121对视频通话模式或拍摄模式下图像传感器所获得的诸如静止画面或视频这样的图像帧进行处理。处理后的图像帧可以显示在显示单元151上或者存储在存储器170中。
麦克风122将外部声音信号处理为电语音数据。可以根据正在移动终端100中执行的功能(或正在执行的应用程序)来不同地利用经处理的语音数据。此外,可以在麦克风122中实现用于去除在接收外部声音信号期间出现的噪声的各种噪声消除算法。
用户输入单元123用于接收来自用户的信息,并且当通过用户输入单元123输入信息时,控制器180可以按照与所输入的信息对应的方式控制移动终端100的操作。
用户输入单元123可以包括机械输入装置(或机械键,例如,在移动终端100的正面、背面或侧面上的按钮、圆顶开关、操纵轮和操纵开关)和触摸式输入装置。作为一个示例,触摸型输入装置可以包括通过软件处理显示在触摸屏上的虚拟键、软键或可视键,或者可以包括设置在除了触摸屏以外的部分处的触摸键。
感测单元140可以被称为传感器单元。
感测单元140可以包括深度传感器(未例示)和RGB传感器(未示例)中的至少一个,以获取针对AI机器人100的周围环境的图像数据。
深度传感器可以感测从发光单元(未例示)照射的光被反射并返回。深度传感器可以测量返回光透射的时间之间的差、返回光的量和与物体的距离。
深度传感器可以基于与物体的距离来获取关于AI机器人100的周围环境的二维图像或三维图像的信息。
RGB传感器可以获得关于AI机器人100周围的物体或用户的彩色图像的信息。关于彩色图像的信息可以是通过拍摄物体而获得的图像。RGB传感器可以被称为RGB相机。
在这种情况下,相机121可以是指RGB传感器。
输出单元150可以包括显示单元151、声音输出单元152、触觉模块153和光学输出模块154中的至少一个。
显示单元151可以显示(输出)在移动终端100中经过处理的信息。例如,显示单元151可以显示在移动终端100上运行的应用程序的执行画面信息或者根据此执行画面信息的用户接口(UI)和图形用户接口(GUI)信息。
显示单元151可以与触摸传感器形成有互层结构或者一体形成,使得可以实现触摸屏。此触摸屏可以用作同时提供移动终端100和用户之间的输入接口以及移动终端100和用户之间的输出接口的用户输入单元123。
声音输出模块152可以在呼叫信号接收或呼叫模式、记录模式、语音识别模式或广播接收模式下输出从无线通信单元110接收的或者存储在存储器170中的音频数据。
声音输出模块152可包括受话器、扬声器和蜂鸣器。
触觉模块153产生用户能够感觉到的各种触觉效果。触觉模块153产生的触觉效果的代表性示例是振动。
光学输出模块154通过使用移动终端100的光源的光来输出用于通知事件发生的信号。移动终端100中发生的事件的示例包括消息接收、呼叫信号接收、未接呼叫、警报、日程通知、电子邮件接收和通过应用进行的信息接收。
驱动单元160可以使AI机器人100在特定方向上移动或者移动一定距离。
驱动单元160可以包括用于驱动AI机器人100的左轮的左轮驱动单元161和用于驱动右轮的右轮驱动单元162。
左轮驱动单元161可以包括用于驱动左轮的电机,并且右轮驱动单元162可以包括用于驱动右轮的电机。
尽管驱动单元160如图4中一样通过示例的方式包括左轮驱动单元161和右轮驱动单元162,但是本公开不限于此。换句话说,根据实施方式,驱动单元160可以仅包括一个轮。
清洁单元190可以包括抽吸单元191和拖地单元192中的至少一个,以清洁AI装置100周围的地板。
抽吸单元191可以被称为真空清洁单元。
抽吸单元191可以抽吸空气,以抽吸AI装置100周围的诸如灰尘和垃圾这样的异物。
在这种情况下,抽吸单元191可以包括刷子等,以收集异物。
拖地单元192可以在拖把至少部分地与AI装置100的底表面接触的状态下擦拭地板。
在这种情况下,拖地单元192可以包括拖把和用于使拖把移动的拖把驱动单元。
在这种情况下,拖地单元192可以通过拖把驱动单元调整与地面的距离。换句话说,拖把驱动单元可以进行操作,使得当必须拖地时,拖把与地面接触。
图5是根据本公开的实施方式的AI装置100的立体图。
参照图5,AI机器人100可以包括清洁器主体50和相机121或感测单元140。
相机121或感测单元140可以向前照射光并接收被反射的光。
相机121或感测单元140可以使用接收到的光返回的时间之间的差来获取深度信息。
清洁器主体50可以包括除了参照图4描述的相机121和感测单元140之外的其余组件。
图6是根据本公开的实施方式的AI装置100的底视图。
参照图6,除了图4的组件之外,AI装置100还可以包括清洁器主体50、左轮61a、右轮61b和抽吸单元70。
左轮61a和右轮61b可以使得清洁器主体50能够行进。
左轮驱动单元161可以驱动左轮61a,并且右轮驱动单元162可以驱动右轮61b。
当左轮61a和右轮61b在驱动单元160的作用下旋转时,AI机器人100可以通过抽吸单元70抽吸诸如灰尘和垃圾这样的异物。
抽吸单元70设置在清洁器主体50中,以抽吸地面上的灰尘。
抽吸单元70还可以包括用于从被吸入的气流中收集异物的过滤器(未例示)以及用于积聚通过过滤器收集的异物的异物接收器(未例示)。
除了图4的组件之外,AI机器人100还可以包括拖地单元(未例示)。
拖地单元(未例示)可以包括湿布(未例示)以及用于使与地板接触的湿布旋转并且使湿布沿着所设定图案移动的电机(未例示)。
AI装置100可以用拖地单元(未例示)擦拭地板。
图7A是根据本公开的另一实施方式的人工智能装置的侧视图,并且图7B是人工智能装置的底视图。
下文中,人工智能装置100可以被称为机器人清洁器。
参照图7A和图7B,除了图4的组件之外,机器人清洁器100还可以包括缓冲器190。
缓冲器190可以设置在机器人清洁器100的主体的下端处。缓冲器190可以包括清洁单元190,清洁单元190包括图4中示出的抽吸单元191和拖地单元192。
缓冲器190可以减轻在机器人清洁器100行进的同时由于与障碍物或另一物体碰撞而施加到主体的冲击。
缓冲器190可以包括一个或更多个缓冲器传感器(未示出)。缓冲器传感器可以测量施加到缓冲器190的冲击量。
当检测到预定量或更多的冲击时,缓冲器传感器可以产生缓冲事件。缓冲事件可以用于检测机器人清洁器100的卡住情况。
另外,左轮61a和右轮61b中的每一个可以包括轮传感器。轮传感器可以是用于测量左轮或右轮的旋转量的光学传感器。通过轮传感器测得的左轮或右轮的旋转量可以用于计算机器人清洁器100的移动距离。
一个或更多个落差传感器(cliff sensor)193可以设置在缓冲器190的下表面处。落差传感器193使用被透射的红外信号和被反射的红外信号来测量地板与落差传感器193之间的距离。
当所测得的距离等于或大于一定距离时或者当在一定时间内未检测到被反射的红外信号时,处理器180可以确定机器人清洁器100到达楼梯或峭壁。
图8是例示了根据本公开的实施方式的操作机器人清洁器以避开卡住情况的方法的流程图。
机器人清洁器100的处理器180控制驱动单元160,使得机器人清洁器沿着清洁路径行进(S801)。
处理器180确定是否在机器人清洁器行驶的同时识别到卡住情况(S803)。
在一个实施方式中,处理器180可以通过设置在缓冲器190中的缓冲器传感器(未示出)来识别卡住情况。
卡住情况可以是指机器人清洁器100被障碍物卡住的情况。
当在预定时间期间通过缓冲器传感器测得的缓冲事件的数目等于或大于预定数目时,处理器180可以确定机器人清洁器100处于卡住情况。
当施加到缓冲器的冲击量等于或大于预定冲击量时,缓冲器传感器可以产生缓冲事件。处理器180可以基于所产生的缓冲事件的数目来识别卡住情况。
在确定识别到卡住情况时,处理器180确定机器人清洁器100的旋转角度(S805)。
当识别到机器人清洁器100的卡住情况时,处理器180可以确定机器人清洁器100的旋转角度,以使机器人清洁器100避开卡住情况。
处理器180可以基于在识别到卡住情况之前的时间点的行进角度和行进速度来确定旋转角度,以避开卡住情况。
处理器180可以基于在识别到卡住情况之前的多个单位时间间隔测得的多个行进角度和多个行进速度来确定旋转角度,以避开卡住情况。
下面,将详细地描述当识别到卡住情况时确定机器人清洁器100的旋转角度的处理。
处理器180控制驱动单元160,使得机器人清洁器旋转所确定的旋转角度(S807)。
处理器180可以控制左轮驱动单元161和右轮驱动单元162的操作,使得机器人清洁器旋转所确定的旋转角度。
处理器180可以使左轮61a和右轮61b旋转,使得机器人清洁器旋转所确定的旋转角度。
处理器180可以控制用于控制左轮61a的左轮电机和用于控制右轮61b的右轮电机的操作,使得机器人清洁器100旋转所确定的旋转角度。
处理器180可以控制驱动单元160,使得机器人清洁器反向旋转所确定的旋转角度,以在识别到卡住情况之前在一个方向上倒退。
此后,处理器180控制驱动单元160,使得机器人清洁器倒退一定距离(S809)。
处理器180可以控制驱动单元160,使得机器人清洁器100在旋转所确定的旋转角度之后向后移动一定距离。
机器人清洁器100倒退一定距离,以脱离卡住情况,避开障碍物。
在机器人清洁器100倒退一定距离之后,处理器180在机器人清洁器100的前方位置处生成虚拟壁(S811)。
虚拟壁可以是清洁地图上的用于防止机器人清洁器100将来再次进入的虚拟壁。虚拟壁对于人眼不是可见的,而是仅在机器人清洁器100的视野中可见。
在机器人清洁器100倒退一定距离之后,处理器180可以获取机器人清洁器100的前方位置并且将虚拟壁插置在所获取的前方位置处。
此后,处理器180控制驱动单元160,使得机器人清洁器沿着改变后的清洁路径行进(S813)。
在一个实施方式中,改变后的清洁路径可以是从预定的清洁路径中将被识别到卡住情况的区域中所包括的路径排除在外的路径。
即,处理器180可以将现有的清洁路径改变成新的清洁路径,以防止机器人清洁器100处于卡住情况。
根据本公开的实施方式,机器人清洁器100可以自动地识别卡住情况并且迅速避开卡住情况。因此,能够减少机器人清洁器100的功耗并提高清洁性能。
图9A至图9E是例示了根据本公开的实施方式的在机器人清洁器处识别并避开卡住情况的处理的视图。
参照图9A至图9E,示出了通过同时定位和映射(SLAM)创建的清洁地图900。
在清洁地图900上示出了用于识别清洁地图900上的机器人清洁器100的机器人清洁器标识符901的清洁路径910。
图9A示出了当机器人清洁器100沿着清洁路径910行进的同时识别障碍物903造成的卡住情况。
处理器180可以使用设置在机器人清洁器100的缓冲器190中的缓冲器传感器来识别卡住情况。
当在预定时间期间通过缓冲器传感器检测到的缓冲事件的数目等于或大于预定数目时,处理器180可以识别到机器人清洁器100处于卡住情况。
当识别到卡住情况时,处理器180可以确定机器人清洁器100的旋转角度(a度)。
处理器180可以将在识别到卡住情况之前的第一行进方向911与当识别到卡住情况时的第二行进方向913之间的角度确定为旋转角度。下面,将详细地描述确定旋转角度的方法。
处理器180可以使机器人清洁器100旋转所确定的旋转角度(a度)。参照图9B,机器人清洁器标识符901朝向识别到卡住情况之前的方向旋转所确定的旋转角度(a度)。
此后,处理器180可以控制驱动单元160使机器人清洁器100倒退一定距离。参照图9C,机器人清洁器标识符901倒退一定距离。
这里,所述一定距离可以是机器人清洁器偏离障碍物的距离。
在机器人清洁器100倒退一定距离之后,处理器180可以在清洁地图900上插置虚拟壁930,如图9D中所示。在机器人清洁器100倒退一定距离之后,处理器180可以在清洁地图900上的机器人清洁器100的前方位置处插置虚拟壁930。
在另一示例中,在使机器人清洁器100倒退一定距离之后,处理器180可以将虚拟壁930插置在包括将障碍物903的中心与机器人清洁器100的行进路径相连接的线的区域中。
可以插置虚拟壁930,以防止机器人清洁器100将来处于卡住情况。
能够防止机器人清洁器100的进入路径由于在清洁地图900上反映的虚拟壁930而被阻塞,由此防止机器人清洁器100将来处于卡住情况。
此外,处理器180可以沿着在将虚拟壁930反映到清洁地图900上之后的新的行进路径驱动机器人清洁器100。
即,如图9E中所示,机器人清洁器标识符901可以在虚拟壁930的相反方向上行进。
接下来,将描述在机器人清洁器识别到卡住情况时确定旋转角度以避开卡住情况的处理。
图10和图11是例示了根据本公开的实施方式的当机器人清洁器识别到卡住情况时确定旋转角度的处理的视图。
参照图11,示出了指示机器人清洁器100随时间推移的行进角度的第一曲线图1110和指示机器人清洁器100随时间推移的行进速度的第二曲线图1130。
机器人清洁器100可以测量每单位时间的机器人清洁器100的行进角度和行进速度。机器人清洁器100可以使用参考点以及左轮或右轮的旋转方向来测量行进角度。参考点可以是天花板的点或地板的点,但是这仅仅是示例。
机器人清洁器100可以使用每单位时间通过车轮传感器测得的左轮或右轮的旋转量来测量机器人清洁器100的行进速度。
该单位时间可以是1秒,但是这仅仅是示例。
参照图10,假定在机器人清洁器标识符901在清洁地图900上沿着行进路径910行进的同时,在第一时间点t1至第十时间点t10当中的第十时间点t10识别到机器人清洁器100的卡住情况。
处理器180可以获取机器人清洁器100在识别到卡住情况时的第十时间点t10的行进角度(当前行进角度)。
同时,处理器180可以获取第十时间点t10之前的过去时间点的行进角度。
处理器180可以使用过去时间点的行进角度的平均值和当前行进角度来计算旋转角度,以避开卡住情况。
处理器180可以如下式1中所示地计算旋转角度。
[式1]
即,可以通过从当前行进角度θn减去在过去N个时间点测得的行进角度θn-1至θn-N的平均角度来得到旋转角度θdiff。
这里,N可以是5,但是这仅仅是示例。
然而,在采样的N个时间点中的每个时间点,机器人清洁器100的行进速度应该等于或大于阈值速度。
机器人清洁器100的行进速度等于或大于采样的过去时间点的阈值速度的原因在于,因为当机器人清洁器100的行进速度小于阈值速度时,机器人清洁器100已经处于卡住情况或者停留在固定位置,因此难以使用这些时间点的旋转角度来确定用于避开的旋转角度。
例如,当采样的时间点的数目为5时,检查在识别到卡住情况的第十时间点t10之前的第五时间点t5至第九时间点t9。
参照第二曲线图1130,从第五时间点t5至第八时间点t8的机器人清洁器100的行进速度等于或大于阈值速度,但是第九时间点t9的行进速度小于阈值速度。
因此,第九时间点t9不被用作用于计算旋转角度的时间点。
由于即使在第三时间点t3和第四时间点t4,机器人清洁器100的行进速度也小于阈值速度,因此第三时间点t3和第四时间点t4不被用作用于计算旋转角度的样本。
结果,由于第二时间点的行进速度等于或大于阈值速度,因此处理器180可以将第二时间点t2和第五时间点t5至第八时间点t8的行进角度确定为采样目标。
处理器180可以将通过从当前行进角度减去第二时间点t2和第五时间点t5至第八时间点t8的行进角度的平均角度而得到的值确定为旋转角度。
处理器180可以控制驱动单元160使机器人清洁器反向旋转预定旋转角度。
例如,当当前行进角度为45度并且采样时间点的行进角度的平均角度为0度时,处理器180可以控制驱动单元160使机器人清洁器100反向旋转45度(45-0)。
根据本公开的实施方式,当检测到机器人清洁器100的卡住情况时,能够改变机器人清洁器100的旋转角度以迅速避开卡住情况。
因此,能够防止机器人清洁器100不必要地浪费电力并且极大地提高应对卡住情况的能力。
根据本公开的实施方式,即使当检测到新的卡住情况时,机器人清洁器也能够行进以迅速避开卡住情况。
根据本公开的实施方式,随着机器人清洁器按照返回到在识别到卡住情况之前的行进状态的方式行进,能够防止不必要的电力消耗并积极地应对卡住情况。
相关申请的交叉引用
本申请要求于2019年8月23日在韩国提交的韩国专利申请No.10-2019-0103426的优先权,该韩国专利申请的全部内容以引用方式并入本文中。
Claims (9)
1.一种机器人清洁器,该机器人清洁器包括:
感测单元,该感测单元被配置为检测所述机器人清洁器的卡住情况;
驱动单元,该驱动单元被配置为驱动所述机器人清洁器;以及
处理器,该处理器被配置为:
确定所述机器人清洁器在通过所述感测单元检测到所述卡住情况时的旋转角度,
控制所述驱动单元使得所述机器人清洁器旋转所确定的旋转角度,
控制所述驱动单元使得所述机器人清洁器在旋转所述旋转角度之后倒退一定距离,并且
在所述机器人清洁器倒退所述一定距离之后,在所述机器人清洁器的前方位置处生成虚拟壁并且将所述虚拟壁反映在清洁地图上,
其中,该处理器还被配置为:
测量在检测到所述卡住情况之前的多个时间点处测得的多个行进角度,
在检测到所述卡住情况的时间点测量所述机器人清洁器的当前行进角度,
获得通过从所述当前行进角度减去所述多个行进角度的平均角度而得到的值,并且
将所述值确定为所述机器人清洁器的所述旋转角度。
2.根据权利要求1所述的机器人清洁器,其中,在所述多个时间点测得的所述机器人清洁器的各个行进速度等于或大于阈值速度。
3.根据权利要求1所述的机器人清洁器,
其中,所述感测单元包括缓冲器传感器,所述缓冲器传感器被配置为测量施加到设置在所述机器人清洁器中的缓冲器的冲击量,并且在所述冲击量等于或大于预定冲击量时产生缓冲事件,并且
其中,当所述缓冲事件的数目等于或大于预定数目时,所述处理器确定所述机器人清洁器处于所述卡住情况。
4.根据权利要求1所述的机器人清洁器,
其中,所述驱动单元包括用于驱动左轮的左轮电机和用于驱动右轮的右轮电机,并且
其中,所述处理器控制所述左轮电机和所述右轮电机,使得所述机器人清洁器旋转所确定的旋转角度。
5.根据权利要求1所述的机器人清洁器,其中,所述处理器控制所述驱动单元使得所述机器人清洁器反向旋转所确定的旋转角度。
6.一种操作机器人清洁器的方法,该方法包括以下步骤:
在所述机器人清洁器行进的同时检测卡住情况;
确定所述机器人清洁器在检测到所述卡住情况时的旋转角度;
使所述机器人清洁器旋转所确定的旋转角度;
在使所述机器人清洁器旋转所述旋转角度之后,使所述机器人清洁器倒退一定距离,以及
在所述机器人清洁器倒退所述一定距离之后,在所述机器人清洁器的前方位置处生成虚拟壁并且将所述虚拟壁反映在清洁地图上,
其中,所述方法还包括以下步骤:
测量在检测到所述卡住情况之前的多个时间点处测得的多个行进角度,
在检测到所述卡住情况的时间点测量所述机器人清洁器的当前行进角度,
获得通过从所述当前行进角度减去所述多个行进角度的平均角度而得到的值,并且
将所述值确定为所述机器人清洁器的所述旋转角度。
7.根据权利要求6所述的方法,其中,在所述多个时间点测得的所述机器人清洁器的各个行进速度等于或大于阈值速度。
8.根据权利要求6所述的方法,其中,检测所述卡住情况的步骤包括以下步骤:
测量施加到设置在所述机器人清洁器中的缓冲器的冲击量;
当所述冲击量等于或大于预定冲击量时,产生缓冲事件;以及
当所述缓冲事件的数目等于或大于预定数目时,确定所述机器人清洁器处于所述卡住情况。
9.根据权利要求6所述的方法,其中,使所述机器人清洁器旋转的步骤包括以下步骤:使所述机器人清洁器反向旋转所确定的旋转角度。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2019-0103426 | 2019-08-23 | ||
KR1020190103426A KR20190105214A (ko) | 2019-08-23 | 2019-08-23 | 인공 지능을 통해 구속 상황을 회피하는 로봇 청소기 및 그의 동작 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112401747A CN112401747A (zh) | 2021-02-26 |
CN112401747B true CN112401747B (zh) | 2022-08-12 |
Family
ID=68067249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911356686.7A Active CN112401747B (zh) | 2019-08-23 | 2019-12-25 | 通过人工智能避开卡住情况的机器人清洁器及其操作方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11269342B2 (zh) |
EP (1) | EP3782524B1 (zh) |
KR (1) | KR20190105214A (zh) |
CN (1) | CN112401747B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102448287B1 (ko) * | 2017-08-08 | 2022-09-28 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
DE102019125469A1 (de) * | 2019-09-23 | 2021-03-25 | Hako Gmbh | Verfahren zum Reinigen einer Bodenfläche mit einer Bodenreinigungsmaschine |
CN111197987A (zh) * | 2020-02-26 | 2020-05-26 | 深圳市银星智能科技股份有限公司 | 一种困境识别方法、装置以及计算机存储介质 |
KR102348963B1 (ko) * | 2020-03-10 | 2022-01-11 | 엘지전자 주식회사 | 로봇 청소기 및 그 제어 방법 |
US11703881B2 (en) * | 2020-03-19 | 2023-07-18 | Logistics And Supply Chain Multi Tech R&D Centre Limited | Method of controlling a guide machine and a navigation system |
CN113878575B (zh) * | 2021-09-28 | 2023-03-14 | 深圳中智永浩机器人有限公司 | 轮式底盘过坎处理方法、装置、计算机设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102768532A (zh) * | 2011-04-28 | 2012-11-07 | 苏州宝时得电动工具有限公司 | 自动工作系统、自动行走设备及其转向方法 |
CN105739503A (zh) * | 2016-04-13 | 2016-07-06 | 上海物景智能科技有限公司 | 一种行走机器人拐弯调头的方法及控制设备 |
KR20180046499A (ko) * | 2016-10-28 | 2018-05-09 | 삼성전자주식회사 | 로봇 청소기 및 그 구동 방법 |
CN109875470A (zh) * | 2019-01-31 | 2019-06-14 | 科沃斯机器人股份有限公司 | 脱困方法、设备及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100711972B1 (ko) | 2004-12-08 | 2007-05-02 | 주식회사 유진로봇 | 청소용 로봇 및 그 청소방법 |
US8306659B2 (en) | 2006-12-06 | 2012-11-06 | F Robotics Acquisitions Ltd. | Autonomous robot |
JP2008242908A (ja) | 2007-03-28 | 2008-10-09 | Matsushita Electric Ind Co Ltd | 自律走行装置およびこの装置を機能させるためのプログラム |
US8855914B1 (en) * | 2012-08-31 | 2014-10-07 | Neato Robotics, Inc. | Method and apparatus for traversing corners of a floored area with a robotic surface treatment apparatus |
KR102020215B1 (ko) | 2013-03-23 | 2019-09-10 | 삼성전자주식회사 | 로봇 청소기 및 로봇 청소기의 제어방법 |
KR102083188B1 (ko) * | 2013-07-29 | 2020-03-02 | 삼성전자주식회사 | 청소 로봇 및 그 제어 방법 |
US9480380B2 (en) | 2013-12-04 | 2016-11-01 | Samsung Electronics Co., Ltd. | Cleaning robot and control method thereof |
JP6453583B2 (ja) | 2014-08-20 | 2019-01-16 | 東芝ライフスタイル株式会社 | 電気掃除機 |
JP6698324B2 (ja) | 2015-12-04 | 2020-05-27 | 株式会社ジャパンディスプレイ | 表示装置および入力装置 |
TWI689387B (zh) | 2016-05-17 | 2020-04-01 | 南韓商Lg電子股份有限公司 | 行動機器人 |
KR102235270B1 (ko) * | 2017-01-18 | 2021-04-01 | 엘지전자 주식회사 | 이동 로봇 시스템 및 그 제어방법 |
KR102448287B1 (ko) | 2017-08-08 | 2022-09-28 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
KR102021833B1 (ko) | 2017-09-26 | 2019-09-17 | 엘지전자 주식회사 | 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 |
TWI698211B (zh) * | 2019-01-15 | 2020-07-11 | 燕成祥 | 清潔機器人之全浮動式接觸變向裝置 |
-
2019
- 2019-08-23 KR KR1020190103426A patent/KR20190105214A/ko not_active Application Discontinuation
- 2019-09-10 US US16/566,688 patent/US11269342B2/en active Active
- 2019-12-03 EP EP19213046.6A patent/EP3782524B1/en active Active
- 2019-12-25 CN CN201911356686.7A patent/CN112401747B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102768532A (zh) * | 2011-04-28 | 2012-11-07 | 苏州宝时得电动工具有限公司 | 自动工作系统、自动行走设备及其转向方法 |
CN105739503A (zh) * | 2016-04-13 | 2016-07-06 | 上海物景智能科技有限公司 | 一种行走机器人拐弯调头的方法及控制设备 |
KR20180046499A (ko) * | 2016-10-28 | 2018-05-09 | 삼성전자주식회사 | 로봇 청소기 및 그 구동 방법 |
CN109875470A (zh) * | 2019-01-31 | 2019-06-14 | 科沃斯机器人股份有限公司 | 脱困方法、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11269342B2 (en) | 2022-03-08 |
EP3782524B1 (en) | 2024-04-10 |
US20200019181A1 (en) | 2020-01-16 |
CN112401747A (zh) | 2021-02-26 |
EP3782524A1 (en) | 2021-02-24 |
KR20190105214A (ko) | 2019-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102298582B1 (ko) | 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법 | |
KR102305206B1 (ko) | 인공 지능을 통해 바닥 상황을 고려하여 청소하는 로봇 청소기 및 그 방법 | |
US11625508B2 (en) | Artificial intelligence device for guiding furniture placement and method of operating the same | |
CN112401747B (zh) | 通过人工智能避开卡住情况的机器人清洁器及其操作方法 | |
US20200008639A1 (en) | Artificial intelligence monitoring device and method of operating the same | |
US11330951B2 (en) | Robot cleaner and method of operating the same | |
KR102286137B1 (ko) | 공기 청정기의 배치 위치를 가이드하는 인공 지능 장치 및 그의 동작 방법 | |
CN112438664B (zh) | 通过人工智能识别卡堵情形的机器人清洁器及其操作方法 | |
KR102281602B1 (ko) | 사용자의 발화 음성을 인식하는 인공 지능 장치 및 그 방법 | |
US11580385B2 (en) | Artificial intelligence apparatus for cleaning in consideration of user's action and method for the same | |
US11607801B2 (en) | Artificial intelligence robot for managing movement of object using artificial intelligence and method of operating the same | |
US11653805B2 (en) | Robot cleaner for performing cleaning using artificial intelligence and method of operating the same | |
US11210567B2 (en) | Artificial intelligence apparatus and method for recognizing object | |
US11318614B2 (en) | Robot cleaner and operating method thereof | |
KR20190094311A (ko) | 인공 지능 로봇 및 그의 동작 방법 | |
US11550328B2 (en) | Artificial intelligence apparatus for sharing information of stuck area and method for the same | |
US11464380B2 (en) | Artificial intelligence cleaner and operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |