KR20100034105A - Object recognition method of robot - Google Patents
Object recognition method of robot Download PDFInfo
- Publication number
- KR20100034105A KR20100034105A KR1020080093054A KR20080093054A KR20100034105A KR 20100034105 A KR20100034105 A KR 20100034105A KR 1020080093054 A KR1020080093054 A KR 1020080093054A KR 20080093054 A KR20080093054 A KR 20080093054A KR 20100034105 A KR20100034105 A KR 20100034105A
- Authority
- KR
- South Korea
- Prior art keywords
- histogram
- similarity
- patch
- color
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000006073 displacement reaction Methods 0.000 claims description 54
- 230000002093 peripheral effect Effects 0.000 claims description 6
- 230000006399 behavior Effects 0.000 description 12
- 238000011156 evaluation Methods 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
본 발명은 로봇의 물체 인식 방법에 관한 것으로서, 더욱 상세하게는, 목표 물건의 영상을 다수의 영역으로 구분하여 선택된 다수의 패치 영상을 기초로, 주변을 촬영하여 획득한 주변 영상의 프레임에서 상기 목표 물건을 탐색하는 로봇의 물체 인식 방법에 있어서, (a) 상기 프레임의 부분 영역에 대한 컬러 히스토그램과 상기 다수의 패치 영상의 컬러 히스토그램을 비교하여 유사도를 수치화하는 단계; (b) 상기 컬러 히스토그램의 유사도와 미리 결정된 기준치를 비교하여, 상기 패치 영상별 상기 컬러 히스토그램이 유사한 상기 부분 영역을 1차 후보 영역으로 결정하는 단계; (c) 상기 1차 후보 영역의 컬러 동시발생 히스토그램과 상기 패치 영상의 컬러 동시발생 히스토그램을 비교하여 유사도를 수치화하는 단계; 및 (d) 상기 패치 영상별 상기 컬러 동시발생 히스토그램의 유사도가 가장 큰 1차 후보 영역을 2차 후보 영역으로 결정하는 단계를 포함하는 것을 특징으로 하는 로봇의 물체 인식 방법에 관한 것이다.The present invention relates to a method for recognizing an object of a robot, and more particularly, based on a plurality of patch images selected by dividing an image of a target object into a plurality of areas, the target in the frame of the surrounding image obtained by photographing the surroundings. An object recognition method of a robot for searching for an object, the method comprising: (a) comparing the color histogram of a partial region of the frame with the color histogram of the plurality of patch images to quantify the similarity; (b) comparing the similarity between the color histogram and a predetermined reference value to determine the partial region having a similar color histogram for each patch image as a primary candidate region; (c) comparing the color coincident histogram of the first candidate region with the color coincident histogram of the patch image to quantify the similarity; And (d) determining a primary candidate region having the largest similarity of the color coincident histogram for each patch image as a secondary candidate region.
본 발명에 의해 로봇에 있어 물체 인식의 속도와 정확도가 크게 향상되고, 동시에 로봇의 연속적임 행동이 보장될 수 있다. 또한, 다양한 크기의 패치 영상을 기준으로 물체를 탐색하므로 인식률을 더욱 높일 수 있으며, 목표하는 물체가 가려진 경우에도 신속한 물체 인식이 가능하다.The present invention greatly improves the speed and accuracy of object recognition in the robot, and at the same time ensures the continuous behavior of the robot. In addition, since the object is searched based on patch images of various sizes, the recognition rate may be further increased, and even when the target object is covered, the object may be quickly recognized.
따라서, 본 발명은 서비스 로봇에 요구되는 물체 인식의 신속성, 정확성, 로봇 동작의 연속성 등을 보장할 수 있다.Therefore, the present invention can ensure the speed, accuracy, continuity of robot operation, etc. of object recognition required for the service robot.
Description
본 발명은 로봇의 물체 인식 방법에 관한 것으로서, 더욱 상세하게는, 로봇이 미리 저장하고 있는 목표 물건의 영상을 기초로, 주변을 촬영한 영상으로부터 목표 물건을 찾는 로봇의 물체 인식 방법에 관한 것이다.The present invention relates to a method for recognizing an object of a robot, and more particularly, to a method for recognizing a object of a robot, which finds a target object from an image of surroundings, based on an image of a target object previously stored by the robot.
로봇의 물체 인식 능력은 로봇이 제공할 수 있는 서비스의 질을 결정하는 중요한 열쇠다. The robot's ability to recognize objects is the key to determining the quality of service that a robot can provide.
종래 산업 로봇과 같이, 반복적이고 단순한 작업을 수행하는 로봇에게 고차원적인 물체 인식 능력이 요구되지 않았지만, 예컨대 앞으로 가정에서 사람에게 직접적인 서비스를 제공할 것으로 기대되는 서비스 로봇은 정확하고 신속한 물체 인식 능력이 필수적인 것으로 여겨지고 있다.Like conventional industrial robots, robots that perform repetitive and simple tasks did not require high-level object recognition capabilities, but service robots that are expected to provide direct services to people in the future, for example, require accurate and rapid object recognition capabilities. It is believed to be.
최근 개발되고 있는 로봇도 이러한 추세에 맞추어 비전 센서를 이용해 여러 가지 명령을 수행하도록 디자인되었다. 예컨대, 사람이 물건을 찾아오라고 지시하면, 로봇은 비전 센서를 이용하여 열심히 물건을 찾고, 물건을 가지고 명령한 사람 에게 옴으로써 명령을 수행하도록 디자인되어 있다. Recently developed robots are also designed to perform various commands using vision sensors. For example, when a person instructs a person to retrieve an object, the robot is designed to perform a command by using the vision sensor to find the object in eagerness and bring it to the person who orders it.
이 예에서, 로봇이 지시한 물건을 정확히 찾지 못했다면 혹은 물건을 찾는데 지나치게 오랜 시간이 걸렸다면, 로봇이 제공하는 서비스는 실망 자체일 것이다. 따라서, 로봇의 연속적인 행동과 더불어 물체 인식의 정확성 및 신속성은 로봇의 서비스 품질을 좌우하는 중요한 요소로 여겨지고 있다.In this example, if the robot didn't find exactly what it was pointing to, or if it took too long to find it, the service it provides would be disappointing. Therefore, the accuracy and speed of object recognition along with the continuous behavior of the robot is considered to be an important factor in determining the service quality of the robot.
이에, 많은 연구자가 강인한 물체 인식을 수행할 수 있도록 하기 위해 많은 노력을 경주해 왔다. Therefore, many researchers have made great efforts to perform robust object recognition.
먼저, 특징점 자체를 강인하게 하기 위한 연구를 간략히 살펴본다. First, we will briefly examine the research to strengthen the feature points themselves.
컬러를 이용한 가장 보편적인 특징점으로 컬러 히스토그램을 들 수 있다. 컬러 히스토그램은 손쉽게 구할 수 있는 강점이 있지만, 강인하지 못한 단점이 있다. The most common feature point using color is the color histogram. Color histograms have strengths that can be easily obtained, but have disadvantages that are not robust.
이러한 컬러 히스토그램의 단점을 보완하기 위해 기존의 컬러 히스토그램에 거리 정보가 포함된 컬러 동시발생 히스토그램(color cooccurence histrogram)을 특징점으로 이용한 모델이 제안된 바 있다.In order to compensate for the drawbacks of the color histogram, a model using a color cooccurence histrogram including distance information in a conventional color histogram as a feature point has been proposed.
이 모델의 단점은 물건이 부분적으로 가려져 있는 경우에 인식이 어렵다는 문제점과 계산량이 많아 신속한 데이터 처리가 어렵다는 점, 그리고 조명의 변화에 취약하다는 점에 있다. The disadvantages of this model are that it is difficult to recognize when the object is partially obscured, that it is difficult to process data quickly due to the large amount of calculation, and is vulnerable to changes in lighting.
이러한 문제를 극복하기 위해 패치를 기반으로 한 인식 알고리즘이 제안된 바 있으나, 이 알고리즘은 영상에 포함된 다양한 물체의 크기에 적절히 이용되기 어려운 면이 있다.In order to overcome this problem, a patch-based recognition algorithm has been proposed, but this algorithm is difficult to be appropriately used for the size of various objects included in the image.
또다른 대표적인 특징점으로 SIFT를 들 수 있다. SIFT 또한 수행시간이 긴 것이 단점으로 알려져 있다.Another representative feature is SIFT. SIFT is also known to have a long execution time.
한편, 새로운 모델을 제안하는 방법 대신 강인한 매칭 방법을 연구하는 경향도 있다. 예컨대, 좀 더 좋은 성능을 위해 학습을 기반으로 한 물체 인식 알고리즘이 제안된 바 있다. 학습을 통해 인식의 성능을 향상시킬 수는 있지만 학습을 위해 많은 시간이 요구된다는 점은 여전히 단점으로 남아 있다.On the other hand, instead of suggesting a new model, there is a tendency to study a robust matching method. For example, an object recognition algorithm based on learning has been proposed for better performance. While learning can improve the performance of perception, the fact that it takes a lot of time to learn still remains a disadvantage.
그 밖에, 매우 짧은 시간 안에 인식을 완료해야 하는 로봇에 사용하기 위한 컬러 기반의 물체 인식도 이용되고 있다. 축구 게임을 수행하는 로봇과 같이 특수 용도의 로봇을 위한 것인데, 에지(edge)를 찾거나 단순한 색을 찾기에 적합한 알고리즘이지만 서비스 로봇에 사용하기에는 부적합한 것으로 평가된다.In addition, color-based object recognition is being used for robots that need to complete recognition in a very short time. It is intended for special-purpose robots, such as robots playing soccer games. It is an algorithm suitable for finding edges or finding simple colors, but is not suitable for use in service robots.
또한, 로봇은 조명 조건에 의해 인식의 결과가 많이 달라질 수 있기 때문에, 조명 조건을 조절할 수 있는 방법도 연구되고 있다.In addition, since the result of the recognition may vary greatly depending on the lighting conditions, the robot is also being studied how to adjust the lighting conditions.
이상 논의한 바와 같이, 로봇이 카메라를 통해 얻은 영상 정보를 통해 특정 물건을 잘 찾기 위해서는 환경의 변화에 강인한 물체 인식 알고리즘이 있어야 한다. 또한, 부분적으로 물체가 가려져 있는 상황에서도 물체를 잘 인식할 수 있어야 한다. As discussed above, in order for the robot to find a particular object well through the image information obtained through the camera, there must be an object recognition algorithm that is robust to environmental changes. In addition, it should be able to recognize the object well even when the object is partially obscured.
사람은 물체가 가려져 있을 때 찾고자 하는 물체가 맞는지 확인하기 위해 가려지지 않은 곳으로 이동하는데, 로봇 역시 가려진 물체에 대한 행동을 정의해 주어야 한다. 로봇은 알고리즘이 끝날 때까지 멈춰있으면 안 되며, 연속적으로 들어오는 영상에 대해 대처해야 한다. 즉, 물체 인식의 수행시간은 짧을수록 좋다. 하지만, 수행시간을 줄여서 인식의 성능이 떨어진다면, 짧은 시간은 아무런 의미를 갖지 못한다. When an object is obscured, the person moves to an unobscured position to see if the object they are looking for is correct, and the robot must also define the behavior for the obscured object. The robot must not stop until the algorithm is finished, and must cope with successive incoming images. In other words, the shorter the execution time of the object recognition is, the better. However, if the performance of the recognition is reduced by reducing the execution time, the short time has no meaning.
따라서, 로봇은 인식의 결과를 통해 연속적인 행동을 보이면서 인식의 성능을 높여야 한다. 연속적으로 들어오는 영상에 대해서는 어떤 영상의 정보를 신뢰해야 하는지의 판단 역시 중요하다.Therefore, the robot must improve the performance of the recognition while showing continuous behavior through the result of the recognition. For continuous incoming images, it is also important to decide what information of the image should be trusted.
본 발명은 다양한 환경의 변화, 즉 물체의 크기 변화, 조명의 변화, 관점의 변화, 및 부분 가려짐 등에 대해 강인한 물체 인식이 가능한 방법을 제공한다. The present invention provides a method capable of robust object recognition against changes in various environments, that is, changes in size of objects, changes in illumination, changes in viewpoint, and partial obstruction.
알고리즘의 수행시간을 줄이면서 로봇의 성능을 떨어뜨리지 않는 것은 한계가 있지만, 본 발명은 알고리즘의 중간 중간에 결과를 도출해 내고 이를 이용하여 로봇의 행동을 판단하게 해주는 방법을 제공한다. 즉, 본 발명은 연속적으로 촬영 된 영상에서 신뢰할 수 있는 영상을 선택하여, 가려짐이 발견될 때 로봇의 경로를 정해주는 방법을 제공한다.Although there is a limitation in reducing the performance of the robot while reducing the execution time of the algorithm, the present invention provides a method for deriving a result in the middle of the algorithm and using the same to judge the behavior of the robot. That is, the present invention provides a method of selecting a reliable image from a series of images continuously taken to determine the path of the robot when the obstruction is found.
상기 목적은 본 발명의 일 양태에 따른, 목표 물건의 영상을 다수의 영역으로 구분하여 선택된 다수의 패치 영상을 기초로, 주변을 촬영하여 획득한 주변 영상의 프레임에서 상기 목표 물건을 탐색하는 로봇의 물체 인식 방법에 있어서, (a) 상기 프레임의 부분 영역에 대한 컬러 히스토그램과 상기 다수의 패치 영상의 컬러 히스토그램을 비교하여 유사도를 수치화하는 단계; (b) 상기 컬러 히스토그램의 유사도와 미리 결정된 기준치를 비교하여, 상기 패치 영상별 상기 컬러 히스토그램이 유사한 상기 부분 영역을 1차 후보 영역으로 결정하는 단계; (c) 상기 1차 후보 영역의 컬러 동시발생 히스토그램과 상기 패치 영상의 컬러 동시발생 히스토그램을 비교하여 유사도를 수치화하는 단계; 및 (d) 상기 패치 영상별 상기 컬러 동시발생 히스토그램의 유사도가 가장 큰 1차 후보 영역을 2차 후보 영역으로 결정하는 단계를 포함하는 것을 특징으로 하는 로봇의 물체 인식 방법에 의해 달성될 수 있다.According to an aspect of the present invention, a robot for searching for a target object in a frame of a surrounding image obtained by photographing the surroundings based on a plurality of patch images selected by dividing an image of the target object into a plurality of areas. An object recognition method comprising the steps of: (a) comparing the color histogram for the partial region of the frame with the color histogram of the plurality of patch images to quantify the similarity; (b) comparing the similarity between the color histogram and a predetermined reference value to determine the partial region having a similar color histogram for each patch image as a primary candidate region; (c) comparing the color coincident histogram of the first candidate region with the color coincident histogram of the patch image to quantify the similarity; And (d) determining the primary candidate region having the greatest similarity of the color coincident histogram for each patch image as the secondary candidate region.
여기에서, 본 발명은 (e) 상기 다수의 패치 영상 중 선택된 기준 패치 영상에 대한 상기 2차 후보 영역과 다른 패치 영상들에 대한 상기 1차 후보 영역들의 상대적 변위를, 상기 기준 패치 영상과 상기 다른 패치 영상들간의 상대적 위치 차이를 기초로 수치화하는 단계; (f) 상기 다수의 패치 영상 각각을 상기 기준 패치 영상으로 하여 상기 상대적 변위를 수치화하는 단계; 및 (g) 상기 컬러 동시발생 히스토그램의 유사도 및 상기 상대적 변위를 기초로 상기 목표 물건의 위치를 결정하는 단계를 더 포함하는 것이 바람직하다.Here, the present invention is (e) the relative displacement of the primary candidate region with respect to the second candidate region and other patch images with respect to the selected reference patch image of the plurality of patch images, the different from the reference patch image Digitizing based on a relative position difference between patch images; (f) quantifying the relative displacement by using each of the plurality of patch images as the reference patch image; And (g) determining the position of the target object based on the similarity of the color coincident histogram and the relative displacement.
또는, 본 발명은 (h) 상기 다수의 패치 영상 중 선택된 기준 패치 영상에 대한 상기 2차 후보 영역과 다른 패치 영상들에 대한 상기 2차 후보 영역들의 상대적 변위를, 상기 기준 패치 영상과 상기 다른 패치 영상들간의 상대적 위치 차이를 기초로 수치화하는 단계; (i) 상기 다수의 패치 영상 각각을 상기 기준 패치 영상으로 하여 상기 상대적 변위를 수치화하는 단계; 및 (j) 상기 컬러 동시발생 히스토그램의 유사도 및 상기 상대적 변위를 기초로 상기 목표 물건의 위치를 결정하는 단계를 더 포함하는 것이 바람직하다. 이때, 상기 컬러 동시발생 히스토그램의 유사도 및 상기 상대적 변위를 기초로 상기 목표 물건의 위치를 결정하는 단계는, (k) 하나의 기준 패치 영상에 대해 결정된, 다른 패치 영상들에 대응하는 상기 2차 후보 영역들 각각의 상대적 변위와 컬러 동시발생 히스토그램의 유사도를 곱한 후 덧셈하는 단계; (l) 상기 덧셈 결과에 상기 기준 패치 영상에 대한 2차 후보 영역의 컬러 동시발생 히스토그램의 유사도를 곱하는 단계; (m) 나머지 상기 다수의 패치 영상들 각각을 기준 패치 영상으로 하여 상기 (k) 단계 및 (l) 단계를 반복하는 단계; 및 (n) 상기 (l) 단계의 곱셈 결과가 최대인 패치 영상을 상기 목표 물건의 위치로 결정하는 단계를 포함할 수 있다.Alternatively, (h) the relative displacement of the secondary candidate regions with respect to the patch images different from the secondary candidate region with respect to the selected reference patch image among the plurality of patch images, the reference patch image and the other patch Quantifying based on the relative position difference between the images; (i) quantifying the relative displacement by using each of the plurality of patch images as the reference patch image; And (j) determining the position of the target object based on the similarity and the relative displacement of the color coincident histogram. In this case, the determining of the position of the target object based on the similarity and the relative displacement of the color coincident histogram may include: (k) the second candidate corresponding to the other patch images determined for one reference patch image; Adding and multiplying the relative displacement of each of the regions by the similarity of the color coincident histogram; (l) multiplying the result of the addition by the similarity of the color coincident histogram of the secondary candidate region with respect to the reference patch image; (m) repeating steps (k) and (l) with each of the remaining plurality of patch images as a reference patch image; And (n) determining a patch image having a maximum multiplication result of step (l) as a location of the target object.
또한, 본 발명은 상기 컬러 동시발생 히스토그램의 유사도 및 상기 상대적 변위를 기초로 상기 목표 물건의 위치를 결정하는 단계로서, (o) 모든 패치 영상들에 대해, 상기 상대적 변위에 관계된 상기 패치 영상들의 상기 컬러 동시발생 히스 토그램의 유사도와 상기 상대적 변위의 곱셈을 구하는 단계; 및 (p) 상기 곱셈 결과가 가장 큰 상기 패치 영상들의 위치를 상기 목표 물건의 위치로 결정하는 단계를 포함할 수 있다.In addition, the present invention is a step of determining the position of the target object based on the similarity and the relative displacement of the color coincident histogram, (o) for all patch images, the patch of the patch images related to the relative displacement Obtaining a product of the similarity of the color coincident histogram and the relative displacement; And (p) determining the position of the patch images having the largest multiplication result as the position of the target object.
그리고, 본 발명은, (q) 상기 주변 영상에 대한 다수의 프레임 각각에 대한 상기 컬러 히스토그램의 유사도, 상기 컬러 동시발생 히스토그램의 유사도, 및 상기 상대적 변위를 기초로 상기 프레임 각각에 대한 신뢰도를 수치화하는 단계; 및 (r) 상기 신뢰도가 높은 프레임에 대해 결정된 상기 목표 물건의 위치에 따라 로봇의 행동을 결정하는 단계를 더 포함하는 것이 바람직하다. 여기에서, 상기 신뢰도는 각각의 프레임에 대해 목표 물건의 위치로 결정된 영역의 상기 컬러 히스토그램의 유사도, 상기 컬러 동시발생 히스토그램의 유사도, 및 상기 상대적 변위를 기초로 수치화될 수 있고, 또는 상기 컬러 히스토그램의 유사도, 상기 컬러 동시발생 히스토그램의 유사도, 및 상기 상대적 변위 각각에 대한 가중치를 부여한 후 덧셈하여 수치화될 수 있다.And, the present invention, (q) to quantify the reliability for each of the frame based on the similarity of the color histogram, the similarity of the color coincident histogram, and the relative displacement for each of a plurality of frames for the surrounding image. step; And (r) determining the behavior of the robot according to the position of the target object determined for the high reliability frame. Here, the reliability may be quantified based on the similarity of the color histogram, the similarity of the color coincident histogram, and the relative displacement of the region determined as the position of the target object for each frame, or of the color histogram. The similarity, the similarity of the color coincident histogram, and the weight for each of the relative displacements may be added and then numerically added.
그리고, 본 발명은 상기 목표 물건의 영상을 다수의 영역으로 구분하는 다수의 패치 영상은, 크기가 다른 상기 목표 물건의 영상들을 동일한 크기의 부분 영역으로 구분하는 패치 영상들을 포함할 수 있다.In addition, the present invention may include a plurality of patch images for dividing the image of the target object into a plurality of regions, and may include patch images for dividing the images of the target object having different sizes into partial regions having the same size.
앞서, 본 발명은 또한 (s) 상기 다수의 패치 영상 중 하나의 패치 영상에 대응하는 2차 후보 영역의 상기 주변 영상에서의 위치를 기준으로, 다른 패치 영상들이 각각에 대응하는 상기 1차 후보 영역에 위치하게 될 1차 위치 확률을 산정하는 단계; (t) 수치화된 상기 컬러 동시발생 히스토그램의 유사도를 해당 상기 1차 위 치 확률에 곱하는 단계; 및 (u) 상기 패치 영상별로 상기 곱셈 결과가 가장 큰 1차 후보 영역을 3차 후보 영역으로 결정하는 단계를 포함할 수 있다. 여기에서, 본 발명은 (v) 상기 다수의 패치 영상 중 하나의 패치 영상에 대응하는 2차 후보 영역의 상기 주변 영상에서의 위치를 기준으로, 다른 패치 영상들이 각각에 대응하는 상기 3차 후보 영역에 위치하게 될 3차 위치 확률을 산정하는 단계; 및 (w) 다음의 수식에 의한 최종 벡터(R)를 상기 목표 물건의 위치로 결정하는 단계를 더 포함할 수 있다.Previously, the present invention also relates to (s) the primary candidate region corresponding to each of the other patch images based on the position in the peripheral image of the secondary candidate region corresponding to one of the plurality of patch images. Calculating a primary position probability that will be located at; (t) multiplying the similarity of the digitized color coincident histogram by the corresponding first position probability; And (u) determining the primary candidate region having the largest multiplication result as the third candidate region for each patch image. Herein, the present invention is based on the position in the peripheral image of the secondary candidate region corresponding to one patch image among the plurality of patch images, the third candidate region corresponding to each of the other patch images. Calculating a third position probability to be located at; And (w) determining the final vector R according to the following equation as the position of the target object.
또한, 상기 목적은 본 발명의 다른 양태에 따른, 주변을 촬영하여 획득한 주변 영상의 프레임에서 목표 물건을 탐색하는 로봇의 물체 인식 방법에 있어서, (a) 서로 다른 크기의 상기 목표 물건의 영상에 대해 동일한 크기의 부분 영역으로 구분하는 다수의 패치 영상들을 미리 저장하는 단계; (b) 상기 프레임의 부분 영역에 대한 컬러 히스토그램과 상기 다수의 패치 영상의 컬러 히스토그램을 비교하여 유사도를 수치화하는 단계; (c) 상기 컬러 히스토그램의 유사도와 미리 결정된 기준치를 비교하여, 상기 패치 영상별 상기 컬러 히스토그램이 유사한 상기 부분 영역을 1차 후보 영역으로 결정하는 단계; (d) 상기 1차 후보 영역의 컬러 동시발생 히스토그램과 상기 패치 영상의 컬러 동시발생 히스토그램을 비교하여 유사도를 수치화하는 단계; 및 (e) 상기 패치 영상별 상기 컬러 동시발생 히스토그램의 유사도가 가장 큰 1차 후보 영역을 2차 후보 영역으로 결정하는 단계를 포함하는 것을 특징으로 하는 로봇의 물체 인식 방법에 의해 달성될 수 있다.In addition, the object is a robot object recognition method for searching for a target object in the frame of the peripheral image obtained by photographing the surroundings according to another aspect of the present invention, (a) to the image of the target object of different sizes Pre-storing a plurality of patch images that are divided into partial regions having the same size; (b) comparing the color histogram of the partial region of the frame with the color histogram of the plurality of patch images to quantify the similarity; (c) comparing the similarity between the color histogram and a predetermined reference value to determine the partial region having the similar color histogram for each patch image as a primary candidate region; (d) comparing the color coincident histogram of the primary candidate region with the color coincident histogram of the patch image to quantify the similarity; And (e) determining a primary candidate region having the greatest similarity of the color coincident histogram for each patch image as a secondary candidate region.
여기에서, 본 발명은 (f) 상기 다수의 패치 영상 중 선택된 기준 패치 영상 에 대한 상기 2차 후보 영역과 다른 패치 영상들에 대한 상기 1차 후보 영역들의 상대적 변위를, 상기 기준 패치 영상과 상기 다른 패치 영상들간의 상대적 위치 차이를 기초로 수치화하는 단계; (g) 상기 다수의 패치 영상 각각을 상기 기준 패치 영상으로 하여 상기 상대적 변위를 수치화하는 단계; 및 (h) 상기 컬러 동시발생 히스토그램의 유사도 및 상기 상대적 변위를 기초로 상기 목표 물건의 위치를 결정하는 단계를 더 포함하는 것이 바람직하다.Here, the present invention (f) the relative displacement of the primary candidate region with respect to the patch candidate image and the secondary candidate region with respect to the selected reference patch image of the plurality of patch images, different from the reference patch image Digitizing based on a relative position difference between patch images; (g) quantifying the relative displacement by using each of the plurality of patch images as the reference patch image; And (h) determining the position of the target object based on the similarity of the color coincident histogram and the relative displacement.
또는, 본 발명은 (i) 상기 다수의 패치 영상 중 선택된 기준 패치 영상에 대한 상기 2차 후보 영역과 다른 패치 영상들에 대한 상기 2차 후보 영역들의 상대적 변위를, 상기 기준 패치 영상과 상기 다른 패치 영상들간의 상대적 위치 차이를 기초로 수치화하는 단계; (j) 상기 다수의 패치 영상 각각을 상기 기준 패치 영상으로 하여 상기 상대적 변위를 수치화하는 단계; 및 (k) 상기 컬러 동시발생 히스토그램의 유사도 및 상기 상대적 변위를 기초로 상기 목표 물건의 위치를 결정하는 단계를 더 포함하는 것이 바람직하다.Or, the present invention (i) the relative displacement of the secondary candidate region with respect to the second candidate region and the other patch image with respect to the selected reference patch image of the plurality of patch images, the reference patch image and the other patch Quantifying based on the relative position difference between the images; (j) quantifying the relative displacement by using each of the plurality of patch images as the reference patch image; And (k) determining the position of the target object based on the similarity and the relative displacement of the color coincident histogram.
본 발명에 의해 로봇에 있어 물체 인식의 속도와 정확도가 크게 향상되고, 동시에 로봇의 연속적임 행동이 보장될 수 있다. 또한, 다양한 크기의 패치 영상을 기준으로 물체를 탐색하므로 인식률을 더욱 높일 수 있으며, 목표하는 물체가 가려진 경우에도 신속한 물체 인식이 가능하다.The present invention greatly improves the speed and accuracy of object recognition in the robot, and at the same time ensures the continuous behavior of the robot. In addition, since the object is searched based on patch images of various sizes, the recognition rate may be further increased, and even when the target object is covered, the object may be quickly recognized.
따라서, 본 발명은 서비스 로봇에 요구되는 물체 인식의 신속성, 정확성, 로 봇 동작의 연속성 등을 보장할 수 있다.Therefore, the present invention can ensure the speed, accuracy, continuity of robot operation, etc. of object recognition required for the service robot.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명하도록 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도1은 로봇의 일반적인 구성을 나타내는 개략적인 모식도이다. 1 is a schematic diagram showing the general configuration of a robot.
도1에 도시되 바와 같이, 일반적인 서비스 로봇은 센서부(1), 구동부(2), 메모리(3) 및 제어부(4) 정도로 대별할 수 있다.As shown in FIG. 1, a general service robot may be roughly classified into a sensor unit 1, a
센서부(1)는 주변의 상황들을 인지하기 위한 수단으로서, 온도, 압력, 가스, 열 등을 감지하기 위한 센서 또는 주변의 영상을 획득하기 위한 비전 센서, 적외선 센서 등을 포함할 수 있다. 실제 어떠한 센서를 장착하고 이용할 것인지는 로봇의 제작자가 로봇의 용도에 따라 취사 선택할 부분이다.The sensor unit 1 may be a means for recognizing surrounding conditions, and may include a sensor for detecting temperature, pressure, gas, heat, or the like, or a vision sensor for obtaining an image of the surroundings, an infrared sensor, or the like. Which sensor is actually installed and used is the part of the robot manufacturer's choice according to the purpose of the robot.
구동부(2)는 로봇의 팔, 다리, 관절, 혹은 바퀴 등을 포함하고, 또한 이들을 이동시키기 위한 모터, 기어 등을 포함한 메카니즘을 포함한다. 이 또한, 로봇의 용도 또는 목적에 따라 취사 선택할 수 있는 부분임은 자명하다.The
메모리(3)는 정보의 저장을 위해 필수적이다. 후술하는 바와 같이, 본 발명에서 메모리(3)는 적어도 여러 아이템들의 부분적인 패치 영상을 저장하고 있고, 입력되는 이미지를 임시 저장하기 위한 버퍼 기능을 수행한다.The
제어부(4)는 센서부(1)로부터 수집된 정보를 분석하고, 행동을 결정한 후 구동부(2)를 제어하여 행동을 수행하기 위한 것으로, 사람의 뇌에 해당하는 부분이다.The
센서부(1), 구동부(2), 메모리(3) 및 제어부(4)로 대별되는 로봇의 일반적인 구성이 실제 어떠한 부품들로 실현될 수 있는지는 주지된 것이므로, 본 명세서에서는 이에 대해 자세한 언급은 하지 않도록 한다.Since the general configuration of the robot divided into the sensor unit 1, the
다만, 본 발명은 주변을 촬영한 영상으로부터 목표하는 물체를 탐색하는 방법 내지 알고리즘에 관한 것이므로, 주변 영상을 촬영하기 위한 이미지 센서와 메모리(3), 제어부(4)를 필수적으로 구비한 것을 전제로 하며, 그 밖의 다른 구성요소는 생략이 가능하다는 것에 주의한다.However, since the present invention relates to a method or algorithm for searching for a target object from an image of surroundings, the present invention is based on the premise that an image sensor, a
도2는 본 발명의 실시예에 따른 로봇의 물체 인식 방법을 나타내는 순서도이다. 2 is a flowchart illustrating a method of recognizing an object of a robot according to an exemplary embodiment of the present invention.
도2를 참조하면, 먼저 로봇은 목표 물건에 대한 영상을 다수의 영역으로 구분하는 다수의 패치 영상을 메모리(3)에 저장한다(S1). Referring to FIG. 2, the robot first stores a plurality of patch images in the
여기에서, 목표 물건은 사용자가 지정하거나 미리 저장된 다양한 아이템일 수 있는데, 예컨대, 컵, 주전자, 가방, 재떨이, 휴대폰, 지갑 등일 수 있다. 또한, 영역은 일정한 크기로 선택되어 패치 영상들이 크기가 균일하도록 하고, 이들이 목표 물건의 영상을 완성하는 하나의 세트가 되도록 한다.Here, the target object may be various items designated or prestored by a user, for example, a cup, a kettle, a bag, an ashtray, a mobile phone, a wallet, or the like. In addition, the area is selected to be of a constant size so that the patch images are uniform in size, and they are a set of complete images of the target object.
여기에서, 패치 영상의 세트는 도3a~도3c에 도시된 바와 같이 크기가 다른 목표 물건의 영상을 일정한 크기로 구분한 다수의 세트들로 마련되는 것이 바람직하다. 왜냐하면, 로봇과 목표 물건의 원근에 따라 촬영된 영상 내에서 목표 물건의 크기가 달라져 다양한 크기의 패치 영상들을 이용하는 것이 더욱 효과적이기 때문이다. 그리고, 패치 영상의 크기를 일정하게 하는 것이 알고리즘의 복잡성을 줄일 수 있기 때문이다.Here, the set of patch images, as shown in Figures 3a to 3c is preferably provided with a plurality of sets that are divided into a predetermined size of the image of the target object of different sizes. This is because the size of the target object is changed in the captured image according to the perspective of the robot and the target object, so it is more effective to use patch images of various sizes. This is because making the patch image constant may reduce the complexity of the algorithm.
또한, 패치 영상은 하나의 아이템에 대해 다양한 방향에서 바라본 영상에 대해 마련되는 것이 바람직하다. 따라서, 하나의 아이템에 대해 정면, 배면, 측면 등에서 바라본 영상을 마련하고, 이들 각각에 대한 패치 영상의 세트들을 미리 결정하는 것이 바람직하다.In addition, the patch image is preferably provided for the image viewed from various directions for one item. Therefore, it is desirable to prepare an image viewed from the front, back, side, etc. for one item, and to predetermine sets of patch images for each of these items.
다음, 특정 물건에 대한 탐색이 필요한 이벤트가 발생하면(S2), 예컨대 유저로부터 특정 물건을 가지고 오라는 명령을 입력받은 경우, 로봇은 목표 물건의 위치를 파악하기 위해 주변을 촬영하기 시작한다(S3).Next, when an event requiring a search for a specific object occurs (S2), for example, when the user receives a command to bring a specific object, the robot starts to photograph the surroundings to determine the location of the target object (S3). .
센서부(1)의 CCD 혹은 CMOS 이미지 센서로부터 입력된 영상은 프레임 단위로 연속적으로 메모리(3)에 저장된다(S4).The image input from the CCD or CMOS image sensor of the sensor unit 1 is stored in the
제어부(4)는 목표 물건의 다수의 패치 영상들의 컬러 히스토그램을 추출한다(S5). 여기에서, 상이한 크기를 갖는 패치 영상 세트들이 있다면 각각의 세트에 대해서 컬러 히스토그램을 추출해야 하고, 컬러 히스토그램은 R,G,B 외에 미리 결정된 수 개의 대표 컬러를 중심으로 산출될 수 있음에 주의한다. 또한, 메모리(3)가 허용한다면 패치 영상들에 대한 컬러 히스토그램은 대표 컬러를 중심으로 미리 산출되어 메모리(3)에 저장하고 있는 것이 가능하며, 이때 S5 단계는 생략하는 것이 가능하다는 것을 주의한다.The
다음으로, 주변 영상의 일 프레임으로부터 이 패치 영상과 동일한 크기를 갖는 부분 영역들을 선택하고, 부분 영역들의 컬러 히스토그램을 추출한 후 저장한다(S6). 여기에서, 부분 영역은 패치 영상들이 서로 다른 크기의 세트들로 마련된 경우 패치 영상들의 크기들에 맞추어 선택되고, 부분 영역은 일정 크기의 창(window)를 일정한 간격으로 슬라이딩하면서 선택할 수 있다.Next, partial regions having the same size as the patch image are selected from one frame of the surrounding image, and color histograms of the partial regions are extracted and stored (S6). Here, the partial region may be selected according to the sizes of the patch images when the patch images are provided in sets of different sizes, and the partial region may be selected while sliding a window having a predetermined size at regular intervals.
다음, 패치 영상들의 컬러 히스토그램과 프레임의 부분 영역들 간의 컬러 히스토그램을 비교하여 그 유사도를 수치화하여 저장한다(S7).Next, the color histograms of the patch images and the color histograms between the partial regions of the frame are compared, and the similarity is digitized and stored (S7).
여기에서, 컬러 히스토그램의 유사도는 다양한 방식으로 수치화 혹은 평가될 수 있음에 주의한다. 예컨대, 대표 컬러들에 대응하는 값들의 차들의 합을 유사도로 볼 수 있고, 혹은 아래 <수식1>과 같이 두 컬러 히스토그램 결과들을 비교하여 두 대표 컬러들에 대응하는 값들 중 최소값들의 합을 유사도로 평가할 수도 있다. Note that the similarity of the color histogram can be quantified or evaluated in various ways. For example, the sum of differences of values corresponding to the representative colors can be viewed as similarity, or the sum of the minimum values among the values corresponding to the two representative colors can be compared by comparing two color histogram results as shown in Equation 1 below. You can also evaluate.
<수식 1> <Equation 1>
<수식 1>에서, r은 입력 영상에서의 부분 영역, q는 목표 물건의 패치 영상, nc는 컬러 집합 원소 개수 혹은 대표 컬러의 수, η는 정규화 인자, CH(c)는 컬러 c의 컬러 히스토그램, Min은 최소값, SCH(r,q)을 나타낸다.In Equation 1, r is a partial region in the input image, q is a patch image of the target object, n c is the number of color set elements or representative colors, η is a normalization factor, and CH (c) is a color of color c. The histogram, Min, represents the minimum value, S CH (r, q).
수치화된 유사도와 미리 결정된 임계값을 비교하여, 부분 영역들 중 각각의 패치 영상들에 대해 유사한 것으로 평가되는 부분 영역을 1차 후보 영역으로 선택한다(S8). 여기에서, 1차 후보 영역은 하나의 패치 영상에 대해 하나 이상일 수 있고, 조건을 만족하지 못한다면 존재하지 않을 수도 있다는 것을 주의한다. 또한, 미리 결정된 임계값은 유사도의 수치화된 방식에 따라 달라진다는 것에 주목할 필 요가 있다. 예컨대, 유사도가 컬러 히스토그램들의 차의 합으로 결정된다면 유사도가 일정 임계값 이하인 때에 유사한 것으로 평가될 수 있고, <수식 1>을 이용하는 경우라면 다음 <수식 2>와 같이 일정 임계값 이상인 때에 유사한 것으로 평가될 수 있다.By comparing the numerical similarity with a predetermined threshold value, a partial region which is evaluated to be similar to each of the patch images among the partial regions is selected as the primary candidate region (S8). Note that the primary candidate region may be more than one for one patch image, and may not exist if the condition is not satisfied. It is also worth noting that the predetermined threshold depends on the quantified way of similarity. For example, if the similarity is determined as the sum of the differences of the color histograms, the similarity may be evaluated as similar when the threshold is less than or equal to a predetermined threshold. Can be.
<수식 2><
<수식 2>에서, Pj는 부분 영역들 중에서 패치 영상 qj에 대한 컬러 히스토그램 유사도가 임계값 θ보다 큰 부분 영역으로서, 패치 영상 qj에 대한 1차 후보 영역을 나타낸다.In
다음으로, 1차 후보 영역의 컬러 동시발생 히스토그램과 대응하는 패치 영상의 컬러 동시발생 히스토그램을 비교하여 유사도를 수치화한다(S9). 앞서 설명한 바와 같이, 컬러 동시발생 히스토그램은 컬러 히스토그램에 컬러간 거리를 부가한 특징점이다. Next, the degree of similarity is digitized by comparing the color coincident histogram of the primary candidate region with the color coincident histogram of the corresponding patch image (S9). As described above, the color coincident histogram is a feature point that adds the distance between colors to the color histogram.
컬러 동시발생 히스토그램의 유사도는 컬러간 거리가 포함되어 있어, 프레임의 모든 영역에 대해 산출하는 경우 많은 계산량과 시간이 소요된다. 그러나, 본 발명은 컬러 히스토그램의 유사도를 통해 유사한 것으로 평가되는 1차 후보 영역에 대해 컬러 동시발생 히스토그램의 유사도를 산출하기 때문에, 계산량을 줄일 수 있을 뿐만 아니라 신속한 계산이 가능한 효과가 있다.The similarity of the color coincident histogram includes the inter-color distance, which requires a large amount of computation and time when calculating for all regions of the frame. However, since the present invention calculates the similarity of the color co-occurrence histogram for the primary candidate region evaluated as similar through the similarity of the color histogram, it is possible to reduce the amount of calculation as well as to perform a quick calculation.
전술한 바와 같이, 유사도는 여러 가지 방법으로 평가될 수 있다. 그 일 예로, 컬러 히스토그램 및 거리의 차이를 기초로, 이들을 합산한 값을 유사도로 수치화하는 것이 가능할 수 있다. 또는, <수식 1> 및 <수식 2>와 연관하여, 다음의 <수식 3>과 같이 유사도를 수치화할 수 있다.As mentioned above, the similarity can be evaluated in various ways. As an example, it may be possible to quantify the sum of these values based on the difference between the color histogram and the distance. Alternatively, the degree of similarity may be digitized as in
<수식 3><
변수는 <수식 1>에서와 동일하며, 다만 d는 컬러 c1,c2간의 거리를 나타내는 것에 주의한다. The variable is the same as in <Equation 1>, except that d represents the distance between colors c 1 and c 2 .
다음으로, 컬러 동시발생 히스토그램의 유사도를 기초로 1차 후보 영역 중 목표 물건이 존재할 개연성이 큰 2차 후보 영역을 결정한다(S10). 즉, S9 단계에서 산출된 컬러 동시발생 히스토그램의 유사도 중 가장 큰 값을 갖는 1차 후보 영역을 패치 영상별로 구한다. Next, based on the similarity of the color coincident histogram, a secondary candidate region having a high probability of having a target object among the primary candidate regions is determined (S10). That is, the first candidate region having the largest value among the similarities of the color coherence histograms calculated in step S9 is obtained for each patch image.
전술한 바와 같이, 히스토그램의 유사도를 두 비교 대상간 차이로 산출하는 경우, 차가 적을수록 유사도는 큰 것으로 판단될 수 있지만, <수식 1> 내지 <수식 3>의 경우에는 <수식 3>의 결과가 가장 큰 1차 후보 영역이 유사도가 가장 큰 것을 판단할 수 있다. 따라서, 다음의 <수식 4>와 같이 2차 후보 영역을 구할 수 있다:As described above, when the similarity of the histogram is calculated as the difference between the two comparison targets, the smaller the difference may be, the greater the similarity may be. However, in the case of <Equation 1> to <
<수식 4><
여기에서, n은 패치 영상의 개수이며, 다양한 크기의 패치 영상들의 세트가 마련된 경우 모든 세트에 대한 패치 영상의 수를 나타낸다.Here, n denotes the number of patch images, and indicates the number of patch images for all sets when a set of patch images of various sizes is provided.
argmax 연산자는 연산의 결과를 최대로 만드는 변수를 결과로 출력하는 것을 의미하므로, <수식 4>는 SCCH를 최대로 하는 1차 후보 영역 내의 부분 영역(r)을 결과로 반환한다. 따라서, M은 n개의 패치 영상 각각에 대한 2차 후보 영역을 갖게 되며, 1차 후보 영역이 없었던 패치 영상에 대해서는 당연히 2차 후보 영역도 존재하지 않게 된다. Since the argmax operator means outputting a variable that maximizes the result of the operation,
다음으로, 패치 영상 각각에 대해 결정된 2차 후보 영역들을 중심으로 다른 1차 후보 영역들 혹은 2차 후보 영역들 사이의 상대적 위치가 원래 목표 물건과 비교하여, 그 상대적 위치가 후보 영역들이 목표 물건을 구성하는 것으로 볼 수 있는 타당성을 제공하는지를 평가한다(S11). Next, relative positions between other primary candidate regions or secondary candidate regions around the secondary candidate regions determined for each of the patch images are compared with the original target object, and the relative positions of the candidate regions are determined by the candidate objects. Evaluate whether it provides a validity to be seen as constructing (S11).
즉, 패치 영상들은 하나의 목표 물건을 구성하는 것이고, 이들 패치 영상들은 상호 상대적 위치를 갖게 된다. 따라서, 이러한 패치 영상들 사이의 상대적 위치를 기준으로 2차 후보 영역들간 혹은 1차 후보 영역들과의 상대적 위치에 대한 평가를 수치화하는 것이 가능하다.That is, the patch images constitute one target object, and these patch images have relative positions. Therefore, it is possible to quantify the evaluation of the relative position between the secondary candidate regions or the primary candidate regions based on the relative positions between the patch images.
물론, 후보 영역들간 상대적 위치에 대한 평가 방법은 여러 가지가 존재할 수 있다. 예를 들어, 후보 영역들간 픽셀 좌표들 사이의 차이를 벡터로 측정하고, 벡터의 크기를 상대적 위치에 해당하는 값으로 수치화할 수 있을 것이다. 또는, 기준이 되는 패치 영상들의 상대적 위치를 평균 위치로 보고, 그 밖의 다른 위치에 대해서는 확률값을 부여하는 방법이 가능할 수 있다.Of course, there may be various methods for evaluating relative positions between candidate regions. For example, a difference between pixel coordinates between candidate regions may be measured as a vector, and the size of the vector may be digitized to a value corresponding to a relative position. Alternatively, it may be possible to view a relative position of the reference patch images as an average position and to assign a probability value to other positions.
예컨대, 패치 영상들의 상대적 위치에 대한 확률 분포로서 가우션 분포가 선택하는 경우, 다음과 같은 <수식 5>를 정의할 수 있다:For example, when the Gaussian distribution is selected as the probability distribution for the relative positions of the patch images, the following Equation 5 may be defined:
<수식 5><Equation 5>
여기에서, σ는 실험적으로 로봇의 프로그래머가 미리 결정하여 입력하는 값이고, u는 다음의 <수식 6>과 같다.Here, σ is an experimentally predetermined value inputted by the programmer of the robot, and u is as shown in Equation 6 below.
<수식 6><Equation 6>
u는 패치 영상들 qi, qj 사이의 상대적 위치에, 기준이 되는 qi에 대응하는 2차 후보 영역 mi의 위치를 더함으로써 qj에 대응하는 부분 영역이 존재해야하는 평균적 위치를 나타낸다. u represents the average position where the partial region corresponding to q j should exist by adding the position of the secondary candidate region m i corresponding to the reference q i to the relative position between the patch images q i and q j .
그러므로, 결국 <수식 5>의 G 함수는 이러한 qj의 평균적 위치에 대한 상대 적 위치를 수치화하고자 하는 후보 영역 r의 확률값을 반환하게 된다. Therefore, the G function of Equation 5 returns a probability value of the candidate region r to quantify the relative position with respect to the average position of qj.
다음으로, 이렇게 수치화된 상대적 위치의 평가값과 컬러 동시발생 히스토그램의 유사도에 기초하여, 목표 물건의 위치를 최종적으로 결정하게 된다(S12).Next, the position of the target object is finally determined based on the similarity between the evaluation value of the relative position quantified in this way and the color coincident histogram (S12).
여기에서, 상대적 위치의 평가값과 유사도를 이용하여 목표 물건의 위치를 결정하는 방법 내지 규칙은 다양하게 선택될 수 있다는 것을 이해해야 한다.Here, it should be understood that a method or rule for determining the position of the target object using the evaluation value and the similarity of the relative position may be variously selected.
예를 들어, 컬러 동시발생 히스토그램의 유사도가 가장 높은 것을 기준으로, 즉, 가장 높은 컬러 동시발생 히스토그램 유사도를 갖는 2차 후보 영역을 qi 및 mi로 두고, 다른 2차 후보 영역들에 대한 상대적 위치의 수치화된 평가값이 일정 임계 수준 이상을 만족하는 후보 영역이 3개 이상 있을 때 해당 2차 후보 영역들을 목표 물건의 위치로 결정하는 것이 가능할 것이다.For example, a secondary candidate region having the highest similarity of color coincident histograms, that is, having the highest color coincident histogram similarity, is defined as q i and m i , and is relative to other secondary candidate regions. When there are three or more candidate regions where the numerical evaluation value of the position satisfies the predetermined threshold level or more, it will be possible to determine the corresponding secondary candidate regions as the position of the target object.
이와는 다른 방법으로, 이하의 수식들과 같이 유사도와 상대적 위치의 평가값을 곱하여 가장 적절한 결정을 내리는 방법들을 생각할 수 있을 것이다.Alternatively, one may think of ways to make the most appropriate decision by multiplying the similarity and the evaluation of relative position, as shown in the following equations.
첫 번째 방법으로, 다음의 <수식 7>을 생각해 볼 수 있다.As a first method, consider the following Equation 7.
<수식 7><Formula 7>
여기에서, j와 i는 1~n, i≠j의 조건에서 선택된 값이며, 이러한 범위에서 가장 큰 연산 결과를 만드는 mi의 위치가 최종적인 물건의 위치 벡터()가 된다.Here, j and i are values selected under conditions of 1 to n, i ≠ j, and the position of m i that produces the largest operation result in this range is the final position vector of the object ( )
<수식 7>의 연산은 상대적 변위를 이루는 두 2차 후보 영역들 또는 이에 대 응하는 두 패치 영상들에 있어서, 이들 각각의 2차 후보 영역에 대한 컬러 동시발생 히스토그램의 유사도들과 상대적 변위의 평가값을 곱한 것이다.The computation of Equation 7 evaluates the similarities and relative displacements of the color coherence histograms for each of the secondary candidate regions making up the relative displacements or corresponding two patch images. The value is multiplied.
<수식 7>은 이러한 연산이 모든 패치 영상들에 대해 반복적으로 수행되고, 그 결과들 중 가장 큰 결과를 만들어 내는 2차 후보 영역을 최종 물건의 위치로 결정하는 일련의 과정을 하나의 수식으로 보여준다.Equation (7) shows a series of processes in which this operation is performed repeatedly for all patch images, and the position of the final object is determined as the position of the second candidate region that produces the largest of the results. .
다른 두 번째 방법으로, 다음의 <수식 8>을 생각해 볼 수 있다.As another second method, consider the following Equation 8.
<수식 8> <Equation 8>
<수식 8>은 하나의 2차 후보 영역 또는 이에 대응하는 패치 영상 하나를 기준으로 선택하고, 나머지 패치 영상들에 대응하는 2차 후보 영역들 각각에 대한 컬러 동시발생 히스토그램의 유사도와 상대적 변위값을 나타내는 확률을 곱한 후 곱셈 결과들을 모두 곱한다. 그리고, 최종적인 덧셈 값에 기준으로 삼았던 2차 후보 영역의 컬러 동시발생 히스토그램의 유사도를 곱하여, 각각의 패치 영상에 대해 최종 평가값을 산출한다.<Equation 8> is selected based on one secondary candidate region or one patch image corresponding thereto, and the similarity and relative displacement value of the color coincident histogram for each of the secondary candidate regions corresponding to the remaining patch images are selected. Multiply the multiplication results by multiplying the probability that they represent. The final evaluation value is calculated for each patch image by multiplying the similarity of the color coincident histogram of the secondary candidate region based on the final addition value.
이러한 연산은 모든 패치 영상들을 기준으로 선택하도록 반복적으로 수행하게 되고, <수식 8>은 이러한 반복 수행된 결과들 중 최대값을 나타내는 기준으로 삼았던 2차 후보 영역을 목표 물건의 위치 벡터로 반환한다.This operation is repeatedly performed to select all the patch images as a reference, and Equation 8 returns the secondary candidate region used as the reference representing the maximum value of the repeated results as the position vector of the target object. .
다른 세 번째 방법으로, 다음 일련의 수식들을 생각해 볼 수 있다.As another third method, consider the following series of equations:
<수식 9><Equation 9>
상기 수식은 하나의 2차 후보 영역을 기준으로 하여, 다른 패치 영상들 각각에 대응하는 1차 후보 영역들 각각에 대해 컬러 동시발생 히스토그램의 유사도와 상대적 변위 평가값의 곱하고, 그 결과가 최대값을 나타내는 1차 후보 영역을 Vi 벡터로 나타낸다. The equation multiplies the similarity of the color coincident histogram and the relative displacement evaluation value for each of the primary candidate regions corresponding to each of the other patch images based on one secondary candidate region, and the result is the maximum value. The primary candidate region shown is represented by a V i vector.
그 결과로서, 하나의 2차 후보 영역에 대해, 나머지 모든 패치 영상들(j=1~n, j≠i)에 대응하는 V 벡터가 생성되므로 n-1개의 성분을 갖는 다음과 같은 벡터가 생성된다:As a result, for one secondary candidate region, a V vector corresponding to all remaining patch images (j = 1 to n, j ≠ i) is generated, so that the following vector having n-1 components is generated. do:
<수식 10><Equation 10>
이러한 벡터를 3차 후보 영역이라 부르도록 하고, 이를 바탕으로 다음의 <수식 11>로 최종적인 목표 물건의 위치를 결정할 수 있다:This vector is called the tertiary candidate region, and based on this, the final target location can be determined by the following Equation 11:
<수식 11><Equation 11>
<수식 11>은 2차 후보 영역 중 하나를 기준으로 선택한 후, 나머지 패치 영상들에 대응하는 3차 후보 영역들에 대한 컬러 동시발생 히스토그램의 유사도와 상대적 변위의 평가값의 곱들의 합을 구한다. 다음, 덧셈 결과와 기준으로 선택한 2차 후보 영역의 컬러 동시발생 히스토그램 유사도를 곱한다. Equation 11 selects one of the secondary candidate regions as a reference and then obtains a sum of the products of the similarity of the color coherence histogram and the evaluation value of the relative displacement for the third candidate regions corresponding to the remaining patch images. Next, the multiplication histogram similarity of the second candidate region selected as the reference result is multiplied.
이러한 일련의 연산은 모든 2차 후보 영역들에 대해 수행되고, 최대값을 나타내는 2차 후보 영역의 위치가 최종적인 목표 물체의 위치로 결정된다.This series of operations is performed for all secondary candidate regions, and the position of the secondary candidate region representing the maximum value is determined as the position of the final target object.
지금까지 컬러 동시발생 히스토그램의 유사도와 상대적 위치 또는 변위의 평가값을 이용하여 물체의 최종적인 위치를 결정하는 몇몇 방법들을 살펴 보았다. So far, we have looked at some methods for determining the final position of an object using the similarity of the color coincident histogram and the evaluation of relative position or displacement.
어느 경우나 1차 후보 영역 내에서 수행되기 때문에 그 연산량이 대폭 감소되는 것을 알 수 있다. 또한, 각각의 1차 후보 영역에 대해 이미 컬러 동시발생 히스토그램의 유사도가 산출되어 저장되기 때문에, 최종 결정을 내릴 때의 연산은 단순한 곱셈과 덧셈으로만 이루어질 뿐이며, 따라서 적은 연산량과 연산시간이 요구될 뿐이다.In either case, since it is performed within the primary candidate region, it can be seen that the amount of computation is greatly reduced. In addition, since the similarity of the color coincident histogram is already calculated and stored for each primary candidate region, the computation when making the final decision is only performed by simple multiplication and addition, and thus requires a small amount of computation and computation time. It is only.
전술한 본 발명의 실시예들을 간략하게 정리하면, 본 발명의 실시예는 크게 세 단계로 구분될 수 있다.In summary, the above-described embodiments of the present invention can be divided into three steps.
하나는 컬러 히스토그램의 유사도를 이용하여 적은 연산량으로 1차 후보 영역을 신속하게 결정하는 단계이다. 나머지 연산은 이제 1차 후보 영역의 범위 내에서 수행된다.One step is to quickly determine the primary candidate region with a small amount of computation using the similarity of the color histogram. The remaining operation is now performed within the range of the primary candidate region.
두 번째는 1차 후보 영역에 대해 컬러 동시발생 히스토그램의 유사도를 구하여, 패치 영상들에 1:1 대응하는 2차 후보 영역을 결정한다.Second, the similarity of the color coherence histogram with respect to the primary candidate region is obtained to determine a secondary candidate region 1: 1 corresponding to the patch images.
세 번째는 상대적 변위를 고려하여, 2차 후보 영역 중에서 목표 물체의 위치를 최종적으로 결정하는 것이다. 상대적 변위를 고려함으로써, 물체가 부분적으로 가려 보이지 않는 경우에도 물체 인지 가능성이 높아지는 반면, 적은 연산량으로 신속하게 찾을 수 있는 장점이 있다.The third is to finally determine the position of the target object among the secondary candidate regions in consideration of the relative displacement. By considering the relative displacement, even if the object is not partially hidden, the possibility of object recognition is increased, while it is advantageous in that it can be found quickly with a small amount of calculation.
물체의 위치를 최종적으로 결정하는 방법 또는 규칙은 다양하게 결정될 수 있다는 것을 이해할 수 있을 것이다. 앞서, 4 가지의 방법 또는 규칙들에 대해 예시적으로 설명한 바 있으나, 본 발명은 이러한 실시예에 국한되는 것은 아니다.It will be appreciated that various methods or rules for finally determining the position of an object can be determined. While four methods or rules have been described above by way of example, the present invention is not limited to these embodiments.
한편, 로봇은 도2의 순서도에 따라 목표 물건의 위치를 결정하고 행동을 결정한다. 로봇이 이동한다면, 로봇에서 촬영되는 주변 영상은 연속적으로 입력될 것이며, 따라서 상이한 다수의 프레임들이 입력될 것이다.Meanwhile, the robot determines the position of the target object and determines the action according to the flowchart of FIG. 2. If the robot moves, the surrounding images captured by the robot will be input continuously, so different frames will be input.
새롭게 입력되는 주변 영상의 프레임은 신속하게 처리되어야 하고, 로봇의 다음 행동이 또다시 결정되어야 한다. 그러나, 이러한 결정 과정은 많은 시간과 연산을 요하기 때문에, 해당 프레임의 영상 정보를 이용할 것인지 혹은 해당 프레임의 영상 정보를 이전 프레임의 영상 정보보다 더 신뢰해야 하는지를 판단할 필요가 있다.The frame of the newly input surrounding image must be processed quickly and the next action of the robot must be determined again. However, since this determination process requires a lot of time and operation, it is necessary to determine whether to use the image information of the frame or to trust the image information of the frame more than the image information of the previous frame.
따라서, 도2에 도시된 바와 같이, 다음 단계는 현재 프레임에 대한 신뢰도를 평가하는 것이다(S13). 프레임의 신뢰도는 여러 규칙들에 의해 판단될 수 있지만, 판단 규칙의 최적화 또는 적정성을 평가하는 것은 쉽지 않다. 그러므로, 프레임의 신뢰도에 대한 규칙은 알고리즘을 결정하는 엔지니어의 자의적 판단에 따라 자유롭게 결정될 수 있다.Therefore, as shown in Fig. 2, the next step is to evaluate the reliability of the current frame (S13). The reliability of a frame can be determined by several rules, but it is not easy to evaluate the optimization or appropriateness of the decision rule. Therefore, the rules for frame reliability can be freely determined at the discretion of the engineer who determines the algorithm.
일 예로서, 각각의 프레임에 대한 신뢰도는 다음의 <수식 12>에 의해 평가할 수 있을 것이다:As an example, the reliability for each frame may be evaluated by the following Equation 12:
<수식 12><Equation 12>
Bel(Frame)= w1CH_MV + w2CCH_MV + w3GEO_MV Bel (Frame) = w 1 CH_MV + w 2 CCH_MV + w 3 GEO_MV
여기에서, w1,w2,w3는 가중치이고, CH_MV는 컬러 히스토그램의 매칭값, CCH_MV는 컬러 동시발생 히스토그램의 매칭값, GEO_MV는 상대적 변위의 매칭값이다. Here, w 1 , w 2 , w 3 are weights, CH_MV is a matching value of the color histogram, CCH_MV is a matching value of the color coincident histogram, and GEO_MV is a matching value of the relative displacement.
이들 매칭값은 컬러 히스토그램의 유사도, 컬러 동시발생 히스토그램의 유사도, 상대적 변위의 정도를 대표하는 적정한 값에서 선택될 수 있다.These matching values may be selected from appropriate values representing the similarity of the color histogram, the similarity of the color coincident histogram, and the degree of relative displacement.
예컨대, CH_MV는 앞서 프레임 영상에서 목표 물건의 위치로 최종 판단된 2차 후보 영역들 또는 부분 영역들의 평균적인 컬러 히스토그램의 유사도로 선택될 수 있다. 유사하게, CCH_MV는 CH_MV가 산출된 부분 영역들의 평균적인 컬러 동시발생 히스토그램의 유사도로 선택될 수 있고, GEO_MV는 동일 영역들에 대한 수치화된 상대적 위치의 정확성을 나타낼 수 있다.For example, CH_MV may be selected as the similarity of the average color histogram of the secondary candidate regions or partial regions finally determined as the position of the target object in the frame image. Similarly, CCH_MV can be chosen as the similarity of the average color coincident histogram of the partial regions from which CH_MV is calculated, and GEO_MV can represent the accuracy of the quantized relative position for the same regions.
한편, 가중치 w1,w2,w3는 매칭값들 중 상대적으로 신뢰성 내지 중요성이 있는 것에 더 높은 가중치를 두도록 임의로 정해질 수 있는 값이다. 예컨대, 컬러 히스토그램보다는 컬러 동시발생 히스토그램의 매칭값이 신뢰성이 더 높기 때문에, 일반적으로 w2가 w1보다 더 크게 선택될 것이다. On the other hand, the weights w 1 , w 2 , w 3 are values that can be arbitrarily determined to give a higher weight to the relative reliability or importance of the matching values. For example, w 2 will generally be chosen larger than w 1 because the matching value of the color coincident histogram rather than the color histogram is more reliable.
또다른 방법으로, 가중치 w1,w2,w3는 엔트로피의 개념을 사용하여 결정할 수 있는데, i) 컬러 히스토그램을 결정하는 대표 컬러의 수를 기반으로 엔트로피를 산출하여 w1을 결정할 수 있고, ii) 컬러 동시발생 히스토그램의 경우의 수를 기반으로 엔트로피를 산출하여 w2를 결정할 수 있고, iii) 마찬가지로, 부분 영역들의 상대적 변위의 경우를 기반으로 엔트로피를 산출하여 w3를 결정할 수 있을 것이다.Alternatively, the weights w 1 , w 2 , w 3 can be determined using the concept of entropy, i) calculating w 1 by entropy based on the number of representative colors that determine the color histogram, ii) it is possible to determine w 2 by calculating entropy based on the number of cases of color coincident histogram, and iii) similarly, w 3 can be determined by calculating entropy based on the case of relative displacement of partial regions.
전술한 바와 같이, <수식 12>와 같은 신뢰도가 매 프레임마다 측정 비교되고, 그 결과에 따라 로봇의 행동을 결정하게 된다(S14).As described above, the reliability as shown in Equation 12 is measured and compared every frame, and the robot's behavior is determined according to the result (S14).
신뢰도가 이전 프레임보다 높지 못하다면, 로봇의 행동은 이전 프레임에서 결정된 대로 유지될 것이다(S15).If the reliability is not higher than the previous frame, the robot's behavior will be maintained as determined in the previous frame (S15).
반면, 신뢰도가 더 높은 새로운 프레임이 입력되었다면, 목표 물건의 위치는 새로운 프레임을 기반으로 결정되고, 따라서 그에 따라 물체의 행동이 새롭게 결정된다(S16).On the other hand, if a new frame with higher reliability is input, the position of the target object is determined based on the new frame, and accordingly, the behavior of the object is newly determined (S16).
로봇의 행동 중에는 물체를 향한 이동이 포함되어 있고, 로봇이 이동하면서 연속적인 촬영이 가능하기 때문에, 새로운 프레임들이 연속적으로 입력될 것이다. 도2의 순서도는 로봇이 새로운 프레임들 내에서 목표 물건을 인식하는 방법과, 어느 프레임을 더욱 신뢰하고 행동을 결정할 것인지를 함께 보여주고 있다. 연속적인 촬영에 발맞추어, 신속한 물체 인식과 프레임의 신뢰도가 측정되어야 연속적인 로봇의 행동을 보장할 수 있다.The robot's behavior includes movement towards the object, and as the robot moves, continuous shooting is possible, so new frames will be input continuously. The flowchart of FIG. 2 shows how the robot recognizes the target object within the new frames, along with which frame to trust more and determine action. In line with continuous shooting, rapid object recognition and frame reliability must be measured to ensure continuous robot behavior.
본 발명은 패치 영상들에 대한 컬러 히스토그램 또는 컬러 동시발생 히스토 그램 정보가 고정되어 있고, 유사도를 측정함에 있어 연산량이 적은 방법으로부터 후보 영역을 줄이고, 그 범위 내에서 연산량이 많으나 정확성을 기할 수 있는 방법을 수행한다. According to the present invention, the color histogram or color coincident histogram information on the patch images is fixed, and the candidate area can be reduced from a method having a small amount of calculation in measuring similarity, and a large amount of calculation can be made within the range but accuracy can be determined. Do the method.
따라서, 로봇의 물체 인식의 정확성과 신속성을 보장할 수 있고, 이에 따른 로봇의 자연스런 행동을 보장할 수 있다.Therefore, it is possible to ensure the accuracy and speed of the object recognition of the robot, thereby ensuring the natural behavior of the robot.
지금까지 본 발명의 몇몇 실시예들에 대해서만 설명하였으나, 당업자는 이들에 대해 본 발명의 사상 및 범위를 벗어나지 않는 수준에서 다양한 변형, 치환 등이 가능한 것을 이해할 수 있을 것이다. Although only some embodiments of the present invention have been described so far, those skilled in the art will understand that various modifications, substitutions, and the like can be made without departing from the spirit and scope of the present invention.
예를 들어, 본 발명의 실시예들에서 유사도를 수치화하는 방법은 다양하게 선택될 수 있고, 상대적 변위를 수치화하는 방식도 확률 분포를 이용하는 방법 외에도 다양하게 선택될 수 있는 것이다.For example, in the embodiments of the present invention, the method of quantifying the similarity may be variously selected, and the method of quantifying the relative displacement may be variously selected in addition to the method using the probability distribution.
또한, 프레임 신뢰도를 평가하는 방법 및 그 순서는 본 발명의 실시예에 한정되는 것이 아니며, 다양한 방법으로 평가될 수 있을 뿐만 아니라, 도2와 다른 순서에서 수행될 수 있는 것임에 주의할 필요가 있다.In addition, it should be noted that the method of evaluating frame reliability and the order thereof are not limited to the embodiments of the present invention, and may be evaluated in various ways as well as performed in a different order from that in FIG. .
따라서, 본 발명의 실시예는 본 발명을 한정하는 것으로 해석되어서는 안 되며, 다만 본 발명의 예시적인 양태로서 이해되는 것이 합리적이다. 본 발명의 사상 및 그 범위는 이하의 특허청구범위에 의해서 정해지며, 그 범위는 균등의 범위까지 포함하는 것으로 해석되어야 할 것이다.Accordingly, the examples of the present invention should not be construed as limiting the present invention, but are to be understood as exemplary embodiments of the present invention. The spirit and scope of the present invention are defined by the following claims, and the scope should be construed to include the equivalent range.
도1은 로봇의 일반적인 구성을 나타내는 개략적인 모식도이다. 1 is a schematic diagram showing the general configuration of a robot.
도2는 본 발명의 실시예에 따른 로봇의 물체 인식 방법을 나타내는 순서도이다. 2 is a flowchart illustrating a method of recognizing an object of a robot according to an exemplary embodiment of the present invention.
도3a~도3c는 목표 물건의 크기에 따라 다양한 패치 영상들이 마련되는 예를 나타내는 도면이다.3A to 3C are diagrams illustrating an example in which various patch images are prepared according to the size of a target object.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080093054A KR20100034105A (en) | 2008-09-23 | 2008-09-23 | Object recognition method of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080093054A KR20100034105A (en) | 2008-09-23 | 2008-09-23 | Object recognition method of robot |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110113851A Division KR101247136B1 (en) | 2011-11-03 | 2011-11-03 | Object recognition method of robot |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20100034105A true KR20100034105A (en) | 2010-04-01 |
Family
ID=42212306
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080093054A Ceased KR20100034105A (en) | 2008-09-23 | 2008-09-23 | Object recognition method of robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20100034105A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101305405B1 (en) * | 2011-03-23 | 2013-09-06 | (주)하기소닉 | Method for Localizing Intelligent Mobile Robot by using a lateral landmark |
US9721192B2 (en) | 2011-09-30 | 2017-08-01 | Ebay Inc. | Complementary item recommendations using image feature data |
KR20190005516A (en) | 2017-07-07 | 2019-01-16 | 한국항공우주연구원 | Image Patch Normalizing Method and System |
CN114648691A (en) * | 2020-12-21 | 2022-06-21 | 苏州科瓴精密机械科技有限公司 | Obstacle identification method, device, equipment, medium and weeding robot |
-
2008
- 2008-09-23 KR KR1020080093054A patent/KR20100034105A/en not_active Ceased
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101305405B1 (en) * | 2011-03-23 | 2013-09-06 | (주)하기소닉 | Method for Localizing Intelligent Mobile Robot by using a lateral landmark |
US9721192B2 (en) | 2011-09-30 | 2017-08-01 | Ebay Inc. | Complementary item recommendations using image feature data |
US9886653B2 (en) | 2011-09-30 | 2018-02-06 | Ebay Inc. | Extraction of image feature data from images |
US10185899B2 (en) | 2011-09-30 | 2019-01-22 | Ebay Inc. | Re-ranking item recommendations based on image feature data |
US10489692B2 (en) | 2011-09-30 | 2019-11-26 | Ebay Inc. | Item recommendations using image feature data |
US10740660B2 (en) | 2011-09-30 | 2020-08-11 | Ebay Inc. | Item recommendations based on image feature data |
US11682141B2 (en) | 2011-09-30 | 2023-06-20 | Ebay Inc. | Item recommendations based on image feature data |
US12159433B2 (en) | 2011-09-30 | 2024-12-03 | Ebay Inc. | Item recommendations based on image feature data |
KR20190005516A (en) | 2017-07-07 | 2019-01-16 | 한국항공우주연구원 | Image Patch Normalizing Method and System |
CN114648691A (en) * | 2020-12-21 | 2022-06-21 | 苏州科瓴精密机械科技有限公司 | Obstacle identification method, device, equipment, medium and weeding robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102415632B1 (en) | Information processing apparatus, information processing method, and storage medium | |
US11941918B2 (en) | Extracting information from images | |
US11657525B2 (en) | Extracting information from images | |
CN106164980B (en) | Information processing apparatus and information processing method | |
JP5517504B2 (en) | Image processing apparatus, image processing method, and program | |
KR101913336B1 (en) | Mobile apparatus and method for controlling the same | |
WO2009111498A2 (en) | Object matching for tracking, indexing, and search | |
US10706313B2 (en) | Image processing apparatus, image processing method and image processing program | |
WO2021250808A1 (en) | Image processing device, image processing method, and program | |
JP2014093023A (en) | Object detection device, object detection method and program | |
KR101247136B1 (en) | Object recognition method of robot | |
US12272093B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
US12260330B2 (en) | Learning apparatus, learning method, inference apparatus, inference method, and recording medium | |
WO2012046426A1 (en) | Object detection device, object detection method, and object detection program | |
US20070253598A1 (en) | Image monitoring apparatus | |
KR20100034105A (en) | Object recognition method of robot | |
WO2022009301A1 (en) | Image processing device, image processing method, and program | |
CN107231519B (en) | Video processing apparatus and control method | |
JP2022019991A (en) | Information processing apparatus, information processing method, and program | |
KR20210119487A (en) | Method for verifying the identify of a user by identifying an object within an image that has a biometric characteristic of the user and mobile device for executing the method) | |
US11983242B2 (en) | Learning data generation device, learning data generation method, and learning data generation program | |
JP6855175B2 (en) | Image processing equipment, image processing methods and programs | |
JP7589744B2 (en) | IMAGE SELECTION DEVICE, IMAGE SELECTION METHOD, AND PROGRAM | |
JP7435781B2 (en) | Image selection device, image selection method, and program | |
WO2021229750A1 (en) | Image selection device, image selection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20080923 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20101101 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20110830 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20101101 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
J201 | Request for trial against refusal decision | ||
PJ0201 | Trial against decision of rejection |
Patent event date: 20111004 Comment text: Request for Trial against Decision on Refusal Patent event code: PJ02012R01D Patent event date: 20110830 Comment text: Decision to Refuse Application Patent event code: PJ02011S01I Appeal kind category: Appeal against decision to decline refusal Decision date: 20120413 Appeal identifier: 2011101007305 Request date: 20111004 |
|
A107 | Divisional application of patent | ||
AMND | Amendment | ||
PA0107 | Divisional application |
Comment text: Divisional Application of Patent Patent event date: 20111103 Patent event code: PA01071R01D |
|
PB0901 | Examination by re-examination before a trial |
Comment text: Amendment to Specification, etc. Patent event date: 20111103 Patent event code: PB09011R02I Comment text: Request for Trial against Decision on Refusal Patent event date: 20111004 Patent event code: PB09011R01I |
|
B601 | Maintenance of original decision after re-examination before a trial | ||
PB0601 | Maintenance of original decision after re-examination before a trial |
Comment text: Report of Result of Re-examination before a Trial Patent event code: PB06011S01D Patent event date: 20111128 |
|
J301 | Trial decision |
Free format text: TRIAL DECISION FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL REQUESTED 20111004 Effective date: 20120413 |
|
PJ1301 | Trial decision |
Patent event code: PJ13011S01D Patent event date: 20120416 Comment text: Trial Decision on Objection to Decision on Refusal Appeal kind category: Appeal against decision to decline refusal Request date: 20111004 Decision date: 20120413 Appeal identifier: 2011101007305 |