KR100786351B1 - System and method for teaching work-robot based on ar - Google Patents
System and method for teaching work-robot based on ar Download PDFInfo
- Publication number
- KR100786351B1 KR100786351B1 KR1020060082519A KR20060082519A KR100786351B1 KR 100786351 B1 KR100786351 B1 KR 100786351B1 KR 1020060082519 A KR1020060082519 A KR 1020060082519A KR 20060082519 A KR20060082519 A KR 20060082519A KR 100786351 B1 KR100786351 B1 KR 100786351B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- spatial coordinate
- coordinate data
- virtual work
- virtual
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
Abstract
Description
도 1은 실제환경과 가상환경의 연속성에 관한 개념을 나타내는 개념도,1 is a conceptual diagram illustrating a concept of continuity between a real environment and a virtual environment;
도 2는 본 발명에 따른 AR를 이용한 작업로봇 티칭 시스템에 대한 바람직한 일 실시예의 구성을 도시한 블럭도,Figure 2 is a block diagram showing the configuration of a preferred embodiment for a work robot teaching system using an AR according to the present invention,
도 3은 본 발명에 따른 AR를 이용한 작업로봇 티칭 방법에 대한 바람직한 일 실시예의 과정을 도시한 흐름도,3 is a flowchart illustrating a process of a preferred embodiment of a work robot teaching method using an AR according to the present invention;
도 4은 본 발명에 의한 좌표생성의 기준이 되는 마커의 일 실시예를 나타내는 도면,4 is a view showing an embodiment of a marker as a reference for generating coordinates according to the present invention;
도 5는 영상기구와 실제영상과의 왜곡 연산에 이용되는 보정용 마커의 일 실시예를 나타내는 도면,FIG. 5 is a diagram illustrating an embodiment of a correction marker used for calculating a distortion between an imaging device and an actual image; FIG.
도 6는 가상 작업 대상의 좌표를 설정하기 위하여 실제 작업 환경에서 설치된 마커를 나타내는 도면,6 is a diagram illustrating a marker installed in an actual working environment in order to set coordinates of a virtual work target;
도 7는 본 발명에 따른 실제영상과 가상영상이 정합된 영상을 나타내는 도면이다. 7 is a diagram illustrating an image in which a real image and a virtual image are matched according to the present invention.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
100...입력영상부 102...보정부100 ... Video Input 102 ...
104...정합부 110...연산부104 ... matching part 110 ... operating part
120...AR영상생성부 130...출력부120 ... AR image generator 130 ... Output unit
140...교정부 150...대상정보 저장부140 ... Government 150 ... Object information storage
본 발명은 AR을 이용한 작업로봇 티칭 시스템 및 방법으로서, 보다 상세하게는 차량 등의 라인 작업공정을 수행하는 작업로봇의 작업위치, 티칭점 등을 교정함에 있어 AR시스템을 적용하는 작업로봇 티칭을 위한 시스템 및 방법에 관한 것이다. The present invention is a working robot teaching system and method using AR, and more specifically, for working robot teaching to apply the AR system in correcting the working position, teaching point, etc. of the working robot performing a line working process such as a vehicle System and method.
오늘날 시장은 제품의 짧은 라이프 사이클과 제품 종류의 다양화, 새롭게 개발되는 다양한 기술들과 고객의 요구에 의해 심각한 동적 환경변화를 맞이하고 있다. Today's markets are facing serious dynamic changes due to short life cycles of products, diversification of product types, various new technologies and customer needs.
제조업의 글로벌 경쟁과 급속하게 개발되는 신기술들로 인해 제조회사가 치열한 시장 경쟁에서 살아남기 위해서는 시장의 요구에 신속하게 적응할 수 있는 생산 시스템의 설계가 요구되고 있다. Manufacturing global competition and rapidly developing new technologies require manufacturers to design production systems that can adapt quickly to market demands in order to survive intense market competition.
생산 시스템 설계의 핵심 요인으로는 시스템에 미리 정의된 특성이나 형상을 이용하여 새로운 시스템에 쉽게 적응할 수 있는 유연한 전략과 함께 짧은 시간 안에 새로운 시스템에 적용되는 요구사항도 만족시켜야 한다. 기업은 이를 위해 자체적인 연구는 물론 많은 시간과 투자를 요한다. Key factors in the design of a production system are to meet the requirements of the new system in a short time, with a flexible strategy that can be easily adapted to the new system using predefined characteristics or geometries. Companies need a lot of time and investment, as well as their own research.
이러한 생산 시스템의 효율을 높이기 위하여 다양한 방법이 시도되고 있다. 특히 분업화된 로봇에 의하여 라인 작업 공정을 수행하는 많은 대량생산을 위한 제조현장에서는 자동화 기계 등을 이용하여 작업 라인의 공정을 수행하는 많은 로봇의 작업위치나 티칭 포인트 등을 교정(calibration)하여 이용하고 있다.Various methods have been tried to increase the efficiency of such a production system. In particular, in the manufacturing sites for mass production that perform line work processes by specialized robots, the robots can use work machines or teaching points of many robots that perform work line processes using automated machines. have.
그러나, 라인을 따라 행거에 의하여 이동하는 작업대상물은 그 적재 위치나 상태 등이 동일할 수 없으므로 상기와 같은 교정 작업에는 라인을 중단시키고 각각의 작업대상물에 대한 교정데이터를 하나씩 작업로봇에 티칭해야 하는 번거로움이 있다.However, the workpiece moving by the hanger along the line cannot have the same loading position or condition. Therefore, the above-mentioned calibration work requires stopping the line and teaching calibration data for each work piece to the work robot one by one. There is a hassle.
또한, 실제 작업 대상물을 중심으로 작업이 이용되므로 작업의 효율이나 작업성능에 대한 예상이나 모의 작업 등을 수행할 수 없는 문제가 있다.In addition, since the work is used around the actual work object, there is a problem in that it is not possible to perform the simulation or the like for the work efficiency or work performance.
본 발명의 상기의 문제점을 해결하기 위하여 창출된 것으로, AR시스템을 작업로봇의 티칭공정에 적용할 수 있는 작업로봇의 티칭 시스템을 제공하는 데 있다.In order to solve the above problems of the present invention, there is provided a teaching system for a work robot that can apply the AR system to the teaching process of the work robot.
또한, 본 발명의 또 다른 목적은 AR시스템을 작업로봇의 티칭공정에 적용하는 작업로봇의 티칭 방법을 제공하는 데 있다.In addition, another object of the present invention to provide a teaching method of the working robot applying the AR system to the teaching process of the working robot.
본 발명의 다른 목적 및 장점들은 하기에 설명될 것이며, 본 발명의 실시예에 의해 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 조합에 의하여 실현될 수 있다.Other objects and advantages of the invention will be described below and will be appreciated by the embodiments of the invention. Furthermore, the objects and advantages of the present invention can be realized by means and combinations indicated in the claims.
상기의 목적을 달성하기 위한 AR를 이용한 작업로봇 티칭 시스템은, 실제 작 업 환경에 관한 영상정보인 실영상정보를 생성하는 입력영상부; 상기 실영상정보와 실제 작업환경에 설치되는 좌표생성의 기준이 되는 마커로부터 가상 작업대상이 상기 작업환경에 위치하는 공간좌표 데이터를 생성하는 연산부; 상기 공간좌표 데이터를 기초로 상기 실영상정보에 가상 작업대상에 관한 영상이 삽입된 AR영상을 생성하는 AR영상생성부; 상기 생성된 AR영상을 소정의 화면표시수단으로 출력하는 출력부; 및 상기 출력된 AR영상을 기초로 작업대상에 해당하는 작업로봇의 작업 위치에 대한 교정정보를 산출하는 교정부를 포함한다.Work robot teaching system using AR to achieve the above object, the input image unit for generating real image information that is image information about the actual work environment; A calculator configured to generate spatial coordinate data in which the virtual work object is located in the working environment from the real image information and a marker that is a reference for generating coordinates installed in the actual working environment; An AR image generation unit generating an AR image in which an image relating to a virtual work object is inserted into the real image information based on the spatial coordinate data; An output unit which outputs the generated AR image to a predetermined screen display unit; And a calibration unit configured to calculate calibration information on a work position of a work robot corresponding to a work target based on the output AR image.
상기의 구성을 통하여 AR영상을 이용하여 효과적인 작업을 수행할 수 있도록 작업로봇을 티칭할 수 있는 시스템을 실현할 수 있다.Through the above configuration, it is possible to realize a system that can teach a work robot to perform an effective work using the AR image.
본 발명의 또 다른 목적을 달성하기 위한 AR를 이용한 작업로봇 티칭 방법은, 실제 작업 환경에 관한 영상정보인 실영상정보를 생성하는 실영상생성단계; 상기 실영상정보와 실제 작업환경에 설치되는 좌표생성의 기준이 되는 마커로부터 가상 작업대상이 상기 작업환경에 위치하는 공간좌표 데이터를 생성하는 공간좌표데이터 생성단계; 상기 공간좌표 데이터를 기초로 상기 실영상정보에 가상 작업대상에 관한 영상이 삽입된 AR영상을 생성하는 AR영상생성단계; 상기 생성된 AR영상을 소정의 화면표시수단으로 출력하는 출력단계; 및 상기 출력된 AR영상을 기초로 작업대상에 해당하는 작업로봇의 작업 위치에 대한 교정정보를 산출하는 교정정보산출단계를 포함한다.Work robot teaching method using AR to achieve another object of the present invention, the real image generating step of generating real image information that is image information about the actual working environment; A spatial coordinate data generation step of generating spatial coordinate data in which a virtual work object is located in the working environment from a marker which is a reference for generating coordinates installed in the real image information and the actual working environment; An AR image generation step of generating an AR image in which an image relating to a virtual work object is inserted into the real image information based on the spatial coordinate data; An output step of outputting the generated AR image to a predetermined screen display means; And calculating calibration information on the work position of the work robot corresponding to the work object based on the output AR image.
상기의 단계구성을 통하여 AR영상을 이용하여 효과적인 작업을 운용할 수 있도록 작업로봇을 티칭할 수 있는 방법을 실현할 수 있다.Through the above step configuration, it is possible to realize a method for teaching a work robot so that an effective work can be operated using the AR image.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적인 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. It should be interpreted as meanings and concepts corresponding to the technical idea of the present invention based on the principle of definition.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.
도 1은 실제환경과 가상환경의 연속성에 관한 개념을 나타내는 개념도이다.1 is a conceptual diagram illustrating a concept of continuity between a real environment and a virtual environment.
본 발명의 상세한 설명에 앞서 AR(Augmented Reality)에 대한 개념설명을 하면 다음과 같다.Prior to the detailed description of the present invention, a conceptual description of AR (Augmented Reality) is as follows.
실제AR은 현실 세계와 가상 세계의 혼합인 합성현실(Mixed Reality)의 일환으로, 여기에서 합성현실(Mixed Reality)는 1994년 캐나다 토론토 대학의 Paul Milgram에 의해 정의되었다. Real AR is part of Mixed Reality, a mixture of real and virtual worlds, where Reality was defined by Paul Milgram of the University of Toronto, Canada, in 1994.
Paul Milgram은 실제 환경과 가상 세계가 서로 연속되어 있다고 주장하였는데, 실제 환경은 우리가 시각적으로 볼 수 있고 물리적으로 만질 수 있는 주변 환경을 말하고 가상 세계는 인간으로 하여금 새로운 환경에 와 있다고 느끼게 해주는 컴퓨터에 의해 만들어진 가상의 공간을 말한다.Paul Milgram argues that the real and virtual worlds are contiguous with each other, where the real world refers to the surroundings that we can see visually and physically, and the virtual world is a computer that makes us feel that we are in a new environment. Refers to the virtual space created by
합성현실(Mixed Reality)는 생산 시스템의 설계에서 실제 환경과 가상 환경이 동시에 존재하여 각각의 단점을 상호 보완하여 시스템의 현실성을 향상시키고자 하는 것이다. Mixed Reality aims to improve the reality of the system by complementing each of the shortcomings because the real and virtual environments exist at the same time in the design of the production system.
합성현실(Mixed Reality)는 실제와 가상 중 어느 것을 기반으로 하고 있는가에 따라서 AR(Augmented Reality)와 AV(Augmented Virtuality)로 나뉜다.Mixed Reality is divided into Augmented Reality (AR) and Augmented Virtuality (AV) depending on whether it is based on real or virtual.
AR은 실제 환경에 가상의 물체를 합성하여 실제 환경에 대한 현실감을 강화하는 반면, AV는 가상 환경에 실제 사물을 합성하여 가상 환경에 대한 현실감을 강화한다.AR enhances the reality of the virtual environment by synthesizing a virtual object in the real environment, while AV enhances the reality of the virtual environment by synthesizing the real object in the virtual environment.
즉, 도 1에서 도시된 바와 같이 실제 환경과 가상 환경은 일종의 연속선상의 스펙트럼을 가질 수 있으며 본 발명에서 주요 기술구성으로 채용하고 있는 것은 실제와 가상과의 중간영역스펙트럼에 존재하는 Augmented Reality 환경에 해당하게 되는 것이다.That is, as shown in FIG. 1, the real environment and the virtual environment may have a kind of continuous line spectrum, and the main technical configuration employed in the present invention is an Augmented Reality environment existing in an intermediate region spectrum between real and virtual. That's what happens.
이하에서는 도 2와 도 3을 통하여 본 발명에 의한 AR을 이용한 작업로봇 티칭 시스템 및 방법을 설명하도록 한다.Hereinafter, a working robot teaching system and method using AR according to the present invention will be described with reference to FIGS. 2 and 3.
본 발명에 의한 AR를 이용한 작업로봇 티칭 시스템은 입력영상부(200), 연산부(210),AR영상생성부(220), 출력부(230), 교정부(240) 및 대상정보 저장부(250)를 포함한다.The working robot teaching system using the AR according to the present invention includes an
우선적으로 입력영상부(200)는 실제 작업 환경에 관한 영상정보인 실영상정보를 생성하게 된다(S300).First, the
이는 공장 자동라인의 실제 작업 환경에 대한 실제 영상을 의미하는 것으로 다종의 영상장치, 카메라, 비전시스템 등을 통하여 입력된 영상을 데이터화하여 생성된다.This means the actual image of the actual working environment of the factory automatic line is generated by data input image through a variety of imaging devices, cameras, vision systems, and the like.
상기의 실영상정보를 생성함에 있어서, 카메라 등의 시각장치가 데이터적으로 인식하는 모습와 실제환경과는 다소 차이가 날 수 있으므로 정밀한 실제영상을 구현하기 위하여 소정의 방법을 통한 보정으로 실제 환경과 정합되도록 하는 것이 바람직하다.In generating the real picture information, the visual device such as a camera may recognize the data and may be somewhat different from the real environment. It is desirable to.
즉, 카메라의 시각분해능, 렌즈의 굴곡, 카메라의 해상도, 렌즈의 형상 등에 의한 물리적이고 광학적인 원인에 의하여 실제 환경 영상이 다소 왜곡될 수 있다.That is, the actual environment image may be somewhat distorted due to physical and optical causes due to the visual resolution of the camera, the bending of the lens, the resolution of the camera, and the shape of the lens.
상기와 같은 문제점을 효과적으로 해결하기 위하여, 입력영상부(200)는 보정부(202)와 정합부(204)를 포함하는 것이 바람직하다.In order to effectively solve the above problems, the
보정부(202)는 동일크기 흑백의 영역이 다수개 형성되어 있는 보정용 마커의 영상을 입력받아 상기 입력된 영상의 왜곡정도를 연산하여 보정데이터를 산출하도록 한다(S302).The
상기 보정용 마커의 일 실시예로 적용될 수 보정용마커는 도 5에 도시되어 있다. 도 5에 도시되어 있는 바와 같이 바둑판 형상의 정사각형상의 마커는 흑, 백의 동일크기의 영역을 가지고 있다.A calibration marker that can be applied to one embodiment of the calibration marker is shown in FIG. 5. As shown in FIG. 5, the checkerboard-shaped square marker has areas of the same size of black and white.
상기와 같은 보정용마커는 좌우 길이가 일정하므로 영상장치가 이를 입력받는 경우, 좌우 대칭성, 굴곡성 등을 용이하게 판단할 수 있으므로 상기 보정용마커를 우선적으로 인식케 하고, 필요한 보정데이터를 산출하게 한다.Since the correction markers have the same left and right lengths, the imager can easily determine the left and right symmetry, the bendability, and the like, so that the correction markers are first recognized and the necessary correction data are calculated.
또한, 보정데이터를 산출함에 있어서, 왜곡 정도의 연산을 일회로 하는 것이 아니라, 20 내지 30회 정도 수행한 후, 수행결과를 평균한 평균값을 이용하여 보정데이터를 산출하여 더욱 실질적인 보정이 이루어지도록 하는 것이 바람직하다.In addition, in calculating the correction data, the calculation of the degree of distortion is not performed once, but after about 20 to 30 times, the correction data is calculated using an average value obtained by averaging the results, so that more substantial correction is performed. It is preferable.
또한, 연산오류, 입력오류 등에 의하여 일반적인 산출값과는 크게 동떨어진 산출값은 제외하고 나머지 산출값을 평균한 값을 중심으로 보정데이터를 산출하는 것이 더욱 바람직하다.In addition, it is more preferable to calculate the correction data centering on the average value of the remaining calculation values except for the calculation value which is far from the general calculation value due to a calculation error or an input error.
상기 보정부(202)에서 보정데이터를 산출한 후(S302), 정합부(204)는 상기 보정데이터를 기초로 상기 실영상정보를 교정하여 생성하게 된다(S304).After the correction data is calculated by the correction unit 202 (S302), the
상기와 같이 보정된 데이터를 통하여 실영상정보의 왜곡이나 굴곡, 원근 등에 의한 오류를 최소화하여 실영상정보를 생성함으로써 더욱 실제적인 작업 환경에 관한 영상을 생성할 수 있게 된다.Through the corrected data as described above, it is possible to generate an image related to a more realistic working environment by generating real image information by minimizing errors due to distortion, bending, and perspective of the real image information.
다음으로 연산부(210)는 상기 실영상정보와 실제 작업환경에 설치되는 좌표생성의 기준이 되는 마커로부터 가상 작업대상이 상기 작업환경에 위치하는 공간좌표 데이터를 생성한다(S310).Next, the
상기 과정의 마커는 실제 작업환경에 설치되는 것으로서, 좌표생성의 기준이 되는 일종의 표지가 된다.The marker of the above process is installed in the actual working environment, and becomes a kind of mark which is a reference for generating coordinates.
상기 마커(Marker)에 대한 일 실시예는 도 4에 도시하고 있으며 이에 대하여 좀 더 상세한 설명을 하면 다음과 같다.An embodiment of the marker is shown in FIG. 4, which will be described in more detail as follows.
AR 시스템에서 정의하는 공간은 카메라나 컴퓨터의 모니터를 통해서 보이게 되는 실제 환경을 의미한다. 트래킹(Tracking)을 통해서 얻어지는 물체에 대한 데 이터는 평행좌표계로 표현되고 물체의 위치를 나타내는 X, Y, Z와 물체의 방향(또는 자세)를 나타내는 Rx, Ry, Rz로 구성되어 6개의 자유도(6DOF : 6 Degree of Freedom)를 가지게 된다. The space defined by the AR system refers to the actual environment seen through the camera or monitor of the computer. The data about the object obtained through tracking consists of X, Y, Z representing the position of the object and Rx, Ry, Rz representing the direction (or posture) of the object. (6DOF: 6 Degree of Freedom).
트래킹에는 기계, 자기, 광학, 관성 및 음향 등의 다양한 측정원리가 있지만 본 연구 개발을 위해서는 높은 정밀도를 보이는 광학 트래킹이 바람직하다. 광학트래킹(Tracking)은 물체의 위치와 좌표계의 설정을 위해 특정한 형상의 마커를 필요로 한다. There are various measuring principles such as mechanical, magnetic, optical, inertial, and acoustical tracking, but optical tracking with high precision is desirable for this research and development. Optical tracking requires a marker of a particular shape to set the position of the object and the coordinate system.
마커는 카메라 등의 시각장치를 통해서 트래킹 되었을 때 실제 환경에서 가상 모델에 대한 좌표계를 나타내는 역할을 한다. AR 시스템에서 실제 환경과 가상 모델은 단순히 합성에만 그치는 것이 아니라 각각의 공간에 대한 정의를 통해 서로 유기적으로 연결된다. The markers represent the coordinate system for the virtual model in the real environment when tracked through a visual device such as a camera. In the AR system, the real environment and the virtual model are not just synthesized, but are organically connected to each other through the definition of each space.
공간에 대한 데이터는 카메라를 통해 트래킹되는 마커가 가지는 데이터를 컴퓨터에 읽어 표현된다. 마커는 사용하는 시스템에 따라 다양한 형태를 보이는데 본 발명에서는 트래킹 에러가 적고, 다양한 코드를 손쉽게 나타낼 수 있는 정사각형 마커(Square Marker)를 채용하는 것이 바람직하다.Data about the space is represented by reading the data of the marker tracked through the camera to the computer. The markers show various shapes depending on the system used. In the present invention, it is preferable to employ a square marker that has less tracking error and can easily display various codes.
정사각형 마커(Square Marker)는 여러 개의 크고 작은 정사각형의 조합으로 이루어진다. 마커의 가장자리에 위치한 정사각형은 트래킹 모듈이 마커를 인식할 수 있는 최소한의 경계를 나타낸다. 내부의 작은 정사각형은 마커의 형태를 구분하는 3×3 행렬이다. Square markers consist of a combination of several large and small squares. The square located at the edge of the marker represents the minimum boundary at which the tracking module can recognize the marker. The small square inside is a 3x3 matrix that separates the shape of the markers.
흑색은 1을 백색은 0을 나타내며 도 4와 같은 마커는 {(1, 0, 0), (0, 0, 0), (0, 0, 0)}의 행렬을 의미한다. 이러한 행렬의 형태를 바꾸어 주면 다양한 마커의 형상을 만들어낼 수 있게 된다.Black means 1, white means 0, and a marker like FIG. 4 means a matrix of {(1, 0, 0), (0, 0, 0), (0, 0, 0)}. By changing the shape of these matrices, various marker shapes can be created.
이러한 마커를 기준으로 하여 가상 작업 대상이 실제 환경에서 위치하게 되는 공간좌표 데이터를 생성하게 된다. Based on these markers, the spatial coordinate data that the virtual work target is located in the real environment is generated.
공간좌표 데이터를 생성함에 있어서, 복수개의 마커를 기준으로 마커 각각으로부터 독립된 좌표를 연산하고 복수개의 마커로부터 연산된 각각의 공간좌표 데이터를 중첩시킴으로써 상기 가상 작업대상이 위치하는 공간좌표 데이터를 연산하도록 구성하는 것이 위치의 정밀한 결정을 위하여 바람직하다.In generating the spatial coordinate data, the spatial coordinate data in which the virtual work object is located is calculated by calculating coordinates independent from each of the markers based on the plurality of markers, and superimposing respective spatial coordinate data calculated from the plurality of markers. It is desirable to precisely determine the position.
상기와 같이 가상 작업대상의 공간좌표 데이터가 생성된 후, AR영상생성부(220)는 상기 공간좌표 데이터를 기초로 상기 실영상정보에 가상 작업대상에 관한 영상이 삽입된 AR영상을 생성하게 된다(S320).After the spatial coordinate data of the virtual work object is generated as described above, the
AR영상을 생성하는 경우, 작업 대상에 대한 데이터, 예를 들어, 작업 대상이 차량인 경우, 각 차량에 대한 영상정보를 대상정보저장부(250) 등의 저장공간에 저장하고 상기 저장된 영상정보에서 작업 대상에 관한 데이터를 독출하고, 독출된 작업 대상 데이터를 상기 연산된 공간좌표 데이터를 토대로 작업 환경 영상에 정합시키는 과정을 거치게 되도록 구성하는 것이 바람직하다.When generating an AR image, data about a work target, for example, when the work target is a vehicle, stores image information about each vehicle in a storage space such as a target
또한, 이렇게 생성된 AR영상은 소정의 저장공간인 대상정보 저장부(250) 등에 정보를 저장토록 하여, 작업대상에 대한 작업이 완료된 후, 작업의 오류, 성과 등을 산출하는 데 효과적으로 이용될 수 있도록 하는 것이 바람직하다.In addition, the generated AR image is to be stored in the target
상기 연산부(210)은 상기 실영상정보와 좌표축의 방향을 정하기 위한 메인마 커와 상기 메인마커와의 동일방향의 좌표계를 가지기 위하여 회전되는 3개의 보조마커를 이용하여 가상 작업도구가 상기 작업환경에 위치하는 공간좌표 데이터를 더 생성할 수 있다.The
또한, 상기 AR영상생성부(220)는 상기 연산부(210)에서 생성된 가상 작업도구의 공간좌표 데이터를 기초로 상기 가상 작업도구에 관한 영상이 더 삽입된 AR영상을 생성할 수도 있다.Also, the
상기와 같은 구성을 통하여 작업을 수행하는 가상 작업도구도 AR영상에 포함시켜 더욱 정밀하게 세밀하게 작업 도구의 위치와 작업 대상의 위치 및 작업 환경을 유기적으로 연관시켜 작업을 수행할 수 있다.The virtual work tool that performs the work through the configuration as described above may be included in the AR image to perform the work by organically correlating the position of the work tool with the position of the work target and the work environment more precisely.
아래 표 1은 상기 마커, 메인마커, 보조마커에 대한 일 실시예로 이용되는 마커의 예시 및 각각의 원점거리, 회전각 등을 도시하고 있다.Table 1 below shows an example of a marker used as an embodiment for the marker, the main marker, and the auxiliary marker, and their respective origin distances and rotation angles.
가상 공구를 위한 다중 마커는 네 개의 마커로 구성된 3차원 형상으로 디자인할 수 있다. 이는 카메라가 어느 임의의 각도에서 마커를 비추어도 항상 마커가 디스플레이 영상에 좌표계를 설정할 수 있도록 하기 위함이다.Multiple markers for a virtual tool can be designed in a three-dimensional shape consisting of four markers. This is so that the marker can always set the coordinate system on the display image even if the camera illuminates the marker at any arbitrary angle.
3차원 형상의 마커(Marker) 구성은 앞의 가상 차량의 좌표계 설정 방법과는 다른 구성을 갖는다. 우선 네 개의 마커(Marker)들 중에서 좌표축의 방향을 결정하는 메인마커(Main Marker)를 선정하여 나머지 세 개의 마커(Marker)들을 이 메인마커(Main Marker)와 같은 좌표계의 방향을 가지게 하기 위해 좌표계를 회전시킨다. The marker configuration of the three-dimensional shape has a different configuration from the method of setting the coordinate system of the foregoing virtual vehicle. First, select the main marker that determines the direction of the coordinate axis among the four markers, and set the coordinate system so that the other three markers have the same coordinate system direction as the main marker. Rotate
그 후 앞의 가상 차량의 좌표계를 설정하는 방법과 마찬가지로 각 마커(Marker)의 중심 좌표를 실제 공구에 대응하는 점으로 변환하여 결정하게 된다. Thereafter, similarly to the method of setting the coordinate system of the virtual vehicle, the center coordinates of the markers are converted into points corresponding to the actual tools.
AR영상이 생성되었으면, 시각적으로 출력되어 작업로봇의 티칭 작업에 시각적으로 이용되기 위하여 본 발명의 출력부(230)는 상기 생성된 AR영상을 소정의 화면표시수단으로 출력하게 된다(S330).When the AR image is generated, the
상기 화면표시수단은 데이터 영상을 시각적으로 표현할 수 있는 장치라면, TV, 모니터, LCD, PDP 등 다양한 적용예가 가능함은 물론이다.If the screen display means is a device capable of visually representing a data image, various applications such as a TV, a monitor, an LCD, a PDP are possible.
그 후, 교정부(240)는 상기 출력된 AR영상을 기초로 작업대상에 해당하는 작업로봇의 작업 위치에 대한 교정정보를 산출한다(S240).Thereafter, the
상기의 과정을 간단히 정리하면, 마커로부터 생성된 좌표를 중심으로 트래킹 모듈(연산부)에서 계산된 위치에 합성되어 디스플레이 장치로 전송되며, 이와 같은 단계을 수행하여 실제 공정이 수행되는 주변의 환경에 가상의 차량이 덧입혀지는 것이다. Briefly summarizing the above process, the coordinates generated from the markers are synthesized at the position calculated by the tracking module (operation unit) and transmitted to the display device. The vehicle is overlaid.
실제 작업 환경에 덧입혀진 가상의 차량은 실제 차량과 같은 치수와 형상을 나타내기 때문에 로봇 티칭 과정의 차량의 역할을 하며, 이 가상 차량을 보면서 작업자가 공정을 수행할 수 있게 된다.Since the virtual vehicle added to the actual working environment has the same dimensions and shape as the actual vehicle, it acts as a vehicle for the robot teaching process, and the operator can perform the process while viewing the virtual vehicle.
또한, 상기 AR영상생성부(220)는 상기 AR영상에서 상기 가장 작업도구의 연장안내선을 상기 가상 작업대상과 겹치도록 표시하고, 상기 연장안내선을 소정간격마다 구별되는 색으로 달리 표시하도록 구성하는 것이 바람직하다.In addition, the AR
상기의 구성은 AR 시스템을 응용하여 로봇 티칭 시뮬레이션을 하는 과정에서 작업자의 가시적인 부분과 관련한 문제점과 기존의 로봇 티칭 데이터와 AR 시스템을 응용한 티칭 데이터를 비교 과정에서 더욱 정밀하게 운용하게 위한 것이다.The above configuration is to more accurately operate the problems related to the visible part of the operator in the process of the robot teaching simulation by applying the AR system and the teaching data using the conventional robot teaching data and the AR system in the comparison process.
우선, 로봇 티칭 과정에서 작업자가 디스플레이 모니터를 보면서 가상 공구와 가상 차량의 접근성이 용이하지 않을 수 있다. 즉, 가상 대상물들에 대한 원근 지각이 쉽지 않아 정확한 가상 공구의 위치를 파악하기 쉽지 않을 수 있으므로, 가상 공구에 부가적인 요소를 첨가하여 표시되도록 구성하는 것이 바람직하다.First, while the robot teaching process, the operator may not easily access the virtual tool and the virtual vehicle while looking at the display monitor. That is, since perspective perception of the virtual objects may not be easy, it may not be easy to determine the exact position of the virtual tool. Therefore, it is preferable to configure the virtual tool to be displayed by adding additional elements.
우선 가상 공구의 끝에서 확장된 안내선을 부가하여 안내선이 차량과 중첩되도록 구성하고, 이 안내선에는 50㎜ 단위로 색을 다르게 하여 가상 대상물들 사이의 거리를 가시적으로 인식할 수 있게 구성함으로써 효과적으로 상기의 난점을 극복할 수 있는 구성을 실현할 수 있다.At first, the guide line is extended at the end of the virtual tool so that the guide line overlaps with the vehicle, and the guide line can be visually recognized by the distance between the virtual objects by changing the color in 50 mm units. A configuration that can overcome the difficulties can be realized.
한편, 상기 연산부(210)에서 공간좌표 데이터를 생성함에 있어서, 상기 가상 작업대상의 중심좌표에 대응하는 실제 작업 대상의 위치의 높이와 가상 작업대상의 높이의 차이를 보상하여 상기 가상 작업대상의 위치를 결정하여 공간좌표 데이터를 생성하는 것이 바람직히다.On the other hand, in generating the spatial coordinate data in the
이는 실제 작업 대상이 행거 등에 의하여 라인으로 이동하게 되는 경우, 각각의 작업 대상이 행거 등에 위치하는 실제 높이가 차이가 날 수 있으므로 이를 보정하므로써, 더욱 정밀한 공간좌표 데이터를 생성할 수 있도록 구성한다.This is configured to generate more precise spatial coordinate data by correcting this because when the actual work object is moved to the line by a hanger or the like, the actual height of each work object may be different.
아래 표 2에서와 같이 본 발명에 의한 AR 시스템 응용 로봇 티칭의 결과는 실제 차량의 티칭 포인트와의 비교를 통해 평가할 수 있으며 비교 결과를 표 2에 나타내었다.As shown in Table 2 below, the result of teaching the AR system applied robot according to the present invention can be evaluated by comparing with the teaching point of the actual vehicle, and the comparison results are shown in Table 2.
실제 차량의 티칭 데이터와 AR시스템을 응용한 로봇 티칭의 데이터는 차량의 축거 방향과 길이 방향으로 최대 3㎜의 오차를 보이고, 높이 방향으로 12㎜의 오차를 보였다. 이는 처음 목표로 한 오차 범위인 티칭 포인트 반경 50㎜이내의 큰 오차 범위에 비해 높은 정밀도를 보이고 있다. The actual teaching data of the vehicle and the robot teaching data using the AR system showed an error of up to 3 mm in the wheelbase and the longitudinal direction of the vehicle, and an error of 12 mm in the height direction. This shows a high accuracy compared to a large error range within a teaching point radius of 50 mm, which is the first target error range.
실제 차량이 행거에 거치 될 때, 임의의 위치에 대한 오차를 감안한다면 위와 같은 정도의 오차를 무시할 수 있을 정도의 값을 나타낸다고 할 수 있다.When the actual vehicle is mounted on the hanger, considering the error of any position can be said to represent a value that can ignore the above degree of error.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is described by the person of ordinary skill in the art to which the present invention pertains. Various modifications and variations are possible without departing from the scope of the appended claims.
본 발명에 따른 AR를 이용한 작업로봇 티칭 시스템 및 방법은 다음과 같은 효과를 제공한다.Working robot teaching system and method using AR according to the present invention provides the following effects.
첫째, 가상 작업 대상과 외부 작업 환경을 이용하여 작업로봇의 티칭작업을 수행할 수 있으므로 더욱 효과적은 운용이 가능하다.First, since the teaching work of the work robot can be performed using the virtual work object and the external work environment, more effective operation is possible.
둘째, 다양한 실제 상황에서의 오류, 보정 사항을 반영할 수 있어 정밀성이 요구되는 작업시스템에도 효율적으로 적용할 수 있다.Second, it can reflect errors and corrections in various real situations, so it can be efficiently applied to work systems that require precision.
세째, AR영상을 이용하므로써, 작업의 능률을 높일 수 있으며, 작업의 성과 를 데이터화하여 저장할 수 있으므로 작업률과 향후 작업계획을 효과적으로 수립할 수 있다.Third, by using AR images, work efficiency can be enhanced, and the work performance can be saved by storing data. Therefore, work rate and future work plan can be effectively established.
네째, 가상 작업 대상을 이용할 수 있으므로, 실제 티칭을 위하여 가동 라인을 중단하거나 단속시킬 필요가 없으므로 더욱 신속한 작업이 수행될 수 있다.Fourth, since the virtual work target can be used, more rapid work can be performed since there is no need to interrupt or interrupt the operation line for actual teaching.
Claims (14)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060082519A KR100786351B1 (en) | 2006-08-29 | 2006-08-29 | System and method for teaching work-robot based on ar |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060082519A KR100786351B1 (en) | 2006-08-29 | 2006-08-29 | System and method for teaching work-robot based on ar |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100786351B1 true KR100786351B1 (en) | 2007-12-14 |
Family
ID=39141138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060082519A KR100786351B1 (en) | 2006-08-29 | 2006-08-29 | System and method for teaching work-robot based on ar |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100786351B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101559586B1 (en) | 2009-05-19 | 2015-10-13 | 한양대학교 산학협력단 | Apparatus and method for guiding information using augmented reality |
KR101623041B1 (en) | 2008-08-19 | 2016-05-23 | 광주과학기술원 | System and method for managing markers coexisting mixed space, and the recording media storing the program performing the said method |
CN106863295A (en) * | 2015-12-10 | 2017-06-20 | 发那科株式会社 | Robot system |
KR20170114614A (en) | 2016-04-05 | 2017-10-16 | 한국과학기술원 | Task performing robot and method based on human robot interaction |
CN108972568A (en) * | 2017-05-31 | 2018-12-11 | 发那科株式会社 | Robot system of the display for the information of the teaching of robot |
CN112313046A (en) * | 2018-06-26 | 2021-02-02 | 发纳科美国公司 | Defining regions using augmented reality visualization and modification operations |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030076036A (en) * | 2002-03-22 | 2003-09-26 | 한국과학기술연구원 | Multi-degree of freedom telerobotic system for micro assembly |
KR20030095567A (en) * | 2002-06-12 | 2003-12-24 | 한국과학기술연구원 | Method and Device for assembling MEMS Components |
KR20040008456A (en) * | 2002-07-18 | 2004-01-31 | 손광훈 | Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof |
US20050251290A1 (en) | 2002-05-24 | 2005-11-10 | Abb Research Ltd | Method and a system for programming an industrial robot |
-
2006
- 2006-08-29 KR KR1020060082519A patent/KR100786351B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20030076036A (en) * | 2002-03-22 | 2003-09-26 | 한국과학기술연구원 | Multi-degree of freedom telerobotic system for micro assembly |
US20050251290A1 (en) | 2002-05-24 | 2005-11-10 | Abb Research Ltd | Method and a system for programming an industrial robot |
KR20030095567A (en) * | 2002-06-12 | 2003-12-24 | 한국과학기술연구원 | Method and Device for assembling MEMS Components |
KR20040008456A (en) * | 2002-07-18 | 2004-01-31 | 손광훈 | Apparatus for Embodying Stereo/Multiview Realistic Mixed Reality using Pose Estimation and Method Thereof |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101623041B1 (en) | 2008-08-19 | 2016-05-23 | 광주과학기술원 | System and method for managing markers coexisting mixed space, and the recording media storing the program performing the said method |
KR101559586B1 (en) | 2009-05-19 | 2015-10-13 | 한양대학교 산학협력단 | Apparatus and method for guiding information using augmented reality |
CN106863295A (en) * | 2015-12-10 | 2017-06-20 | 发那科株式会社 | Robot system |
CN106863295B (en) * | 2015-12-10 | 2019-09-10 | 发那科株式会社 | Robot system |
US10543599B2 (en) | 2015-12-10 | 2020-01-28 | Fanuc Corporation | Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot |
DE102016123945B4 (en) | 2015-12-10 | 2022-03-03 | Fanuc Corporation | Robotic system equipped with a video display device that displays an image of a virtual object superimposed on a video image of a robot |
KR20170114614A (en) | 2016-04-05 | 2017-10-16 | 한국과학기술원 | Task performing robot and method based on human robot interaction |
CN108972568A (en) * | 2017-05-31 | 2018-12-11 | 发那科株式会社 | Robot system of the display for the information of the teaching of robot |
CN108972568B (en) * | 2017-05-31 | 2019-11-15 | 发那科株式会社 | Robot system of the display for the information of the teaching of robot |
CN112313046A (en) * | 2018-06-26 | 2021-02-02 | 发纳科美国公司 | Defining regions using augmented reality visualization and modification operations |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11928838B2 (en) | Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display | |
EP1494486B1 (en) | Image processing system, projector, information storage medium, and image processing method | |
KR100648592B1 (en) | Image processing system, projector, and image processing method | |
KR101636605B1 (en) | System and method for calibration of machine vision cameras along at least three discrete planes | |
CN112399158B (en) | Projection image calibration method and device and projection equipment | |
KR100786351B1 (en) | System and method for teaching work-robot based on ar | |
JPH03505924A (en) | Method and system for automatically determining the position and orientation of an object in three-dimensional space | |
CN111195897B (en) | Calibration method and device for mechanical arm system | |
JP2012253758A (en) | Method of calibrating vehicle vision system and vehicle vision system | |
US10410419B2 (en) | Laser projection system with video overlay | |
JP2014170374A (en) | Ar system employing optical see-through type hmd | |
US11380063B2 (en) | Three-dimensional distortion display method, terminal device, and storage medium | |
JP4572377B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
Moser et al. | Evaluation of user-centric optical see-through head-mounted display calibration using a leap motion controller | |
KR101782317B1 (en) | Robot calibration apparatus using three-dimensional scanner and robot calibration method using the same | |
JP2003065714A (en) | Guiding device and guiding method for camera calibration, and camera calibration apparatus | |
CN115965697A (en) | Projector calibration method, calibration system and device based on Samm's law | |
Tian et al. | A study on three-dimensional vision system for machining setup verification | |
JP2011047725A (en) | Method for estimating fixation position of imaging device and calibration system | |
JP2021058972A (en) | Robot system | |
KR20230065880A (en) | Marker detecting device and robot teaching system | |
CN114794667A (en) | Tool calibration method, system, device, electronic equipment and readable storage medium | |
Ribeiro et al. | Photogrammetric multi-camera calibration using an industrial programmable robotic arm | |
JP2021058979A (en) | Robot arm test apparatus | |
US12147613B2 (en) | Control method, virtual reality system, and non-transitory computer readable storage medium with map of head-mounted device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20111128 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |