[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR20120111857A - 로봇물고기의 물체 추적 방법 - Google Patents

로봇물고기의 물체 추적 방법 Download PDF

Info

Publication number
KR20120111857A
KR20120111857A KR1020110057574A KR20110057574A KR20120111857A KR 20120111857 A KR20120111857 A KR 20120111857A KR 1020110057574 A KR1020110057574 A KR 1020110057574A KR 20110057574 A KR20110057574 A KR 20110057574A KR 20120111857 A KR20120111857 A KR 20120111857A
Authority
KR
South Korea
Prior art keywords
image
correction module
robot fish
image correction
swimming
Prior art date
Application number
KR1020110057574A
Other languages
English (en)
Inventor
김종환
정인배
한승범
나기인
홍지욱
김현진
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20120111857A publication Critical patent/KR20120111857A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 영상 보정 모듈을 포함하는 로봇물고기의 물체 추적 방법에 관한 것으로서, (A) 상기 영상 보정 모듈이 외부 영상 정보를 획득하며, 획득한 외부 영상 정보를 이용하여 현재 방향 및 유영 방향을 결정하는 단계; (B) 상기 영상 보정 모듈이 상기 (A) 단계에서 결정된 현재 방향과 유영 방향이 서로 일치하는지를 판단하는 단계; (C) 상기 (B) 단계의 판단 결과, 현재 방향이 유영 방향과 불일치하는 경우, 상기 영상 보정 모듈이 상기 외부 영상 정보를 기준 영상과 접합하는 단계; (D) 상기 영상 보정 모듈이 상기 (C) 단계에서 접합한 영상을 목적 물체의 위치와 비교하여 목적 물체의 상대적 위치를 파악하는 단계; 및 (E) 상기 영상 보정 모듈(10)이 상기 (D) 단계에서 파악한 목적 물체의 방향으로 로봇물고기가 유영할 수 있도록 추적 방향을 결정하는 단계;를 포함한다.
본 발명에 따르면, 영상 접합 기법을 이용하여 로봇물고기의 흔들림에 따른 오차를 보정한 외부 영상 정보를 제공함으로써, 로봇물고기가 자체적으로 특정 물체의 위치를 정확하게 추출하고 추적하도록 하는 효과가 있다.

Description

로봇물고기의 물체 추적 방법 {Object tracking method of the robot fish}
본 발명은 로봇물고기의 물체 추적 방법에 관한 것으로서, 보다 상세하게는 로봇물고기가 유영 중 외부 영상을 획득하는 과정에서 발생하는 흔들림을 보정하여 보정된 외부 영상에 따라 로봇물고기가 자체적으로 유영 방향을 파악하여 목적 물체를 추적할 수 있는 방법에 관한 것이다.
종래 로봇물고기가 자체적으로 유영 방향을 추정하기 위한 방법의 하나로서, 유영 방향 결정을 위한 자이로 센서, 유영 시 발생하는 가속도 측정을 위한 가속도 센서, 자이로 센서를 적분하면서 축적되는 오차를 보정하기 위한 지자기 센서로 구성되어 있는 모듈인 Internal Measurement Unit(IMU)을 이용하는 방법이 있었다.
하지만 IMU는 고가이며, 다수의 모터로 구성된 로봇물고기에 사용하기에는 지자기 센서가 주변 자기의 영향에 취약하여 정확성이 저하되는 문제점이 있었다.
또한, 그 외에 로봇물고기에 장착된 카메라가 외부 영상을 촬영하여 촬영한 영상 정보로부터 유영 방향을 추정하는 방법이 있으나, 이러한 방법에 따르면 로봇물고기의 유영 특성상 유영 중 과도한 흔들림이 발생하여 카메라로부터 획득하는 영상 정보가 부정확하다는 문제점이 있었다.
본 발명이 해결하려는 과제는, 상기 문제점을 극복하기 위한 것으로서, 지자기 센서를 사용하지 않고도 외부 영상 정보를 제공함으로써 로봇물고기의 유영 방향을 추정함으로써 목적 물체를 추적할 수 있도록 하는 것이다.
본 발명이 해결하려는 다른 과제는, 상기 문제점을 극복하기 위한 것으로서, 영상 접합 기법을 이용함으로써 로봇물고기의 흔들림에 따른 오차를 보정한 외부 영상 정보를 제공하는 것이다.
본 발명이 해결하려는 또 다른 과제는, 상기 문제점을 극복하기 위한 것으로서, 종래의 외부 영상 이미지보다 광대역인 파노라마 이미지를 제공하고 제공된 이미지를 바탕으로 로봇물고기가 자체적으로 특정 물체의 위치를 정확하게 추출하고 추적하도록 하는 것이다.
본 발명은, 영상 보정 모듈을 포함하는 로봇물고기의 물체 추적 방법에 관한 것으로서, (A) 상기 영상 보정 모듈이 외부 영상 정보를 획득하며, 획득한 외부 영상 정보를 이용하여 현재 방향 및 유영 방향을 결정하는 단계; (B) 상기 영상 보정 모듈이 상기 (A) 단계에서 결정된 현재 방향과 유영 방향이 서로 일치하는지를 판단하는 단계; (C) 상기 (B) 단계의 판단 결과, 현재 방향이 유영 방향과 불일치하는 경우, 상기 영상 보정 모듈이 상기 외부 영상 정보를 기준 영상과 접합하는 단계; (D) 상기 영상 보정 모듈이 상기 (C) 단계에서 접합한 영상을 목적 물체의 위치와 비교하여 목적 물체의 상대적 위치를 파악하는 단계; 및 (E) 상기 영상 보정 모듈이 상기 (D) 단계에서 파악한 목적 물체의 방향으로 로봇물고기가 유영할 수 있도록 추적 방향을 결정하는 단계;를 포함한다.
이때, 상기 (A) 단계는, (A1) 상기 영상 보정 모듈의 가속도 센서가 x, y, z 방향에 따른 벡터 연산을 통해 현재 방향을 결정하는 단계; 및 (A2) 상기 영상 보정 모듈의 자이로 센서가 현재 방향의 각속도 값을 적분하여 현재 각도를 산출하고, 산출한 현재 각도에 대해 유영 주기 동안의 평균을 구함으로써 유영 방향을 결정하는 단계;를 포함하는 것을 특징으로 한다.
또한, 상기 (B) 단계 이후에, (F) 상기 (B) 단계의 판단 결과, 현재 방향이 유영 방향과 일치하는 경우, 상기 영상 보정 모듈이 상기 외부 영상 정보를 기준 영상으로 갱신하고 상기 (A) 단계로 절차를 이행하는 단계;를 더 포함하는 것을 특징으로 한다.
본 발명에 따르면, 지자기 센서를 사용하지 않고도 외부 영상 정보를 제공함으로써 로봇물고기의 유영 방향을 추정함으로써 목적 물체를 추적할 수 있도록 하는 효과가 있다.
본 발명에 따르면, 영상 접합 기법을 이용함으로써 로봇물고기의 흔들림에 따른 오차를 보정한 외부 영상 정보를 제공하는 효과가 있다.
본 발명에 따르면, 종래의 외부 영상 이미지보다 광대역인 파노라마 이미지를 제공하고 제공된 이미지를 바탕으로 로봇물고기가 자체적으로 특정 물체의 위치를 정확하게 추출하고 추적하도록 하는 효과도 있다.
도 1은 본 발명의 일실시예에 따른 로봇물고기에 관한 구성도이다.
도 2는 본 발명의 일실시예에 따른 로봇물고기 제작품 및 그에 장착된 영상 보정 모듈에 관한 사진이다.
도 3은 본 발명의 일실시예에 따른 진행방향 이미지(좌)를 기준으로 현재 이미지를 영상 접합(우)한 참고도이다.
도 4는 본 발명의 일실시예에 따른 로봇물고기의 물체 추적 방법에 관한 흐름도이다.
본 발명의 실시를 위한 구체적인 내용을 설명하기에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다.
또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.
이하, 본 발명의 일실시예에 따른 로봇물고기의 구성에 관해 도 1 내지 도 3을 참조하여 상세히 설명한다.
도 1은 본 발명의 일실시예에 따른 로봇물고기에 관한 구성도이며, 도 2는 본 발명의 일실시예에 따른 로봇물고기 제작품 및 그에 장착된 영상 보정 모듈에 관한 사진이고, 도 3은 본 발명의 일실시예에 따른 진행방향 이미지(좌)를 기준으로 현재 이미지를 영상 접합(우)한 참고도이다.
도 1에 도시한 바와 같이, 본 발명의 일실시예에 따른 로봇물고기는 영상 보정 모듈(10) 및 동력부(300)를 포함하여 구성된다.
영상 보정 모듈(10)은 센서부(100) 및 제어부(200)를 포함하는바, 센서부(100)는 방향센서(110) 및 카메라(120)를 구비하며, 제어부(200)는 MCU(211)를 구비한다.
상기 방향센서(110)는 본 발명의 일실시예에 따른 로봇물고기의 유영 방향을 추정하며 자이로 센서(111) 및 가속도 센서(112)로 구성되며, 카메라(120)는 본 발명의 일실시예에 따른 로봇물고기의 유영 중 외부 영상을 촬영하는 기능을 수행한다.
도 2를 참조하면, 카메라(120)는 영상 보정 모듈(10)로 외부 영상 정보를 전송할 수 있도록 외부 영상 촬영 가능한 위치에 장착되며, 카메라 고정체(121)에 의해 지지된다.
또한 도 2에는 도시되어 있지 않으나, 카메라 고정체(121) 후방에는 센서부(100)를 제어하는 회로기판(210)이 장착되며, 회로기판(210) 상면에는 MCU(211)가 형성됨과 동시에, 방향센서(110), 즉 자이로 센서(111) 및 가속도 센서(112)가 부착된다.
다음으로, 도 3을 참조하면 본 발명의 일실시예에 따른 영상 접합 기법에 의한 외부 영상 보정 원리를 확인할 수 있다.
본 발명의 일실시예에 따른 로봇물고기는 유영 중 일정한 주기마다 외부 영상을 획득하며, 특정 시점의 기준 영상과 기준 영상으로부터 일정한 시점 이후에 입력되는 입력 영상으로부터 접합 영상을 생성한다.
구체적으로, 영상 보정 모듈(10)은 기준 영상 및 입력 영상의 배경을 기준으로 일정 개수의 특징점을 검출하며, 검출한 특징점을 이용하여 기준 영상과 입력 영상을 서로 매칭하고, 매칭 영역을 기준 영상 또는 입력 영상에 반영함으로써 접합 영상을 생성할 수 있다.
도 3a는 유영 방향 전면으로부터 획득한 기준 영상의 일 예이며, 도 3b는 기준 영상을 중심으로 입력 영상의 배율, 일그러짐 및 위치를 변환한 후 기준 영상과 매칭함으로써 생성한 접합 영상이다.
상술한 바와 같은 영상 접합 기법에 따르면, 본 발명의 일실시예에 따른 로봇물고기가 유영하는 경우 다른 각도에서 목적 물체에 접근하더라도 기준 영상과 입력 영상이 매칭된 접합 영상을 생성하므로 현재의 입력 영상 중의 목적 물체가 존재하는 위치를 용이하게 파악할 수 있다.
또한 영상 접합 기법에 의해 유영 중 발생하는 흔들림과 무관하게 정확한 외부 영상 정보를 획득할 수 있음은 물론 광대역의 외부 영상 이미지 확보가 용이하다.
이하, 본 발명의 일실시예에 따른 로봇물고기의 물체 추적 방법에 관해 도 4를 참조하여 상세히 설명한다.
도 4는 본 발명의 일실시예에 따른 로봇물고기의 물체 추적 방법에 관한 흐름도이다.
먼저, 도 4에 도시된 바와 같이, 유영 중인 로봇물고기는 영상 보정 모듈(10)의 카메라(120)를 통해 외부 영상 정보를 획득하며(S400), 센서부(100)에 구비된 자이로 센서(111) 및 가속도 센서(112)를 이용해 현재 방향 및 유영 방향을 결정한다(S410).
S410 단계의 현재 방향 및 유영 방향 결정을 위해서는, 먼저 가속도 센서(112)가 x, y, z 방향에 따른 벡터 연산을 통해 현재 방향을 결정하며, 자이로 센서(111)가 현재 방향의 각속도 값을 적분하여 현재 각도를 산출하고, 산출한 현재 각도에 대해 유영 주기 동안의 평균을 구한다. 이때 계산된 평균 각도 값은 유영 방향을 의미한다.
다음으로, 영상 보정 모듈(10)이 S410 단계에서 결정된 현재 방향과 유영 방향이 서로 일치하는지를 판단한다(S420).
S420 단계에서 현재 방향과 유영 방향을 비교하기 위해서는 두 가지 방법을 고려할 수 있다.
그 중, 첫 번째 방법은 특정 시점에서의 입력 영상을 기준 영상에 접합하고 접합된 영상을 다음 시점에서의 기준 영상으로 갱신하여 갱신한 기준 영상을 바탕으로 다음 시점에서의 비교를 수행하는 방법이다.
두 번째 방법은 유영 방향의 기준 영상은 변경시키지 않고, 유영 방향이 변경되지 않는 한 계속적으로 기준 영상과의 비교를 수행하는 방법이다.
이때, 첫 번째 방법에 따르면 기준 영상을 지속적으로 갱신해야 하므로 추가적인 데이터 처리가 요구되며, 비교 시점마다 기준 영상의 특징점을 추출해야 하므로 연산 시간이 증가하는 문제점이 있다.
반면, 두 번째 방법에 따르면 유영 방향이 변경되는 경우에만 기준 영상을 갱신하므로, 기준 영상의 특징점을 추출하거나 접합 영상을 생성할 필요가 없어서 연산 시간을 단축시킬 수 있으며, S420 단계의 판단 방법으로는 두 번째 방법을 채택하는 것이 바람직하다.
S420 단계의 판단 결과, 현재 방향이 유영 방향과 일치하는 경우, 영상 보정 모듈(10)은 현재 시점의 외부 영상 정보를 영상 접합 기법에서의 기준 영상으로 설정하며, 주기적으로 S420 단계를 수행함으로써 기준 영상을 주기적으로 갱신한다(S421).
S420 단계의 판단 결과, 현재 방향이 유영 방향과 불일치하는 경우, 영상 보정 모듈(10)이 현재 시점의 외부 영상 정보를 기준 영상과 접합한다(S430).
S430 단계의 영상 접합 기법에 대해서는 상술한바 있으나, 더욱 구체적으로는 Speeded Up Robust Features(이하, SURF) 및 Random Sample Consensus(이하, RANSAC)로 구성된 영상 접합 기법을 참조할 수 있다.
SURF는 2006년 Herbert Bay에 의해 제안되었으며, descriptor를 이용하여 대상 영상의 특징점을 추출하는 기법 중의 하나이다. SURF는 반복성, 특수성, 강인성, 그리고 연산 속도에서 우수한 성능을 나타낸다.
SURF는 연산 속도 향상을 위해 네 개의 점을 입력하면 그에 의한 영역의 면적을 간단히 계산할 수 있는 적분 영상 방식을 이용하며, 차원수가 감소시켜 간단해진 탐지와 descriptor를 활용한다. 그리고 대조를 이용한 간단한 매칭을 사용하여 속도를 향상시키며, 본 발명의 일실시예에 따른 특징점 추출을 위해 사용될 수 있다.
또한, RANSAC은 1981년 Fischer과 Bolles에 의해 제안된 기법으로서 가외치(out-lier)를 포함하고 있는 데이터 집합의 예측을 위해 수학적인 모델에 의한 반복적인 작업을 수행하는 기법이다.
RANSAC은 일정한 확률에 근거하여 합리적인 결과를 도출하므로 비결정적 기법이며, 반복 작업 횟수가 증가할수록 결과의 정확도는 증대된다.
본 발명의 일실시예에 있어서, RANSAC에 따라 로봇물고기는 접합 영상에서의 중심점을 유영 방향으로 결정한다.
다음으로, 영상 보정 모듈(10)은 접합 영상을 목적 물체의 위치와 비교하여 목적 물체의 상대적 위치를 파악한다(S440).
그리고, 영상 보정 모듈(10)이 S440 단계에서 파악한 목적 물체의 방향으로 로봇물고기가 유영할 수 있도록 추적 방향을 결정한다(S450).
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시 예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주하여야 할 것이다.
10 : 영상 보정 모듈 100 : 센서부
200 : 제어부 300 : 동력부
110 : 방향센서 120 : 카메라
111 : 자이로 센서 112 : 가속도 센서
121 : 카메라 고정체 210 : 회로기판
211 : MCU(Micro Controller Unit)

Claims (3)

  1. 영상 보정 모듈(10)을 포함하는 로봇물고기의 물체 추적 방법에 있어서,
    (A) 상기 영상 보정 모듈(10)이 외부 영상 정보를 획득하며, 획득한 외부 영상 정보를 이용하여 현재 방향 및 유영 방향을 결정하는 단계;
    (B) 상기 영상 보정 모듈(10)이 상기 (A) 단계에서 결정된 현재 방향과 유영 방향이 서로 일치하는지를 판단하는 단계;
    (C) 상기 (B) 단계의 판단 결과, 현재 방향이 유영 방향과 불일치하는 경우, 상기 영상 보정 모듈(10)이 상기 외부 영상 정보를 기준 영상과 접합하는 단계;
    (D) 상기 영상 보정 모듈(10)이 상기 (C) 단계에서 접합한 영상을 목적 물체의 위치와 비교하여 목적 물체의 상대적 위치를 파악하는 단계; 및
    (E) 상기 영상 보정 모듈(10)이 상기 (D) 단계에서 파악한 목적 물체의 방향으로 로봇물고기가 유영할 수 있도록 추적 방향을 결정하는 단계;를 포함하는 로봇물고기의 물체 추적 방법.
  2. 제1항에 있어서,
    상기 (A) 단계는,
    (A1) 상기 영상 보정 모듈(10)의 가속도 센서(112)가 x, y, z 방향에 따른 벡터 연산을 통해 현재 방향을 결정하는 단계; 및
    (A2) 상기 영상 보정 모듈(10)의 자이로 센서(111)가 현재 방향의 각속도 값을 적분하여 현재 각도를 산출하고, 산출한 현재 각도에 대해 유영 주기 동안의 평균을 구함으로써 유영 방향을 결정하는 단계;를 포함하는 것을 특징으로 하는 로봇물고기의 물체 추적 방법.
  3. 제1항에 있어서,
    상기 (B) 단계 이후에,
    (F) 상기 (B) 단계의 판단 결과, 현재 방향이 유영 방향과 일치하는 경우, 상기 영상 보정 모듈(10)이 상기 외부 영상 정보를 기준 영상으로 갱신하고 상기 (A) 단계로 절차를 이행하는 단계;를 더 포함하는 것을 특징으로 하는 로봇물고기의 물체 추적 방법.
KR1020110057574A 2011-03-31 2011-06-14 로봇물고기의 물체 추적 방법 KR20120111857A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20110029253 2011-03-31
KR1020110029253 2011-03-31

Publications (1)

Publication Number Publication Date
KR20120111857A true KR20120111857A (ko) 2012-10-11

Family

ID=47282450

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110057574A KR20120111857A (ko) 2011-03-31 2011-06-14 로봇물고기의 물체 추적 방법

Country Status (1)

Country Link
KR (1) KR20120111857A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103640680A (zh) * 2013-12-12 2014-03-19 哈尔滨工业大学 一种变刚度摆动推进柔性仿生鱼的制作方法
CN104002948A (zh) * 2014-06-06 2014-08-27 西北工业大学 二自由度仿生机器鱼携带目标的控制方法
CN111152212A (zh) * 2019-12-05 2020-05-15 北京蒂斯科技有限公司 一种基于功率最优的机械臂移动轨迹规划方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103640680A (zh) * 2013-12-12 2014-03-19 哈尔滨工业大学 一种变刚度摆动推进柔性仿生鱼的制作方法
CN104002948A (zh) * 2014-06-06 2014-08-27 西北工业大学 二自由度仿生机器鱼携带目标的控制方法
CN104002948B (zh) * 2014-06-06 2016-04-06 西北工业大学 二自由度仿生机器鱼携带目标的控制方法
CN111152212A (zh) * 2019-12-05 2020-05-15 北京蒂斯科技有限公司 一种基于功率最优的机械臂移动轨迹规划方法及装置
CN111152212B (zh) * 2019-12-05 2021-01-22 北京蒂斯科技有限公司 一种基于功率最优的机械臂移动轨迹规划方法及装置

Similar Documents

Publication Publication Date Title
Kneip et al. Robust real-time visual odometry with a single camera and an IMU
KR101585521B1 (ko) 장면 구조-기반 자가-포즈 추정
KR102026382B1 (ko) 모션 추정 시스템 및 방법
CN110335317B (zh) 基于终端设备定位的图像处理方法、装置、设备和介质
JP2009266224A (ja) リアルタイム・ビジュアル・オドメトリの方法およびシステム
JP2008506953A5 (ko)
US20200264011A1 (en) Drift calibration method and device for inertial measurement unit, and unmanned aerial vehicle
US11042984B2 (en) Systems and methods for providing image depth information
US10401175B2 (en) Optical inertial measurement apparatus and method
JP2017134617A (ja) 位置推定装置、プログラム、位置推定方法
CN108780577A (zh) 图像处理方法和设备
EP2998934B1 (en) Image processing device, image processing method, and program
TW201926141A (zh) 影像目標追蹤方法及裝置
JP2017117386A (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP2014526736A (ja) 方位センサに基づくホモグラフィ分解の曖昧性の解決
CN106709222A (zh) 基于单目视觉的imu漂移补偿方法
US9595109B1 (en) Digital camera with orientation sensor for optical tracking of objects
CN112414400A (zh) 一种信息处理方法、装置、电子设备和存储介质
KR20120111857A (ko) 로봇물고기의 물체 추적 방법
JP2010003253A (ja) 運動推定装置
JP2019164521A (ja) 追尾装置
TWI635256B (zh) 基於相位對焦的定位方法及其系統
JP2014529823A (ja) グラフマッチングおよびサイクル検出による自動モデル初期化を用いた線トラッキング
US9245343B1 (en) Real-time image geo-registration processing

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination