KR20040045174A - 광 마우스의 이미지 데이터 처리방법 - Google Patents
광 마우스의 이미지 데이터 처리방법 Download PDFInfo
- Publication number
- KR20040045174A KR20040045174A KR1020020073213A KR20020073213A KR20040045174A KR 20040045174 A KR20040045174 A KR 20040045174A KR 1020020073213 A KR1020020073213 A KR 1020020073213A KR 20020073213 A KR20020073213 A KR 20020073213A KR 20040045174 A KR20040045174 A KR 20040045174A
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- axis
- image
- reference image
- frames
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 광 마우스의 이미지 데이터 처리방법에 관한 것으로, 디지털 데이터로 변환된 이미지 픽셀 데이터를 이미지신호 프로세서(ISP)에서 처리하여 마우스의 움직임 벡터값을 계산하는데, 상기 이미지신호 프로세서는 상기 계산된 이미지 픽셀 데이터 중에서 X축에 대한 움직임에 대한 X축 기준 이미지 데이터를 처리하기 위한 X축 네비게이션 엔진과, 상기 계산된 이미지 픽셀 데이터 중에서 Y축에 대한 움직임에 대한 Y축 기준 이미지 데이터를 처리하기 위한 Y축 네비게이션 엔진을 포함하며, 상기 X축 및 Y축 네비게이션 엔진에는 n-1프레임 기준 이미지와 n프레임 현재 이미지 및 n프레임 기준 이미지를 포함하고, 상기 n-1프레임 기준 이미지를 n프레임 현재 이미지에 순차적으로 오버랩 해가면서 가장 근사하게 일치하는 부분을 마우스의 움직이는 방향으로 결정하여 인터페이스를 통하여 PC로 전달하는 것으로, 이미지 픽셀 어레이의 X축 및 Y축 각각에 따라 그 결과를 계산하여 광 마우스의 움직임을 추출하는 것이 광 마우스의 움직임 방향에 따른 특성의 변화량을 개선한 것이다.
Description
본 발명은 광 마우스에 관한 것으로, 더욱 상세하게는 광 마우스의 2차원 평면 움직임 특성을 개선하기 위한 광 마우스의 이미지 데이터 처리방법에 관한 것이다.
일반적인 광 마우스의 데이터 처리 블록은 도 1에서 보인 것과 같이, 광 마우스의 바닥면의 이미지를 아날로그 데이터로 읽어 들여 디지털 데이터로 변환 처리하는 아날로그 처리부분(10)과, 디지털 데이터를 시간에 따른 모션(Motion; 움직임) 벡터값으로 산출 및 출력하는 디지털 처리부분(20)으로 대별된다.
상기 아날로그 처리부분(10)은 광 마우스 바닥면에서 반사되는 빛의 양과 강도에 반응하여 아날로그 이미지를 생성하는 이미지 픽셀 어레이(12)와, 상기 이미지 픽셀 어레이의 아날로그 데이터를 디지털 데이터로 변환하는 아날로그/디지털 컨버터(14)를 포함한다.
또한, 상기 디지털 처리부분(20)은 상기 디지털 데이터를 처리하여 광 마우스의 모션 벡터값을 계산하는 이미지신호 프로세서(ISP; Image Signal Processor)(22)와, 상기 이미지신호 프로세서에서 출력된 데이터를 통신을 통하여송수신하는 PC 인터페이스(24)를 포함한다.
상기 이미지신호 프로세서(22)에서 광 마우스의 움직임을 찾아가는 광 마우스의 이미지 데이터 처리방법에 관한 알고리즘에 대하여 도 2를 참조하여 설명한다.
이것을 구현하는 데는 픽셀 데이터를 저장하기 위한 메모리 공간이 적어도 3개를 필요로 한다. 즉 각 X축과 Y축에 대한 n-1프레임의 기준 이미지, n프레임의 현재 이미지, 그리고 n프레임의 기준 이미지이다.
상기 픽셀 데이터의 각각의 역할은, 먼저, n-1프레임의 기준 이미지는 n프레임에서 움직임을 찾기 위하여 n-1프레임의 전체 이미지 중에서 일부 이미지를 선택적으로 추출한 것이고, n프레임의 현재 이미지는 말 그대로 n프레임의 전체 이미지이다. 마지막으로 n프레임의 기준 이미지는 n프레임의 현재 이미지 중에서 일부 이미지를 선택적으로 추출한 것으로, n+1프레임의 움직임을 찾기 위한 기준 이미지가 된다.
이와 같이 n-1프레임의 기준 이미지를 n프레임의 현재 이미지에 순차적으로 오버랩(Overlap; 한 이미지에 다른 이미지가 겹침)하면서 일치하는 부분이 바로 움직이는 방향으로 결정된다. 이상적으로는 100% 동일해야 하지만 실제로 이미지 센서의 특성상 이미지의 노이즈(Noise) 성분 등으로 인하여 100% 일치하지는 못하고 가장 비슷하게 일치하는 부분을 찾게 된다.
이러한 과정을 반복적으로 수행함으로써 광 마우스의 움직임을 찾게 된다.
반복적으로 수행함에 있어서 고려해야 할 부분이 있다. 움직임을 계산하는알고리즘에서는 이미지 센서의 물리적인 픽셀 사이즈가 있으므로, 1픽셀 이하의 에러가 항상 존재하는데, 매번 n-1프레임의 기준 이미지를 n프레임의 기준 이미지로 업데이트를 하게 되면 1픽셀 이하로 천천히 움직일 때에 광 마우스의 움직임을 검출하지 못하게 된다. 이것을 개선하기 위해서는 매번 n-1프레임의 기준 이미지를 업데이트하지 않고, 움직임이 검출되었을 때에만 업데이트를 하게 되면 에러를 최소화시키며, 천천히 움직일 때에도 대응할 수 있다.
도 3은 1채널 알고리즘을 적용한 경우로서 우선, 매 프레임(예를 들어, 588μsec)마다 X축 방향으로 0.5픽셀, Y축 방향으로 0.2픽셀만큼 움직이는 경우에 1픽셀 미만의 움직임은 검출하지 못한다.
이때, 프레임은 1프레임에서 6프레임까지를 예를 들어 설명한다.
따라서 실제 n프레임에서의 시간에 대한 움직임을 살펴보면, 제1프레임(588μsec*1)에서의 X축 및 Y축의 운동량이 (0, 0)이면, 두 번째 588μsec이후의 제2프레임(588μsec*2)의 운동량은 (0.5, 0.2)이고, 제3프레임(588μsec*3)에서의 운동량은 (1, 0.4)이며, 제4프레임(588μsec*4)의 운동량은 (1.5, 0.6)이고, 제5프레임(588μsec*5)에서의 운동량은 (2, 0.8)이며, 제6프레임(588μsec*6)의 운동량은 (2.5, 1)이 된다. 이렇게 제11프레임까지 확대 적용한 실제 움직인 운동량은 (5, 2)이지만, 검출한 운동량은 (5, 0)이 된다.
여기에서 VX(X축 방향 누적 벡터합) 및 VY(Y축 방향 누적 벡터합) 각각에 대하여 제2프레임에서는 제1프레임과 대비하여 X축 방향으로 0.5픽셀 Y축 방향으로 0.2픽셀만큼 움직인 상태에서는 (0, 0)이 표시된다. 이는 n-1프레임의 기준 이미지(제1프레임)와 비교하여 1픽셀미만으로 움직인 거리에 대해서는 검출을 하지 않기 때문이다. 다음으로 제3프레임에서는 제2프레임과 대비하여 X축 방향으로 0.5픽셀만큼 움직이고, Y축 방향으로는 0.2픽셀만큼 움직인 상태에서는 (1, 0)이 표시된다. 왜냐하면 기준 이미지인 n-1프레임으로부터 X축 방향으로는 0.5픽셀씩 누적되어 1이 되고, Y축 방향으로는 0.2픽셀씩 누적되어 0.4가 된다. 이는 1이하의 값은 검출을 하지 않기 때문이다. 그리고 n-1프레임의 기준 이미지는 VX값이 0에서 1로 변하였으므로 제3프레임을 기준 이미지로 갱신한다.
이렇게 하여 확대 적용된 제11프레임 째의 움직임에서도 X축으로의 움직임에 대해서만 검출되므로 역시 (5, 0)가 표시된다. 그러나 Y축 방향에 대해서는 0.2씩 움직이는 거리에 대해서는 검출이 불가능하여 실제로 Y축 방향으로 2만큼 이동하더라도 표시가 이루어지지 않는다.
다시 정리하면 누적한 X축 방향과 Y축 방향인 (VX, VY)=(0, 0)+(1, 0)+(0, 0)+(1, 0)+(0, 0)=(2, 0)이 된다. 따라서 제6프레임까지의 실제 운동량은 (2.5, 1)의 VY 운동량 (1)은 검출하지 못한다. X축 오차는 2.5-2=0.5이고, 0.5는 다음의 제7프레임에서 검출된다. 그러므로 제11프레임까지 확대하여 적용했을 경우에 실제 운동량이 (5, 2)이지만, 검출한 운동량은 (5, 0)이 되어 X축 방향으로만 검출되고, Y축 방향으로는 정확한 운동량의 값이 산출되지 않는다.
이와 같이 종래의 방법을 적용함에 있어서, 광 마우스와 같이 2차원의 평면적인 움직임에서는 보완이 필요하다.
즉 하나의 네비게이션 엔진(이미지 데이터를 처리하는 프로그램 형태의 알고리즘)으로 2차원의 움직임을 계산하게 되면, 기준 이미지를 업데이트하는 조건에 따라 움직임에 대한 검출 에러가 증가하게 된다. 예를 들어, 업데이트 조건을 X축 움직임 또는 Y축 움직임이 발생했을 경우로 설정하면, X축 움직임이 크고 Y축 움직임이 1픽셀 이하일 때에 Y축 움직임을 검출하지 못하고, X축, Y축 움직임이 그 반대의 경우에도 마찬가지가 된다. 또 다른 경우로서, 업데이트 조건을 X축 움직임과 Y축 움직임이 발생했을 때로 설정하면 X축 움직임과 Y축 움직임이 동시에 검출될 때까지 기준 업데이트는 하지 않기 때문에 움직임 검출 에러가 증가하게 된다.
따라서, 종래의 광 마우스의 이미지 데이터 처리방법인 하나의 네비게이션 엔진으로 2차원 평면 움직임을 계산하게 되면, 실제 광 마우스에서 한 쪽 방향(X축 또는 Y축)의 1픽셀 이하에 대한 작은 움직임의 특성은 개선되지만, 다른 쪽 방향(Y축 또는 X축)의 움직임의 특성이 나빠지는 단점이 있다.
본 발명은 상기와 같은 종래의 단점들을 해소하기 위한 것으로, 2차원 평면 움직임을 찾아가는데 하나의 네비게이션 엔진을 사용하지 않고, X축 방향과 Y축 방향에 각각 네비게이션 엔진을 독립적으로 사용하여, X축 방향과 Y축 방향의 두 방향 모두에 대하여 움직임 특성을 개선하는 알고리즘을 제공하기 위한 것이 목적이다.
도 1은 일반적인 광 마우스에서의 이미지 데이터를 처리하는 과정을 도식화한 도면,
도 2는 종래에 광 마우스의 이미지 데이터 처리방법을 도식적으로 나타낸 동작 설명도,
도 3은 종래에 1채널의 네비게이션 엔진 분리의 최적화된 구조를 도식화한 도면,
도 4는 본 발명에 따른 광 마우스에서의 이미지 데이터를 처리하는 알고리즘의 동작상태를 설명하기 위한 도면,
도 5는 네비게이션 엔진의 분리의 벡터합을 도식화한 도면,
도 6은 본 발명에 따른 2채널의 네비게이션 엔진 분리의 최적화된 구조를 도식화한 도면,
도 7은 본 발명에 따른 최적화된 네비게이션 엔진의 분리로 2채널의 이미지 데이터를 처리하는 알고리즘의 흐름도.
♣ 도면의 주요부분에 대한 부호의 설명 ♣
10: 아날로그 처리부분12: 이미지 픽셀 어레이
14: 아날로그/디지털 컨버터20: 디지털 처리부분
22: 이미지신호 프로세서(ISP; Image Signal Processor)
24: PC 인터페이스
본 발명은 상술한 목적을 달성하기 위하여, 디지털 데이터로 변환된 이미지 픽셀 데이터를 이미지신호 프로세서(ISP)에서 처리하여 마우스의 움직임 벡터값을계산하는데, 상기 이미지신호 프로세서는 상기 계산된 이미지 픽셀 데이터 중에서 X축에 대한 움직임에 대한 X축 기준 이미지 데이터를 처리하기 위한 X축 네비게이션 엔진과, 상기 계산된 이미지 픽셀 데이터 중에서 Y축에 대한 움직임에 대한 Y축 기준 이미지 데이터를 처리하기 위한 Y축 네비게이션 엔진을 포함하며, 상기 X축 및 Y축 네비게이션 엔진에는 n-1프레임 기준 이미지와 n프레임 현재 이미지 및 n프레임 기준 이미지를 포함하고, 상기 n-1프레임 기준 이미지를 n프레임 현재 이미지에 순차적으로 오버랩 해가면서 가장 근사하게 일치하는 부분을 마우스의 움직이는 방향으로 결정하여 인터페이스를 통하여 PC로 전달하는 광 마우스의 이미지 데이터 처리방법을 제공한다.
이하 본 발명을 첨부된 도면을 참고하면서 좀 더 구체적으로 설명하면 다음과 같다.
도 4는 네비게이션 엔진 분리의 최적화된 구조로 구현하였다.
본 발명에서는 2차원적인 광 마우스의 움직임 검출 에러를 최소화시키기 위하여 X축과 Y축 방향에 각각의 네비게이션 엔진 분리를 제공하는 것이다. 즉 도 5의 네비게이션 엔진의 분리의 벡터 합을 도식화한 도면을 참조하면, X축 네비게이션 엔진에서 계산된 움직임을라 하고, Y축 네비게이션 엔진에서 계산된 움직임을라 하며, 벡터의 합으로 계산하여 마우스의 2차원 움직임의 벡터인는이 된다.
이렇게 하여 얻을 수 있는 이점은 2차원의 움직임, 예를 들면, 사선이나 원에서 보다 정확한 움직임 벡터값을 구할 수 있다. 광 마우스의 경우에는 보다 실제와 가까운 자연스러운 움직임을 구할 수가 있다.
이 네비게이션 엔진 분리의 개념은 얼마든지 1차원 이상인, 2차원, 3차원으로 확장되어 질 수 있다.
더욱이 본 발명에 관하여 다음의 실시예로서, 2채널에 의한 알고리즘의 적용예를 들어 설명하면 더욱 명확해질 것이다. 여기서 채널(Channel)은 편의상 차원(Dimension)의 의미로서 1채널은 한 방향(X축 또는 Y축; 1차원)을 나타내고, 2채널은 두 방향(X축 및 Y축; 2차원)을 나타낸다.
도 6의 2채널 알고리즘을 적용한 경우에는 1채널 알고리즘과 동일하게 매 프레임(예를 들어, 588μsec)마다 X축 방향으로 0.5픽셀, Y축 방향으로 0.2픽셀만큼 움직이는 경우에 1픽셀 미만의 움직임은 검출하지 못한다.
이때, 프레임은 1프레임에서 6프레임까지를 예를 들어 설명한다.
따라서, 현재 n프레임에서의 시간에 대한 움직임을 살펴보면, 제1프레임(588μsec*1)에서의 운동량이 (0, 0)이면, 두 번째 588μsec이후의 제2프레임(588μsec*2)의 운동량은 (0.5, 0.2)이고, 제3프레임(588μsec*3)에서의 운동량은 (1, 0.4)이며, 제4프레임(588μsec*4)의 운동량은 (1.5, 0.6)이고, 제5프레임(588μsec*5)에서의 운동량은 (2, 0.8)이며, 제6프레임(588μsec*6)의 운동량은 (2.5, 1)이 된다. 이렇게 제11프레임까지 확대 적용한 실제 움직인 운동량은 (5, 2)이 된다.
여기에서 VX에 대하여 제1프레임에서 제2프레임까지는 0이 된다. 이는 각각1픽셀미만으로 움직인 거리에 대해서는 검출이 이루어지지 않는다. 다음으로 제3프레임에서는 X축 방향으로 1픽셀만큼 움직인 상태이므로 1이 표시된다. 그리고 이때 X축 방향의 움직임이 0이 아닌 값이 검출되었으므로 n-1 프레임의 기준이미지도 n 프레임 기준이미지로 갱신되어야 한다. 이렇게 하여 확대하여 적용한 제11프레임 째의 움직임에서도 X축으로의 움직임에 대해서만 검출되므로 5가 표시된다.
한편, VY에 대하여 제1프레임에서 제2프레임까지는 0이 된다. 이는 각각 1픽셀미만으로 움직인 거리에 대해서는 검출이 이루어지지 않는다. 다음으로 제3프레임에서 제5프레임까지는 Y축 방향으로 1픽셀미만으로 움직인 상태이므로 0이 표시된다. 이렇게 하여 제6프레임 째의 움직임에서는 Y축으로의 움직임에 대해서 검출되므로 1이 표시되고, n-1프레임의 기준이미지를 n프레임 기준이미지로 갱신한다. 이러한 과정이 확대 적용한 11프레임까지 지속된다.
다시 정리하면 누적한 X축 방향의 벡터합 VX=0+1+0+1+0=2이고, Y축 방향의 벡터합 VY=0+0+0+0+1=1이 된다. 따라서 누적한 VX 및 VY의 벡터합은 (2, 1)이므로, 실제 운동량인 (2.5, 1)의 VY의 운동량은 (1)을 검출하게 되고, X축 오차는 2.5-2=0.5이고, 0.5는 다음의 제7프레임에서 검출된다. 그러므로 제11프레임까지 확대하여 적용했을 경우에 실제 운동량이 (5, 2)이고, 검출한 운동량 역시 (5, 2)이 되어 X축 방향과 Y축 방향으로 운동량이 검출되게 된다.
이와 같은 X축 방향과 Y축 방향에 대한 2채널의 알고리즘에 대하여 도 7의 흐름도를 참조하면 다음과 같다.
이미지 픽셀 어레이에서 검출한 아날로그 값을 디지털 값으로 변환된 영상이미지 데이터를 입력받는다(S11). 입력받은 영상 이미지 데이터 값은 n프레임의 현재 버퍼에 저장하고(S12), 또한, n프레임의 현재 버퍼에서 일부분을 추출하여 n프레임의 기준 버퍼에 저장한다(S13).
그리고 저장된 n프레임의 현재 이미지와 X축 n-1프레임의 기준 이미지를 서로 비교하고, n프레임의 현재 이미지와 Y축 n-1프레임의 기준 이미지를 서로 비교한다(S14). n프레임의 현재 이미지와 X축 n-1프레임의 기준 이미지를 서로 비교하여 가장 일치하는 부분에서 X축 방향의 벡터값인 VX를 산출하고, n프레임의 현재 이미지와 Y축 n-1프레임의 기준 이미지를 서로 비교하여 가장 일치하는 부분에서 Y축 방향의 벡터값인 VY를 산출한다(S15).
이와 같이 산출된 VX값이 “0”이 아니면, X축 n-1프레임 기준 이미지를 n프레임 기준 이미지로 갱신하고, “0”이면, X축 n-1프레임 기준 이미지를 그대로 유지한다. 그리고 산출된 VY값이 “0”이 아니면, Y축 n-1프레임 기준 이미지를 n프레임 기준 이미지로 갱신하고, “0”이면, Y축 n-1프레임 기준 이미지 데이터를 그대로 유지한다(S16). 이로서 산출된 벡터값 VX와 VY를 벡터합으로서 최종적인 벡터값으로 산출한다(S17).
상기 n-1프레임 기준 이미지는 N(N=1∼3)개이고, n프레임 현재 이미지와 n프레임 기준 이미지는 각각 1개인 것이 바람직하다. 상기 N=1은 1차원이고, N=2는 2차원이며, N=3은 3차원일 경우이다.
이와 같이 본 발명에서는 하나의 네비게이션 엔진(1채널)을 사용하지 않고, X축 방향과 Y축 방향에 각각 네비게이션 엔진을 독립적으로 사용하여 산출된 벡터값 VX와 VY를 벡터합으로 최종적인 벡터값으로 하는 과정을 수행함으로써, 그 결과로서 2차원적인 움직임으로 자연스러운 움직임을 나타낼 수 있도록 하였다.
상술한 바와 같이, 본 발명에서는 광 마우스용 집적회로(IC)의 이미지 픽셀 어레이에서 입력되는 이미지 데이터를 디지털 데이터로 변환하고, 이 변환된 이미지 데이터를 네비게이션 알고리즘에 적용하여 이미지 데이터(영상)의 위치 이동을 산출하는데 있어, X축 및 Y축 각각에 네비게이션 알고리즘을 적용하여 산출된 벡터값 VX와 VY를 벡터합으로 최종적인 벡터값으로 계산하여 광 마우스의 2차원 움직임 방향에 따른 특성을 개선하는 효과를 갖는다.
상술한 구체적인 예는 본 발명의 이해를 돕기 위해 제시된 실시예로서 본 발명의 범주를 한정하지 않고, 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
Claims (8)
- 광 마우스의 데이터 처리방법에 있어서,디지털 데이터로 변환된 이미지 픽셀 데이터를 이미지신호 프로세서(ISP)에서 처리하여 마우스의 움직임 벡터값을 계산하는데,상기 이미지신호 프로세서는 상기 계산된 이미지 픽셀 데이터 중에서 X축에 대한 움직임에 대한 X축 기준 이미지 데이터를 처리하기 위한 X축 네비게이션 엔진과, 상기 계산된 이미지 픽셀 데이터 중에서 Y축에 대한 움직임에 대한 Y축 기준 이미지 데이터를 처리하기 위한 Y축 네비게이션 엔진을 포함하며,상기 X축 및 Y축 네비게이션 엔진에는 n-1프레임 기준 이미지와 n프레임 현재 이미지 및 n프레임 기준 이미지를 포함하고,상기 n-1프레임 기준 이미지를 n프레임 현재 이미지에 순차적으로 오버랩 해가면서 가장 근사하게 일치하는 부분을 마우스의 움직이는 방향으로 결정하여 인터페이스를 통하여 PC로 전달하는 것을 특징으로 하는 광 마우스의 데이터 처리방법.
- 제1항에 있어서, 상기 X축 네비게이션 엔진에서 계산된 움직임을와, Y축 네비게이션 엔진에서 계산된 움직임을을 벡터의 합으로 계산하여 마우스의 2차원 움직임의 벡터인는로 마우스의 움직임을 결정하는 것을특징으로 하는 광 마우스의 데이터 처리방법.
- 제1항에 있어서, 상기 n-1프레임 기준 이미지는 N(N=1∼3)개이고, n프레임 현재 이미지와 n프레임 기준 이미지는 각각 1개인 것을 특징으로 하는 광 마우스의 데이터 처리방법.
- 제1항에 있어서, 디지털 데이터인 이미지 픽셀 데이터로 변환된 값을 n프레임의 현재 버퍼에 저장하는 단계;상기 n프레임의 현재 버퍼에서 일부분을 추출하여 n프레임의 기준 버퍼에 저장하는 단계;상기 저장된 n프레임의 현재 이미지와 X축 n-1프레임의 기준 이미지를 서로 비교하고, n프레임의 현재 이미지와 Y축 n-1프레임의 기준 이미지를 서로 비교하는 단계;상기 n프레임의 현재 이미지와 X축 n-1프레임의 기준 이미지를 서로 비교하여 가장 일치하는 부분에서 X축 방향의 벡터값인 VX를 산출하고, n프레임의 현재 이미지와 Y축 n-1프레임의 기준 이미지를 서로 비교하여 가장 일치하는 부분에서 Y축 방향의 벡터값인 VY를 산출하는 단계;상기 산출된 벡터값 VX와 VY를 벡터합으로 최종적인 벡터값으로 산출하는 단계를 포함하여 이루어진 것을 특징으로 하는 광 마우스의 이미지 데이터 처리방법.
- 제4항에 있어서, 산출된 VX값이 “0”이 아니면, X축 n-1프레임 기준 이미지 를 n프레임 기준 이미지로 갱신하고, “0”이면, X축 n-1프레임 기준 이미지를 그대로 유지하고, 그리고 산출된 VY값이 “0”이 아니면, Y축 n-1프레임 기준 이미지를 n프레임 기준 이미지로 갱신하고, “0”이면, Y축 n-1프레임 기준 이미지를 그대로 유지하는 단계를 더 포함하는 것을 특징으로 하는 광 마우스의 이미지 데이터 처리방법.
- 광 마우스의 디지털 데이터로 변환된 이미지 픽셀 데이터를 처리하는 이미지신호 프로세서의 이미지 데이터 처리방법에 있어서,X축에 대한 움직임을 처리하기 위한 X축 네비게이션 엔진과,Y축에 대한 움직임을 처리하기 위한 Y축 네비게이션 엔진으로 나누어 벡터값 VX와 VY를 산출하는 단계;상기 산출된 벡터값 VX와 VY의 벡터합으로 최종적인 벡터값을 산출하는 단계를 포함하여 이루어진 이미지신호 프로세서의 데이터 처리방법.
- 제6항에 있어서, 상기 X축 네비게이션 엔진은디지털 데이터인 이미지 픽셀 데이터로 변환된 값을 n프레임의 현재 버퍼에 저장하는 단계;상기 n프레임의 현재 버퍼에서 일부분을 추출하여 n프레임의 기준 버퍼에 저장하는 단계;n프레임의 현재 이미지와 X축 n-1프레임의 기준 이미지를 서로 비교하는 단계;상기 n프레임의 현재 이미지와 X축 n-1프레임의 기준 이미지를 서로 비교하여 가장 일치하는 부분에서 X축 방향의 벡터값인 VX를 산출하는 단계;를 포함하여 이루어진 것을 특징으로 하는 이미지신호 프로세서의 데이터 처리방법.
- 제6항에 있어서, 상기 Y축 네비게이션 엔진은디지털 데이터인 이미지 픽셀 데이터로 변환된 값을 n프레임의 현재 버퍼에 저장하는 단계;상기 n프레임의 현재 버퍼에서 일부분을 추출하여 n프레임의 기준 버퍼에 저장하는 단계;n프레임의 현재 이미지와 Y축 n-1프레임의 기준 이미지를 서로 비교하는 단계;상기 n프레임의 현재 이미지와 Y축 n-1프레임의 기준 이미지를 서로 비교하여 가장 일치하는 부분에서 Y축 방향의 벡터값인 VY를 산출하는 단계;를 포함하여 이루어진 것을 특징으로 하는 이미지신호 프로세서의 데이터 처리방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020073213A KR100545062B1 (ko) | 2002-11-22 | 2002-11-22 | 광 마우스의 이미지 데이터 처리방법 |
US10/414,689 US7079116B2 (en) | 2002-11-22 | 2003-04-16 | Method of processing data of optical mouse |
CNA031406580A CN1503198A (zh) | 2002-11-22 | 2003-06-02 | 处理光鼠标数据的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020073213A KR100545062B1 (ko) | 2002-11-22 | 2002-11-22 | 광 마우스의 이미지 데이터 처리방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040045174A true KR20040045174A (ko) | 2004-06-01 |
KR100545062B1 KR100545062B1 (ko) | 2006-01-24 |
Family
ID=36754222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020020073213A KR100545062B1 (ko) | 2002-11-22 | 2002-11-22 | 광 마우스의 이미지 데이터 처리방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7079116B2 (ko) |
KR (1) | KR100545062B1 (ko) |
CN (1) | CN1503198A (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100728653B1 (ko) * | 2005-11-21 | 2007-06-14 | 주식회사 애트랩 | 광 포인팅 장치의 움직임 값 계산 방법과 이 방법을 이용한광 포인팅 장치 |
KR100845321B1 (ko) * | 2006-08-18 | 2008-07-10 | 주식회사 애트랩 | 광 네비게이션 장치 및 이 장치의 오프셋 보정 방법. |
KR101304342B1 (ko) * | 2005-10-12 | 2013-09-11 | 실버크레스트 인베스트먼트 홀딩스 리미티드 | 이미지 처리방법 및 시스템 |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPP176898A0 (en) * | 1998-02-12 | 1998-03-05 | Moldflow Pty Ltd | Automated machine technology for thermoplastic injection molding |
TW530489B (en) * | 2001-09-11 | 2003-05-01 | Pixart Imaging Inc | Moving distance detection method of image sensor |
KR100545062B1 (ko) * | 2002-11-22 | 2006-01-24 | 삼성전기주식회사 | 광 마우스의 이미지 데이터 처리방법 |
TW576534U (en) * | 2003-04-23 | 2004-02-11 | Sunplus Technology Co Ltd | Light-guiding apparatus of optical mouse |
US7184184B2 (en) * | 2003-12-31 | 2007-02-27 | Reliant Technologies, Inc. | High speed, high efficiency optical pattern generator using rotating optical elements |
US7282060B2 (en) * | 2003-12-23 | 2007-10-16 | Reliant Technologies, Inc. | Method and apparatus for monitoring and controlling laser-induced tissue treatment |
US7196831B2 (en) * | 2003-12-31 | 2007-03-27 | Reliant Technologies, Inc. | Two-dimensional optical scan system using a counter-rotating disk scanner |
KR100545066B1 (ko) * | 2004-02-16 | 2006-01-24 | 삼성전기주식회사 | 위치 추적용 광센서 장치 및 이를 이용한 위치 추정 방법 |
US7446756B2 (en) * | 2004-03-22 | 2008-11-04 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | Apparatus for controlling the position of a screen pointer with low sensitivity to particle contamination |
US7474297B2 (en) * | 2004-03-22 | 2009-01-06 | Avago Technologies Ecbu Ip (Singapore) Pte. | Contaminant-resistant optical mouse and cradle |
US8179967B2 (en) * | 2005-07-05 | 2012-05-15 | Stmicroelectronics S.A. | Method and device for detecting movement of an entity provided with an image sensor |
US8300015B2 (en) * | 2005-07-05 | 2012-10-30 | Stmicroelectronics S.A. | Method of detecting the movement of an entity equipped with an image sensor and device for implementing same |
JP2009506835A (ja) * | 2005-08-29 | 2009-02-19 | リライアント・テクノロジーズ・インコーポレイテッド | 熱誘起組織治療を監視し制御する方法および装置 |
US20070260230A1 (en) * | 2006-05-04 | 2007-11-08 | Reliant Technologies, Inc. | Opto-mechanical Apparatus and Method for Dermatological Treatment |
US20080058782A1 (en) * | 2006-08-29 | 2008-03-06 | Reliant Technologies, Inc. | Method and apparatus for monitoring and controlling density of fractional tissue treatments |
US20080161745A1 (en) * | 2006-09-08 | 2008-07-03 | Oliver Stumpp | Bleaching of contrast enhancing agent applied to skin for use with a dermatological treatment system |
KR101299682B1 (ko) * | 2006-10-16 | 2013-08-22 | 삼성전자주식회사 | 범용 입력장치 |
US8435234B2 (en) * | 2007-02-06 | 2013-05-07 | Reliant Technologies, Inc. | Method and apparatus for monitoring and controlling laser-induced tissue treatment |
EP1998288A1 (fr) * | 2007-05-31 | 2008-12-03 | Stmicroelectronics Sa | Procédé de détermination du déplacement d'une entité pourvue d'un capteur de séquence d'images, programme d'ordinateur, module et souris optique associés |
CN101281440B (zh) * | 2008-01-29 | 2011-05-04 | 埃派克森微电子(上海)有限公司 | 光学指示装置图像质量控制方法 |
CN102243537B (zh) * | 2010-05-14 | 2014-01-15 | 深圳市汇春科技有限公司 | 运动图像位移检测方法及装置、光电鼠标 |
TWI467467B (zh) * | 2012-10-29 | 2015-01-01 | Pixart Imaging Inc | 畫面物件移動控制方法及裝置 |
US9529459B2 (en) * | 2014-04-21 | 2016-12-27 | Pixart Imaging (Penang) Sdn. Bhd. | Reduction of silicon die size for a navigational sensor using ultra high frame rate acquisition |
CN110335885B (zh) * | 2019-04-29 | 2021-09-17 | 上海天马微电子有限公司 | 显示模组及显示模组的显示方法、显示装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4631400A (en) * | 1984-01-20 | 1986-12-23 | California Institute Of Technology | Correlating optical motion detector |
US5598187A (en) * | 1993-05-13 | 1997-01-28 | Kabushiki Kaisha Toshiba | Spatial motion pattern input system and input method |
US6097371A (en) * | 1996-01-02 | 2000-08-01 | Microsoft Corporation | System and method of adjusting display characteristics of a displayable data file using an ergonomic computer input device |
US6513717B2 (en) * | 2000-12-07 | 2003-02-04 | Digimarc Corporation | Integrated cursor control and scanner device |
US6128108A (en) * | 1997-09-03 | 2000-10-03 | Mgi Software Corporation | Method and system for compositing images |
US5994710A (en) * | 1998-04-30 | 1999-11-30 | Hewlett-Packard Company | Scanning mouse for a computer system |
KR20000062130A (ko) | 1999-03-30 | 2000-10-25 | 김경진 | X축 휠과 y축 휠이 스크롤 키와 연동하는 마우스와 마우스의 스크롤 기능 인식방법 |
US6568777B1 (en) * | 1999-11-16 | 2003-05-27 | Agilent Technologies, Inc. | Optical navigation system and method |
US6344863B1 (en) * | 1999-11-24 | 2002-02-05 | International Business Machines Corporation | Three-dimensional GUI windows with variable-speed perspective movement |
US7050646B2 (en) * | 1999-12-10 | 2006-05-23 | British Telecommunications Public Limited Company | Image processing system and method for image segmentation using intensity contrast and depth contrast values |
US6657184B2 (en) * | 2001-10-23 | 2003-12-02 | Agilent Technologies, Inc. | Optical navigation upon grainy surfaces using multiple navigation sensors |
KR100494469B1 (ko) * | 2002-10-02 | 2005-06-13 | 삼성전기주식회사 | 광 마우스용 단일 집적회로 |
KR100494470B1 (ko) * | 2002-11-12 | 2005-06-10 | 삼성전기주식회사 | 광 마우스의 이미지 데이터 처리 장치 및 그 방법 |
KR100545062B1 (ko) * | 2002-11-22 | 2006-01-24 | 삼성전기주식회사 | 광 마우스의 이미지 데이터 처리방법 |
US7545362B2 (en) * | 2004-02-26 | 2009-06-09 | Microsoft Corporation | Multi-modal navigation in a graphical user interface computing system |
-
2002
- 2002-11-22 KR KR1020020073213A patent/KR100545062B1/ko not_active IP Right Cessation
-
2003
- 2003-04-16 US US10/414,689 patent/US7079116B2/en not_active Expired - Fee Related
- 2003-06-02 CN CNA031406580A patent/CN1503198A/zh active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101304342B1 (ko) * | 2005-10-12 | 2013-09-11 | 실버크레스트 인베스트먼트 홀딩스 리미티드 | 이미지 처리방법 및 시스템 |
KR100728653B1 (ko) * | 2005-11-21 | 2007-06-14 | 주식회사 애트랩 | 광 포인팅 장치의 움직임 값 계산 방법과 이 방법을 이용한광 포인팅 장치 |
US7667690B2 (en) | 2005-11-21 | 2010-02-23 | Atlab Inc. | Optical pointing device and method of computing movement value thereof |
KR100845321B1 (ko) * | 2006-08-18 | 2008-07-10 | 주식회사 애트랩 | 광 네비게이션 장치 및 이 장치의 오프셋 보정 방법. |
US8179369B2 (en) | 2006-08-18 | 2012-05-15 | Atlab Inc. | Optical navigation device and method for compensating for offset in optical navigation device |
Also Published As
Publication number | Publication date |
---|---|
US20040100444A1 (en) | 2004-05-27 |
US7079116B2 (en) | 2006-07-18 |
KR100545062B1 (ko) | 2006-01-24 |
CN1503198A (zh) | 2004-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100545062B1 (ko) | 광 마우스의 이미지 데이터 처리방법 | |
Giachetti | Matching techniques to compute image motion | |
US20040246229A1 (en) | Information display system, information processing apparatus, pointing apparatus, and pointer cursor display method in information display system | |
US8587563B2 (en) | Touch system and positioning method therefor | |
TWI383666B (zh) | 多重鏡頭相機系統之先進式動態接圖方法 | |
US7599548B2 (en) | Image processing apparatus and image processing method | |
KR20080029080A (ko) | 단안 줌 카메라를 이용한 이동로봇의 자기위치 추정 시스템및 방법 | |
US20100315547A1 (en) | Moving region detection device | |
KR20100007506A (ko) | 광학식 모션 캡처 장비를 위한 다중 카메라 보정 방법 | |
EP0586708A1 (en) | Image processor, method therefor and apparatus using the image processor | |
US11004266B2 (en) | Articulated model registration apparatus and method | |
KR20050040632A (ko) | 한 픽셀 이하 움직임 연산 방법 및 이를 이용한 위치 추적센서 | |
JPH05236455A (ja) | 動画像の動きベクトル検出装置 | |
US11908173B1 (en) | Method and system for three-dimensional profiling of an object | |
JP2000122801A (ja) | 座標値補正装置 | |
JP2000311244A (ja) | 画像のマッチング方法 | |
KR20020057526A (ko) | 영상 보간 방법 및 장치 | |
CN116880687B (zh) | 一种基于单目多算法的悬浮触控方法 | |
KR102684771B1 (ko) | 영상을 안정화하는 장치 및 방법 | |
KR100448153B1 (ko) | 네비게이션 방법 및 시스템 | |
CN110599504B (zh) | 一种图像处理方法及装置 | |
JPH08335269A (ja) | 配列の誤差評価方法及び動きベクトル推定方法 | |
JP2006215657A (ja) | 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体 | |
JP2001209810A (ja) | エッジ検出方法 | |
JPH11331829A (ja) | 特徴点追跡方法及び装置、並びに特徴点追跡プログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20091228 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |