JP5418387B2 - Position detection system, method, storage medium, and program - Google Patents
Position detection system, method, storage medium, and program Download PDFInfo
- Publication number
- JP5418387B2 JP5418387B2 JP2010097342A JP2010097342A JP5418387B2 JP 5418387 B2 JP5418387 B2 JP 5418387B2 JP 2010097342 A JP2010097342 A JP 2010097342A JP 2010097342 A JP2010097342 A JP 2010097342A JP 5418387 B2 JP5418387 B2 JP 5418387B2
- Authority
- JP
- Japan
- Prior art keywords
- light source
- light
- moving body
- position detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Description
本発明は、位置検出システム、方法、記憶媒体、及びプログラムに関する。 The present invention relates to a position detection system, method, storage medium, and program.
移動体の位置を検出する技術として、画像処理、無線タグ、光タグを用いる方法がある。例えば、画像処理による検出では、移動可能な自律ロボットが搭載するカメラで、天井の画像を得て現在位置を特定したり、カメラで撮影した画像から車イス領域を推定し、辞書画像と比較することによって車イスの有無を判定することなどが提案されている。また、無線タグによる検出では、車椅子使用者が無線タグを所持しておくことによりエレベータ乗り場で実際にエレベータを待つ車椅子使用者を検出できるようにすることなどが提案されている。更に、光タグの位置検出では、正三角形や円形の光を天井に投射し、カメラで三角形の頂点座標や楕円の長短軸を検出することで、移動体の位置を推定することなどが提案されている。 As a technique for detecting the position of a moving body, there are methods using image processing, a wireless tag, and an optical tag. For example, in detection by image processing, a camera mounted on a movable autonomous robot obtains an image of the ceiling and specifies the current position, or estimates a wheelchair area from an image captured by the camera and compares it with a dictionary image It has been proposed to determine the presence or absence of a wheelchair. In addition, for detection using a wireless tag, it has been proposed that a wheelchair user can detect a wheelchair user who actually waits for an elevator at the elevator hall by holding the wireless tag. Furthermore, in the position detection of optical tags, it has been proposed to project the position of the moving body by projecting equilateral triangle or circular light onto the ceiling and detecting the vertex coordinates of the triangle and the long and short axes of the ellipse with the camera. ing.
しかしながら、辞書画像と比較する従来技術では、例えば、車イスの種類、車イス利用者の服装、車イスの姿勢、大きさ、照明変化、オクルージョン、背景変化などの影響で、一般的に検出精度が低く、車イスなどの運搬補助車の有無判定は、実質上、実現困難である。また、カメラで読み取った天井に投影された画像から3点以上の光点の正確な位置を検出する場合、投影図形が不明瞭である、カメラの解像度が低いなど、空間分解能が低くなると正確な位置を算出できないと言った問題がある。カメラを運搬補助車に装着させた場合、カメラサイズ、電源、検出した位置の受け渡し手段が問題となる。 However, in the conventional technique for comparing with a dictionary image, for example, the detection accuracy generally depends on the type of wheelchair, the wear of the wheelchair user, the posture, size of the wheelchair, lighting change, occlusion, background change, etc. Therefore, it is practically difficult to determine whether or not there is a transportation auxiliary vehicle such as a wheelchair. Also, when detecting the exact position of three or more light spots from the image projected on the ceiling read by the camera, the projected figure is unclear, the resolution of the camera is low, etc. There is a problem that the position cannot be calculated. When a camera is mounted on a transport auxiliary vehicle, the camera size, power source, and delivery means for the detected position are problematic.
開示の技術は、移動体の位置を検出する位置検出システムであって、天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手段と、前記投射光の画像領域の重心位置を算出する算出手段と、前記重心位置を床面の前記移動体の位置へと変換する位置変換手段とを有するように構成される。 The disclosed technology is a position detection system that detects the position of a moving body, and is an image of projection light that is mounted on the moving body from an image of the ceiling surface and is projected onto the ceiling surface from a vertically controlled light source An extraction unit that extracts an area; a calculation unit that calculates a centroid position of an image area of the projection light; and a position conversion unit that converts the centroid position into a position of the moving body on a floor surface. The
開示の技術は、コンピュータによって行なわれる位置検出方法、上記手段を機能としてコンピュータに実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体、及び、そのプログラムとすることもできる。 The disclosed technology may be a position detection method performed by a computer, a computer-readable storage medium storing a program for causing a computer to execute the above-described means as a function, and the program.
開示の技術では、光源の姿勢が鉛直になったときの天井への投射光を利用するため、投射光領域の輪郭が不明瞭な場合でも、運搬補助車の位置を正確に検出できる。 In the disclosed technique, the light projected onto the ceiling when the light source is in a vertical position is used, and therefore the position of the transport auxiliary vehicle can be accurately detected even when the outline of the projected light region is unclear.
以下、本発明の実施の形態を図面に基づいて説明する。図1は、設置構成例を示す図である。図1に示すように、床面2上を移動するベビーカー、車イス、ショッピングカートなどの運搬補助車5に装着された光源3から天井面1へ投射された投射光4を、上方に向けて取り付けたカメラ6で撮影する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an installation configuration example. As shown in FIG. 1, the projection light 4 projected on the ceiling surface 1 from the light source 3 mounted on the transport auxiliary vehicle 5 such as a stroller, a wheelchair, and a shopping cart moving on the floor surface 2 is directed upward. Take a picture with the attached camera 6.
図2は、本実施例に係るシステムの構成例を示す図である。図2に示すシステム1000は、天井面1へ光を投射する光源3と、光源3の姿勢を鉛直上向きに保持するための光源姿勢制御部30と、天井面1などの投射面4pへ照射された光を撮影するためのカメラ6と、画像中から光の照射領域を抽出する画像処理部7と、照射領域の位置から床面2における運搬補助車5の位置を取得する位置検出部8とを有する。 FIG. 2 is a diagram illustrating a configuration example of a system according to the present embodiment. A system 1000 shown in FIG. 2 irradiates a light source 3 that projects light onto the ceiling surface 1, a light source posture control unit 30 that holds the posture of the light source 3 vertically upward, and a projection surface 4 p such as the ceiling surface 1. A camera 6 for photographing the collected light, an image processing unit 7 for extracting a light irradiation region from the image, and a position detection unit 8 for acquiring the position of the transporter vehicle 5 on the floor 2 from the position of the irradiation region, Have
光源3は光源姿勢制御部30によって運搬補助車5に装着され、画像処理部7と位置検出部8とは位置検出装置100として機能するコンピュータによって実現される。 The light source 3 is mounted on the transport auxiliary vehicle 5 by the light source attitude control unit 30, and the image processing unit 7 and the position detection unit 8 are realized by a computer that functions as the position detection device 100.
図3は、光源の構成例を示す図である。図3において、光源3は、レンズ3aと、発光素子3bと、電池3cとを有する。発光素子3bから出た光は、レンズ3aを通過して天井面1などの投射面4pへ照射される。発光素子3bには、LEDやレーザなどを用いる。また、発光素子3bから照射される光を赤外光にすると、不可視となり、利用者が意識することなく使用することができる。 FIG. 3 is a diagram illustrating a configuration example of a light source. In FIG. 3, the light source 3 includes a lens 3a, a light emitting element 3b, and a battery 3c. The light emitted from the light emitting element 3b passes through the lens 3a and is irradiated onto the projection surface 4p such as the ceiling surface 1. An LED, a laser, or the like is used for the light emitting element 3b. Moreover, when the light irradiated from the light emitting element 3b is infrared light, it becomes invisible and can be used without being conscious of the user.
図4は、光源姿勢制御部の構成例を示す図である。図4に示す機械式の姿勢保持機構では、光源姿勢制御部30は、直交する2つ回転軸32と重り33とによって、発光部31が常に上向きになるように保持される。よって、光源3から照射される光が常に鉛直上向きになるように、光源3の姿勢が保持される。 FIG. 4 is a diagram illustrating a configuration example of the light source attitude control unit. In the mechanical posture holding mechanism shown in FIG. 4, the light source posture control unit 30 is held by the two orthogonal rotation shafts 32 and the weight 33 so that the light emitting unit 31 is always upward. Therefore, the posture of the light source 3 is maintained so that the light emitted from the light source 3 is always vertically upward.
図5は、光源姿勢制御部の他の構成例を示す図である。モータなどの駆動機構を用いた光源姿勢制御部の構成例を示している。図5(A)に示すように、光源姿勢制御部30aの姿勢制御機構は、傾斜センサ34と、駆動回路35と、駆動機構36とを有する。光源3に装着された傾斜センサ34によって、光源3の投射方向の鉛直軸からのずれを検出する。駆動回路35では、ずれ量を検出すると、ずれがゼロになるように駆動機構36を制御する。駆動機構36は、例えば、図5(B)及び図5(C)に示すように、回転モータ36aや直動モータ36bを用いる。こうした駆動機構36を2軸用意し、駆動方向を直交させることで、発光部が常に上向きになるように保持することができる。 FIG. 5 is a diagram illustrating another configuration example of the light source attitude control unit. The structural example of the light source attitude | position control part using drive mechanisms, such as a motor, is shown. As shown in FIG. 5A, the attitude control mechanism of the light source attitude control unit 30a includes an inclination sensor 34, a drive circuit 35, and a drive mechanism 36. A tilt sensor 34 attached to the light source 3 detects a deviation of the projection direction of the light source 3 from the vertical axis. When detecting the amount of deviation, the drive circuit 35 controls the drive mechanism 36 so that the deviation becomes zero. As the drive mechanism 36, for example, as shown in FIGS. 5B and 5C, a rotary motor 36a or a linear motor 36b is used. By preparing two driving mechanisms 36 and making the driving directions orthogonal to each other, it is possible to hold the light emitting unit so that it always faces upward.
図1及び図2より、カメラ6は、天井面1への投射光が撮影可能なように上方に向けて設置する。光源3からの投射光(赤外光)と天井照明光とを区別するため、赤外光のみを透過するような光学フィルタをカメラ6に装着してもよい。 1 and 2, the camera 6 is installed upward so that the light projected onto the ceiling surface 1 can be photographed. In order to distinguish the projection light (infrared light) from the light source 3 and the ceiling illumination light, an optical filter that transmits only infrared light may be attached to the camera 6.
画像処理部7は、カメラ6で取得した天井面1の画像の中から投射光の画像領域を抽出する処理部である。 The image processing unit 7 is a processing unit that extracts an image area of the projection light from the image of the ceiling surface 1 acquired by the camera 6.
位置検出部8は、画像処理部7によって抽出された投射光の画像領域から床面2上の運搬補助車5の位置を検出する処理部である。 The position detection unit 8 is a processing unit that detects the position of the transport auxiliary vehicle 5 on the floor 2 from the image area of the projection light extracted by the image processing unit 7.
画像処理部7と位置検出部8とを有する位置検出装置100は、例えば、図6に示すようなハードウェア構成を有する。図6は、位置検出装置のハードウェア構成を示すブロック図である。 The position detection apparatus 100 including the image processing unit 7 and the position detection unit 8 has a hardware configuration as shown in FIG. 6, for example. FIG. 6 is a block diagram illustrating a hardware configuration of the position detection device.
図6において、位置検出装置100は、コンピュータによって制御される端末であって、CPU(Central Processing Unit)11と、メモリユニット12と、表示ユニット13と、出力ユニット14と、入力ユニット15と、通信ユニット16と、記憶装置17と、ドライバ18とを有し、システムバスBに接続される。 In FIG. 6, a position detection device 100 is a terminal controlled by a computer, and includes a CPU (Central Processing Unit) 11, a memory unit 12, a display unit 13, an output unit 14, an input unit 15, and communication. The unit 16, the storage device 17, and the driver 18 are included, and are connected to the system bus B.
CPU11は、メモリユニット12に格納されたプログラムに従って位置検出装置100を制御する。メモリユニット12には、RAM(Random Access Memory)及びROM(Read-Only Memory)等が用いられ、CPU11にて実行されるプログラム、CPU11での処理に必要なデータ、CPU11での処理にて得られたデータ等を格納する。また、メモリユニット12の一部の領域が、CPU11での処理に利用されるワークエリアとして割り付けられている。 The CPU 11 controls the position detection device 100 according to a program stored in the memory unit 12. The memory unit 12 uses a RAM (Random Access Memory), a ROM (Read-Only Memory), or the like, and is obtained by a program executed by the CPU 11, data necessary for processing by the CPU 11, and processing by the CPU 11. Stored data. A part of the memory unit 12 is allocated as a work area used for processing by the CPU 11.
表示ユニット13は、CPU11の制御のもとに必要な各種情報を表示する。出力ユニット14は、プリンタ等を有し、ユーザーからの指示に応じて各種情報を出力するために用いられる。入力ユニット15は、マウス、キーボード等を有し、ユーザーが位置検出装置100が処理を行なうための必要な各種情報を入力するために用いられる。通信ユニット16は、例えばインターネット、LAN(Local Area Network)等に接続し、外部装置との間の通信制御をするための装置である。記憶装置17には、例えば、ハードディスクユニットが用いられ、各種処理を実行するプログラム等のデータを格納する。 The display unit 13 displays various information required under the control of the CPU 11. The output unit 14 includes a printer or the like, and is used for outputting various types of information according to instructions from the user. The input unit 15 includes a mouse, a keyboard, and the like, and is used by a user to input various information necessary for the position detection apparatus 100 to perform processing. The communication unit 16 is a device that is connected to, for example, the Internet, a LAN (Local Area Network), and the like and controls communication with an external device. For example, a hard disk unit is used as the storage device 17 and stores data such as programs for executing various processes.
位置検出装置100によって行われる処理を実現するプログラムは、例えば、CD−ROM(Compact Disc Read-Only Memory)等の記憶媒体19によって位置検出装置100に提供される。即ち、プログラムが保存された記憶媒体19がドライバ18にセットされると、ドライバ18が記憶媒体19からプログラムを読み出し、その読み出されたプログラムがシステムバスBを介して記憶装置17にインストールされる。そして、プログラムが起動されると、記憶装置17にインストールされたプログラムに従ってCPU11がその処理を開始する。尚、プログラムを格納する媒体としてCD−ROMに限定するものではなく、コンピュータが読み取り可能な媒体であればよい。本実施例に係る処理を実現するプログラムは、通信ユニット16によってネットワークを介してダウンロードし、記憶装置17にインストールするようにしても良い。また、USB対応の位置検出装置100であれば、USB接続可能な外部記憶装置からインストールするようにしても良い。更に、SDカード等のフラッシュメモリ対応の位置検出装置100であれば、そのようなメモリカードからインストールするようにしても良い。 A program that realizes processing performed by the position detection apparatus 100 is provided to the position detection apparatus 100 by a storage medium 19 such as a CD-ROM (Compact Disc Read-Only Memory). That is, when the storage medium 19 storing the program is set in the driver 18, the driver 18 reads the program from the storage medium 19, and the read program is installed in the storage device 17 via the system bus B. . When the program is activated, the CPU 11 starts its processing according to the program installed in the storage device 17. The medium for storing the program is not limited to a CD-ROM, and any medium that can be read by a computer may be used. The program for realizing the processing according to the present embodiment may be downloaded via the network by the communication unit 16 and installed in the storage device 17. Further, if the position detection device 100 is compatible with USB, it may be installed from an external storage device capable of USB connection. Further, if the position detection device 100 is compatible with a flash memory such as an SD card, it may be installed from such a memory card.
次に、位置検出装置100における画像処理部7と位置検出部8とによって行われる処理について、図7及び図8で説明する。図7は、画像処理部による投射光の画像領域を抽出する方法を説明するための図である。図7では、投射光の画像領域の抽出に背景差分法を用いた例を示している。背景差分法では、予め取得済みの背景画像と、カメラ6で取得した画像とを比較し、背景画像に写っていない部分を抽出する。尚、背景画像は、背景のみが映っている状態を取得した画像であり、位置検出装置100の記憶領域に格納されている。 Next, processing performed by the image processing unit 7 and the position detection unit 8 in the position detection apparatus 100 will be described with reference to FIGS. FIG. 7 is a diagram for explaining a method of extracting an image area of projection light by the image processing unit. FIG. 7 shows an example in which the background difference method is used to extract the image area of the projection light. In the background subtraction method, a background image acquired in advance and an image acquired by the camera 6 are compared, and a portion not shown in the background image is extracted. The background image is an image obtained by acquiring a state in which only the background is shown, and is stored in the storage area of the position detection device 100.
図8は、図7での処理フローを説明するための図である。図8において、カメラ6は天井面1の画像を取得して、位置検出装置100の画像処理部7へ転送する(ステップS11)。図7(A)は、カメラ6で取得した画像例を示している。この画像例から、画像処理部7は、運搬補助車5から天井面1へ照射された投射光4の画像領域を抽出する(ステップS12)。投射光4の画像領域の抽出には、背景差分法を用いる。背景差分法では、予め取得済みの背景画像と、カメラ6で取得した画像とを比較し、背景画像に写っていない部分を抽出する。尚、背景画像は、背景のみが映っている状態を取得した画像であり、予め記憶装置17に格納されている。 FIG. 8 is a diagram for explaining the processing flow in FIG. In FIG. 8, the camera 6 acquires the image of the ceiling surface 1 and transfers it to the image processing unit 7 of the position detection device 100 (step S11). FIG. 7A shows an example of an image acquired by the camera 6. From this image example, the image processing unit 7 extracts an image area of the projection light 4 irradiated from the transport auxiliary vehicle 5 to the ceiling surface 1 (step S12). The background subtraction method is used to extract the image area of the projection light 4. In the background subtraction method, a background image acquired in advance and an image acquired by the camera 6 are compared, and a portion not shown in the background image is extracted. The background image is an image obtained by acquiring a state in which only the background is reflected, and is stored in the storage device 17 in advance.
最も単純な背景差分処理は、それぞれの画像において、同一位置の画素の輝度を比較し、輝度差が一定値以上の場合は、非背景と判定する方法である。背景画像IB、取得画像ICの横方向p、縦方向qの輝度を、
IB(p、q)、IC(p、q)
とする。このとき、輝度の差分値が閾値ITH以上であれば、非背景と判断する。
The simplest background difference process is a method of comparing the luminance of pixels at the same position in each image and determining that the background is non-background when the luminance difference is a certain value or more. The luminance in the horizontal direction p and the vertical direction q of the background image I B and the acquired image I C is
I B (p, q), I C (p, q)
And At this time, if the luminance difference value is equal to or greater than the threshold value ITH , it is determined that the background is not background.
次に、画像処理部7は、投射光4の画像領域の重心位置を求める(ステップS13)。投射光領域RDに含まれる画素数をNとしたとき、横方向の重心位置pG及び縦方向の重心位置qGは、図7(C)に示すように特定され、次式で与えられる。 Next, the image processing unit 7 obtains the barycentric position of the image area of the projection light 4 (step S13). When the number of pixels included in the projected light region R D and N, the centroid position q G of the center of gravity of the lateral p G and vertical directions, are identified as shown in FIG. 7 (C), is given by: .
画像処理部7によって求められた横方向の重心位置pG及び縦方向の重心位置qGを用いて、位置検出部8は、床面2での運搬補助車5の位置へと変換する(ステップS14)。 Using the center of gravity position p G and longitudinal center of gravity q G in the lateral direction obtained by the image processing unit 7, the position detecting unit 8 converts to a position of the transport assist vehicle 5 with the floor 2 (step S14).
図9は、位置検出部による運搬補助車の位置を検出する処理フローを説明するための図である。図9において、位置検出部8は、画像処理部7から投射光の画像領域の重心位置(pG、qG)を受け取る(ステップS21)。 FIG. 9 is a diagram for explaining a processing flow for detecting the position of the transport auxiliary vehicle by the position detection unit. In FIG. 9, the position detector 8 receives the center of gravity (p G , q G ) of the image area of the projection light from the image processor 7 (step S21).
図8に示すように、投射光の画面上の位置は、一般に床面2上の位置を表していない。そこで、画像中の位置を、床面2上の位置へ変換する必要がある。床面2の任意の点S(pS、qS)と、カメラ6で取得した画像中の点T(pT、qT)は、射影変換を適用することで対応付けができる。位置検出部8は、射影変換を行う変換式を用いて、床面位置(pS、qS)へ変換する(ステップS22)。射影変換については後述される。 As shown in FIG. 8, the position of the projection light on the screen generally does not represent the position on the floor surface 2. Therefore, it is necessary to convert the position in the image to a position on the floor surface 2. An arbitrary point S (p S , q S ) on the floor 2 and a point T (p T , q T ) in the image acquired by the camera 6 can be associated by applying projective transformation. The position detection unit 8 converts to the floor position (p S , q S ) using a conversion formula for performing projective conversion (step S22). The projective transformation will be described later.
係数(a0、b0、c0)、(a1、b1、c1)、及び(a2、b2、c2)は、カメラ6を設置する際、予め図10及び図11で後述される校正処理を行って求めておき、係数情報8cとして記憶領域に格納されている。 The coefficients (a 0 , b 0 , c 0 ), (a 1 , b 1 , c 1 ), and (a 2 , b 2 , c 2 ) are the same as those shown in FIGS. It is obtained by performing a calibration process, which will be described later, and stored in the storage area as coefficient information 8c.
位置検出部8は、記憶領域から係数情報8cを読み込んで得られた係数(a0、b0、c0)、(a1、b1、c1)、(a2、b2、c2)を用いることで、画像処理部7で検出した投射光の位置(pG、qG)を、数4によって床面における運搬補助車5の位置(pS、qS)へ変換することができる。そして、位置検出部8は、算出した位置(pS、qS)を出力する(ステップS23)。 The position detection unit 8 reads the coefficient information 8c from the storage area, and obtains coefficients (a 0 , b 0 , c 0 ), (a 1 , b 1 , c 1 ), (a 2 , b 2 , c 2). ), The position (p G , q G ) of the projection light detected by the image processing unit 7 can be converted into the position (p S , q S ) of the transport auxiliary vehicle 5 on the floor surface by Equation 4. it can. Then, the position detection unit 8 outputs the calculated position (p S , q S ) (step S23).
次に、校正処理について図10及び図11で説明する。図10は、校正処理を説明するための図である。図11は、校正処理の全体処理フローを説明するための図である。 Next, the calibration process will be described with reference to FIGS. FIG. 10 is a diagram for explaining the calibration process. FIG. 11 is a diagram for explaining the entire processing flow of the calibration processing.
図10を参照しつつ、図11の全体フローを説明する。図11において、カメラ6を天井面1を撮影可能に設置する(ステップS31)。 The overall flow of FIG. 11 will be described with reference to FIG. In FIG. 11, the camera 6 is installed so that the ceiling surface 1 can be photographed (step S31).
校正用光源2a、2b、2c、及び2dを床面2に設置し、床面2における各光源の座標位置を手動計測する(ステップS32)。図10(A)に示すような床面2の校正用光源2a、2b、2c、及び2dの位置として、座標位置(ps1、qs1)、(ps2、qs2)、(ps3、qs3)、及び(ps4、qs4)が計測される。 The calibration light sources 2a, 2b, 2c, and 2d are installed on the floor surface 2, and the coordinate position of each light source on the floor surface 2 is manually measured (step S32). As the positions of the calibration light sources 2a, 2b, 2c, and 2d on the floor 2 as shown in FIG. 10 (A), the coordinate positions (p s1 , q s1 ), (p s2 , q s2 ), (p s3 , q s3 ) and (p s4 , q s4 ) are measured.
校正用光源2a、2b、2c、及び2dは、例えば、床面2の四隅に夫々設置される。校正用光源2a、2b、2c、及び2dから光を出力し、天井面1に投射された4箇所の校正用投射光1a、1b、1c、及び1dをカメラ6から撮影する(ステップS33)。 The calibration light sources 2 a, 2 b, 2 c, and 2 d are installed at, for example, the four corners of the floor surface 2. Light is output from the calibration light sources 2a, 2b, 2c, and 2d, and the four calibration projection lights 1a, 1b, 1c, and 1d projected on the ceiling surface 1 are photographed from the camera 6 (step S33).
カメラ6で撮影された画像は画像処理部6に転送され、画像処理部6は転送された画像から上述した背景差分法を用いて各校正用投射光1a、1b、1c、及び1dの重心位置を求める(ステップS34)。図10(B)に示すような天井面1の校正用投射光1a、1b、1c、及び1dの重心位置として、(pT1、qT1)、(pT2、qT2)、(pT3、qT3)、及び(pT4、qT4)が計算される。 The image photographed by the camera 6 is transferred to the image processing unit 6, and the image processing unit 6 uses the background difference method described above from the transferred image, and the position of the center of gravity of each of the calibration projection lights 1a, 1b, 1c, and 1d. Is obtained (step S34). As center positions of the calibration projection lights 1a, 1b, 1c, and 1d on the ceiling surface 1 as shown in FIG. 10B, (p T1 , q T1 ), (p T2 , q T2 ), (p T3 , q T3 ), and (p T4 , q T4 ) are calculated.
画像処理部6は、下記の変換式を解いて、 The image processing unit 6 solves the following conversion formula,
[光源の揺れ制御]
次に、光源の揺れを制御し検出精度を向上させる構成について説明する。床面2に凹凸がある、或いは、運搬補助車5を急に加減速するなどの操作を行うと、光源の揺れが大きくなり、重りを装着して鉛直姿勢に保持する構成だけでは正確な位置を検出できない場合がある。そこで、光源の姿勢が鉛直姿勢になったことを検出する鉛直姿勢検出部を設けることで、検出精度を向上させる。
[Light source shaking control]
Next, a configuration for improving the detection accuracy by controlling the shaking of the light source will be described. If the floor surface 2 is uneven, or if an operation such as suddenly accelerating or decelerating the transportation auxiliary vehicle 5 is performed, the shake of the light source will increase, and the exact position will only be obtained if the weight is attached and held in a vertical position. May not be detected. Therefore, the detection accuracy is improved by providing a vertical posture detection unit that detects that the posture of the light source has reached the vertical posture.
図12は、鉛直姿勢を検出する構成を有するシステム構成例を示す図である。図12中、図2に示す同様の構成部分には同一の符号を付し、その説明を省略する。以下、図12(A)、図12(B)、及び図12(C)に示すシステム構成例におけるそれぞれの処理概要を説明する。 FIG. 12 is a diagram illustrating a system configuration example having a configuration for detecting a vertical posture. In FIG. 12, the same components as those shown in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted. Hereinafter, an outline of each process in the system configuration example shown in FIGS. 12A, 12B, and 12C will be described.
図12(A)では、運搬補助車5は、光源3と、光源3の光源姿勢制御部30と、光源3の鉛直姿勢を検出する鉛直姿勢検出部50とを有する構成を示している。図13は、図12(A)に示す鉛直姿勢検出部の構成例を示す図である。図13(A)において、鉛直姿勢検出部50は、傾斜センサ34と、光源制御回路38とを有する。傾斜センサ34は、例えば、図13(B)に示すように、重り33の側面に装着される。 In FIG. 12A, the transport auxiliary vehicle 5 has a configuration including a light source 3, a light source attitude control unit 30 of the light source 3, and a vertical attitude detection unit 50 that detects the vertical attitude of the light source 3. FIG. 13 is a diagram illustrating a configuration example of the vertical posture detection unit illustrated in FIG. In FIG. 13A, the vertical posture detection unit 50 includes a tilt sensor 34 and a light source control circuit 38. The tilt sensor 34 is attached to the side surface of the weight 33, for example, as shown in FIG.
傾斜センサ34は、光源3の姿勢角を検出する。光源制御回路38は、姿勢角に応じて、発光/非発光を制御する。例えば、姿勢角θが一定範囲内にある場合に光源を発光するように動作する場合、鉛直方向のときの姿勢角を0度とし、姿勢角θが角度の閾値α度よりも小さい場合に発光するように制御するとよい。 The tilt sensor 34 detects the attitude angle of the light source 3. The light source control circuit 38 controls light emission / non-light emission according to the posture angle. For example, when operating to emit light when the posture angle θ is within a certain range, light is emitted when the posture angle in the vertical direction is 0 degrees and the posture angle θ is smaller than the angle threshold value α degrees. It is good to control to do.
図12(B)では、鉛直姿勢検出部50の検出結果に応じて、位置検出部8の出力を制御するようにした構成例を示している。図12(B)において、運搬補助車5は、光源3と、光源3の光源姿勢制御部30と、光源3の姿勢角を検出する傾斜センサ34と、姿勢角を位置検出装置100へ無線で送信する無線送信部53とを有する。また、位置検出装置100は、画像処理部7と、位置検出部8と、鉛直姿勢検出部82と、無線受信部83とを有する。鉛直姿勢検出部82は、無線受信部83によって受信した光源3の姿勢角に基づいて光源3の鉛直姿勢を検出する処理部である。 FIG. 12B shows a configuration example in which the output of the position detection unit 8 is controlled according to the detection result of the vertical posture detection unit 50. In FIG. 12B, the transporter vehicle 5 wirelessly transmits the light source 3, the light source attitude control unit 30 of the light source 3, the inclination sensor 34 that detects the attitude angle of the light source 3, and the attitude angle to the position detection device 100. And a wireless transmission unit 53 for transmission. In addition, the position detection device 100 includes an image processing unit 7, a position detection unit 8, a vertical posture detection unit 82, and a wireless reception unit 83. The vertical posture detection unit 82 is a processing unit that detects the vertical posture of the light source 3 based on the posture angle of the light source 3 received by the wireless reception unit 83.
図12(B)に示す構成例では、まず、傾斜センサ34によって光源の姿勢角が検出される。姿勢角は、無線送信部53から電波信号へ変換されて、無線受信部83で受信される。無線受信部83では、電波信号を再び姿勢角へ変換し、鉛直姿勢検出部82へ入力する。鉛直姿勢検出部82では、姿勢角に応じて、位置検出部8の出力を制御する。例えば、鉛直方向のときの姿勢角を0度とし、姿勢角θが角度の閾値α度よりも小さい場合に位置検出部8から運搬補助車5の位置を出力するように制御するとよい。 In the configuration example shown in FIG. 12B, first, the inclination angle of the light source is detected by the tilt sensor 34. The attitude angle is converted into a radio signal from the wireless transmission unit 53 and received by the wireless reception unit 83. The radio reception unit 83 converts the radio signal again into an attitude angle and inputs it to the vertical attitude detection unit 82. The vertical posture detection unit 82 controls the output of the position detection unit 8 according to the posture angle. For example, when the posture angle in the vertical direction is set to 0 degree, and the posture angle θ is smaller than the angle threshold value α degree, the position detection unit 8 may be controlled to output the position of the transport auxiliary vehicle 5.
図14は、図12(B)に示す構成例における処理フローを説明するための図である。図14において、カメラ6は天井面1の画像を取得して、位置検出装置100の画像処理部7へ転送する(ステップS41)。画像処理部7は、背景差分法を用いて天井面1の画像から投射光4の画像領域を抽出して(ステップS42)、投射光4の画像領域の重心位置(pG、qG)を算出する(ステップS43)。算出された重心位置(pG、qG)は、位置検出部8へと提供される。 FIG. 14 is a diagram for explaining the processing flow in the configuration example shown in FIG. In FIG. 14, the camera 6 acquires the image of the ceiling surface 1 and transfers it to the image processing unit 7 of the position detection device 100 (step S41). The image processing unit 7 extracts the image area of the projection light 4 from the image of the ceiling surface 1 using the background subtraction method (step S42), and obtains the centroid position (p G , q G ) of the image area of the projection light 4. Calculate (step S43). The calculated barycentric position (p G , q G ) is provided to the position detection unit 8.
位置検出部8において、画像上での重心位置(pG、qG)を床面2での運搬補助車5の位置(pS、qS)へ変換し(ステップS44)、鉛直指定検出部82へと提供される。鉛直指定検出部82において、光源の姿勢角θが、 The position detection unit 8 converts the position of the center of gravity (p G , q G ) on the image into the position (p S , q S ) of the transport auxiliary vehicle 5 on the floor 2 (step S44), and the vertical designation detection unit 82. In the vertical designation detection unit 82, the attitude angle θ of the light source is
上記説明では、光源3が鉛直姿勢で無い場合は、位置検出部8から位置を出力しないとした。しかし、光源3の揺れの周期によっては、検出される位置の間隔が開くため、複数の運搬補助車5が交錯する場合など、交錯後に識別できなくなるケースが考えられる。こうしたケースに対応するため、位置検出部8から全ての位置を出力し、正確な動線を求めるときのみ、鉛直姿勢検出部82で鉛直方向と判定された位置のみ採用するようにしてもよい。 In the above description, the position detection unit 8 does not output a position when the light source 3 is not in a vertical posture. However, depending on the oscillation cycle of the light source 3, the interval between the detected positions may be increased, and there may be a case where the plurality of transport auxiliary vehicles 5 cannot be identified after the intersection, for example. In order to cope with such a case, only the position determined as the vertical direction by the vertical posture detection unit 82 may be adopted only when all the positions are output from the position detection unit 8 and an accurate flow line is obtained.
尚、図12(B)では、無線送信部53、無線受信部83を経由して姿勢角を鉛直姿勢検出部82へ受け渡しているが、図12(C)のように、位置検出部8で得た位置、および、姿勢角を一旦メモリ81へ蓄え、運搬補助車5を使用していない時間帯(例えば、夜間)に、メモリ54の情報をメモリ84へと読み出して、図12(B)と同様に処理してもよい。 In FIG. 12B, the posture angle is transferred to the vertical posture detection unit 82 via the wireless transmission unit 53 and the wireless reception unit 83. However, as shown in FIG. The obtained position and posture angle are temporarily stored in the memory 81, and the information in the memory 54 is read out to the memory 84 in a time zone (for example, at night) when the transport auxiliary vehicle 5 is not used. You may process like.
図15は、図14の処理フローによる出力結果例を示す図である。図15に示す出力結果テーブルT15は、投射光4の画像領域をカメラ6が取得した時刻に対応させて、位置検出部8によって算出された床面2での位置(pS、qS)と、鉛直姿勢検出部82によって判断された採用/非採用を示すフラグである。数8が満たされれば、採用を示す「1」が設定され、数8が満たされなければ、非採用を示す「0」が示される。 FIG. 15 is a diagram showing an output result example according to the processing flow of FIG. The output result table T15 shown in FIG. 15 indicates the position (p S , q S ) on the floor surface 2 calculated by the position detection unit 8 in association with the time when the camera 6 acquires the image area of the projection light 4. The flag indicating adoption / non-adoption determined by the vertical posture detection unit 82. If Equation 8 is satisfied, “1” indicating adoption is set, and if Equation 8 is not satisfied, “0” indicating non-adoption is indicated.
出力結果テーブルT15の例では、フラグが「1」を示す、時刻「10:32:15」における位置(5.65、2.13)と、時刻「10:32:18」における位置(5.38、3.35)とが採用されることにより、より正確な動線を求めることができる。 In the example of the output result table T15, the position at the time “10:32:15” (5.65, 2.13) and the position at the time “10:32:18” (5. 38, 3.35) can be used, and a more accurate flow line can be obtained.
[静止位置検出]
次に、商業施設などにおいて、買い物客がどの商品に注目したのかを検出するための方法について説明する。商品に注目している買い物客の位置を検出する用途においては、静止時の位置の検出精度が高ければ、移動中の検出精度は低くてもよい。つまり、ある商品に注目した、あるいは、購入するときなどには、注目した商品を知るため高い位置検出精度が必要となる。一方、移動しているときは、商品に注目していないと考えられるため、どの通路を使用したかなどの、大まかな情報が獲得できればよい。
[Static position detection]
Next, a method for detecting which product a shopper has focused on in a commercial facility or the like will be described. In an application for detecting the position of a shopper who is paying attention to a product, the detection accuracy during movement may be low if the detection accuracy of the stationary position is high. That is, when paying attention to a certain product or when purchasing, a high position detection accuracy is required to know the product that has been noticed. On the other hand, since it is considered that the product is not focused when moving, it is only necessary to obtain rough information such as which passage was used.
床面2に凹凸がある、あるいは、運搬補助車5を急に加減速するなどの操作を行うと、光源3の揺れが大きくなるため、移動中は、正確な位置を検出できない場合がある。そこで、移動・静止判定部を設けることで、運搬補助車5が移動状態であるか、静止状態であるかを識別し、静止と判定した時の位置検出精度を高める。 If the floor surface 2 is uneven, or if an operation such as suddenly accelerating or decelerating the transport auxiliary vehicle 5 is performed, the shake of the light source 3 becomes large, and thus an accurate position may not be detected during movement. Therefore, by providing a movement / stillness determination unit, it is identified whether the transporter auxiliary vehicle 5 is in a moving state or a stationary state, and the position detection accuracy when it is determined as stationary is increased.
図16は、移動・静止判定部を加えたシステム構成例を示す図である。図16中、図2に示す同様の構成部分には同一の符号を付し、その説明を省略する。図16において、位置検出装置100は、更に、移動・静止判定部9を有し、移動・静止判定部9では、位置検出で得た位置が一定値に収束したときに、静止状態であると見做す。 FIG. 16 is a diagram illustrating a system configuration example to which a movement / stillness determination unit is added. In FIG. 16, the same components as those shown in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted. In FIG. 16, the position detection device 100 further includes a movement / stillness determination unit 9. The movement / stillness determination unit 9 is in a stationary state when the position obtained by position detection converges to a certain value. I will look down.
移動・静止判定部9を加えたときの処理フローを図17で説明する。図17は、図16のシステム構成例における処理フローを説明するための図である。図17において、カメラ6は天井面1の画像を取得して、位置検出装置100の画像処理部7へ転送する(ステップS51)。画像処理部7は、背景差分法を用いて天井面1の画像から投射光4の画像領域を抽出して(ステップS52)、投射光4の画像領域の重心位置(pG、qG)を算出する(ステップS53)。算出された重心位置(pG、qG)は、位置検出部8へと提供される。 A processing flow when the movement / stillness determination unit 9 is added will be described with reference to FIG. FIG. 17 is a diagram for explaining the processing flow in the system configuration example of FIG. In FIG. 17, the camera 6 acquires the image of the ceiling surface 1 and transfers it to the image processing unit 7 of the position detection device 100 (step S51). The image processing unit 7 extracts the image area of the projection light 4 from the image of the ceiling surface 1 using the background subtraction method (step S52), and obtains the barycentric position (p G , q G ) of the image area of the projection light 4. Calculate (step S53). The calculated barycentric position (p G , q G ) is provided to the position detection unit 8.
位置検出部8において、画像上での重心位置(pG、qG)を床面2での運搬補助車5の位置(pS、qS)へ変換する(ステップS54)。変換された位置(pS、qS)は、移動・静止判定部9へ提供される。 The position detection unit 8 converts the position of the center of gravity (p G , q G ) on the image into the position (p S , q S ) of the transport auxiliary vehicle 5 on the floor 2 (step S54). The converted positions (p S , q S ) are provided to the movement / stillness determination unit 9.
移動・静止判定部9は、前サンプリング時との差分が閾値以下であるか否かを判断する(ステップS55)。第nサンプリング時に得た運搬補助車5の位置を(pS (n)、qS (n))とする。第n−1サンプリング時と第nサンプリング時の位置の差分d(n)は、 The movement / stillness determination unit 9 determines whether or not the difference from the previous sampling is equal to or less than a threshold value (step S55). The position of the transport auxiliary vehicle 5 obtained at the n-th sampling is defined as (p S (n) , q S (n) ). The difference d (n) between the positions of the (n-1) th sampling and the nth sampling is
サンプリング回数nが所定回数N以上である場合、移動・静止判定部9は、移動平均から静止時の位置を算出し(ステップS58)、ステップS51へ戻り、上述同様の処理を行う。 When the number of samplings n is equal to or greater than the predetermined number N, the movement / stillness determination unit 9 calculates a stationary position from the moving average (step S58), returns to step S51, and performs the same processing as described above.
ステップS55からS57での処理は、下記数式11で表される。 The processing in steps S55 to S57 is expressed by the following mathematical formula 11.
また、静止状態において、位置検出部8で得た位置の移動平均を算出すると、微小な揺れの影響を低減することができるため、より検出精度を上げることが可能となる。ステップS55での処理は、移動平均で用いるサンプル数をM個とすると、算出される運搬補助車5の位置(pavg、qavg)は、 In addition, when the moving average of the positions obtained by the position detector 8 is calculated in a stationary state, the influence of minute shaking can be reduced, so that the detection accuracy can be further increased. In the processing in step S55, when the number of samples used in the moving average is M, the calculated position (p avg , q avg ) of the transport auxiliary vehicle 5 is
[投射光パターン]
光源3を識別する仕組みについて説明する。図18は、投射光のマトリクスパターンの例を示す図である。図18(A)に示すように、投射光4をマトリクスパターン18aとし、縦横列の各要素を発光/非発光とすることで光源3を識別する。例えば、図18(B)に示すように、マトリクスパターンは、光源3のレンズ3a後段に明暗パターンを持つフィルタ3fなどを挿入することで実現する。他の構成部分については図3と同様であるので同一符号を付し、その説明を省略する。
[Projection light pattern]
A mechanism for identifying the light source 3 will be described. FIG. 18 is a diagram illustrating an example of a matrix pattern of projection light. As shown in FIG. 18A, the light source 3 is identified by using the projection light 4 as a matrix pattern 18a and light emitting / not emitting light in each of the vertical and horizontal elements. For example, as shown in FIG. 18B, the matrix pattern is realized by inserting a filter 3f having a light / dark pattern after the lens 3a of the light source 3 and the like. The other components are the same as those in FIG. 3, so the same reference numerals are given and the description thereof is omitted.
図19は、パルス光のパターン例を示す図である。図19において、光をパルス状に出力し、発光と非発光の時間間隔から、光源3を識別する例が示されている。例えば、図19(a)は、識別番号「1」の光源3からのパルス光のパターンを示し、図19(b)は、識別番号「2」の光源3からのパルス光のパターンを示し、図19(c)は、識別番号「3」の光源3からのパルス光のパターンを示している。長短パルスの組み合わせで、光源3をON/OFFすることによって光源3を識別する例を示したものである。 FIG. 19 is a diagram illustrating a pattern example of pulsed light. FIG. 19 shows an example in which light is output in pulses and the light source 3 is identified from the time interval between light emission and non-light emission. For example, FIG. 19A shows a pattern of pulsed light from the light source 3 with the identification number “1”, FIG. 19B shows a pattern of pulsed light from the light source 3 with the identification number “2”, FIG. 19C shows a pattern of pulsed light from the light source 3 with the identification number “3”. An example of identifying the light source 3 by turning the light source 3 on and off with a combination of long and short pulses is shown.
投射光形状を、前後非対称(例えば凸の上が正面)とすることで,検出対象の正面方向を取得する方法について説明する。図20は、凸形状パターンの投射光の生成するための光源の例を示す図である。図20(A)では、例えば、図20(B)に示すように、光源3に備えられたフィルタ3fによって投射光4に明暗パターンが形成された例を示している。 A method of acquiring the front direction of the detection target by setting the projected light shape to be asymmetric in the front-rear direction (for example, the top of the convex is the front) will be described. FIG. 20 is a diagram illustrating an example of a light source for generating projection light having a convex pattern. FIG. 20A shows an example in which a bright and dark pattern is formed on the projection light 4 by the filter 3f provided in the light source 3, for example, as shown in FIG.
図20の光源3から天井面1へ投射した画像を背景差分法で処理すると、投射光4の形状は、例えば、図21のようになる。図21は、画像処理部による正面方向を得る方法について説明するための図である。画像処理部7は、図21(A)に示す明暗パターンに対して、走査方向を所定手順に従って選択する。例えば、図21(A)に示すように走査方向21aに垂直な直線で、投射光抽出後の画像を走査したとき、最初に投射光領域を交差する直線をL1、最後に交差する直線をL2、L1とL2の中間の直線をLMとする。このとき、L1とLMで挟まれる領域に含まれる投射光領域の画素数をI1、L2とLMで挟まれる領域に含まれる投射光領域の画素数をI2とする。走査方向を回転したとき、I1とI2の差が最大となる方向が、正面方向である(図21(B))。 When the image projected from the light source 3 of FIG. 20 onto the ceiling surface 1 is processed by the background subtraction method, the shape of the projection light 4 becomes, for example, as shown in FIG. FIG. 21 is a diagram for explaining a method of obtaining the front direction by the image processing unit. The image processing unit 7 selects a scanning direction for the light and dark pattern shown in FIG. For example, as shown in FIG. 21A, when a projected image is scanned with a straight line perpendicular to the scanning direction 21a, the straight line that first intersects the projected light region is L1, and the straight line that intersects last is L2. , LM is a straight line between L1 and L2. At this time, the number of pixels in the projection light region included in the region sandwiched between L1 and LM is I1, and the number of pixels in the projection light region included in the region sandwiched between L2 and LM is I2. When the scanning direction is rotated, the direction in which the difference between I1 and I2 is maximum is the front direction (FIG. 21B).
光源から投射する投射光4が遮られたことを、利用者に通知する方法について説明する。図22は、投射光が遮蔽されことを通知する構成例を示す図である。図22では、光源3に発光素子3bと受光素子3gを装着した例を示している。光源3が人や物品で遮蔽されると、投射光4の一部は遮蔽物に反射し、発光素子3bの方向へ戻る。そこで、受光素子3gで受光する反射光量が一定以上になると投射光4が遮蔽されたと判定し、アラームを出力する。また、遮蔽されたと判定したときに、発光素子3bへの通電をOFFすることで、電池の消耗を防止するように処理してもよい。 A method for notifying the user that the projection light 4 projected from the light source is blocked will be described. FIG. 22 is a diagram illustrating a configuration example for notifying that the projection light is shielded. FIG. 22 shows an example in which a light emitting element 3 b and a light receiving element 3 g are mounted on the light source 3. When the light source 3 is shielded by a person or an article, a part of the projection light 4 is reflected by the shielding object and returns to the direction of the light emitting element 3b. Therefore, when the amount of reflected light received by the light receiving element 3g exceeds a certain level, it is determined that the projection light 4 is shielded, and an alarm is output. Further, when it is determined that the light is shielded, the battery may be processed so as to prevent the battery from being consumed by turning off the power supply to the light emitting element 3b.
図23は、投射光の領域を見失った場合の再探索する方法を説明するための図である。天井面1での投射光4の領域が消失する直前の移動方向ベクトルを元に、進路予想エリアを設定する。移動方向ベクトルV(n)は、位置検出部から出力される現サンプリング、前サンプリングの位置ベクトルを用いて算出する。 FIG. 23 is a diagram for explaining a re-searching method when the projected light region is lost. A predicted course area is set based on the moving direction vector immediately before the area of the projection light 4 on the ceiling surface 1 disappears. The moving direction vector V (n) is calculated using the current sampling and pre-sampling position vectors output from the position detection unit.
進路予想エリア23eは、例えば、台形とする。台形の短辺を、移動方向ベクトルと垂直になるように配置すると、長辺が予想出現位置となる。台形の形状は予め与えておく。台形の一部から再び投射光4が出現した際に、投射光が消失した位置と、出現した位置(RpS、RqS)とを結ぶベクトルRVを算出する。 The expected course area 23e is, for example, a trapezoid. If the short side of the trapezoid is arranged so as to be perpendicular to the moving direction vector, the long side becomes the expected appearance position. The trapezoidal shape is given in advance. When the projection light 4 appears again from a part of the trapezoid, a vector R V connecting the position where the projection light disappears and the position ( R p S , R q S ) where it appears is calculated.
ベクトルV(n)と、RVの方向が一致するとき、出現した投射光4は、位置(pS (n)、qS (n))で消失した運搬補助車に対応すると見做す。 A vector V (n), when the direction of the R V are identical, projection light 4 which appeared is regarded as corresponding to the position carrying the auxiliary wheel which has lost in the (p S (n), q S (n)).
上述したように、本実施例では、発光方向を常に鉛直に保ち、傾斜センサで傾斜を補正し、背景差分法で微弱な光源でも位置検出を可能とする。 As described above, in this embodiment, the light emission direction is always kept vertical, the inclination is corrected by the inclination sensor, and the position can be detected even with a weak light source by the background subtraction method.
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.
以上の説明に関し、更に以下の項を開示する。
(付記1)
移動体の位置を検出する位置検出システムであって、
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手段と、
前記投射光の画像領域の重心位置を算出する算出手段と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手段と
を有することを特徴とする位置検出システム。
(付記2)
前記光源に装着され該光源を鉛直姿勢に保持する重りと、光源方向を一定に制御する傾斜センサとによって、該光源を鉛直上向きに制御する光源姿勢制御手段を有することを特徴とする付記1記載の位置検出システム。
(付記3)
前記光源の姿勢角に基づいて該光源が鉛直姿勢になったことを検出する鉛直姿勢検出手段を有し、鉛直姿勢を検出したとき、前記光源から発光させ、又は、前記位置変換手段から前記移動体の位置を出力させることを特徴とする付記1記載の位置検出システム。
(付記4)
前記移動体の移動又は静止を判定する移動・静止判定手段を有することを特徴とする付記1乃至3のいずれか一項記載の位置検出システム。
(付記5)
前記投射光はマトリクスパターンを示し、縦横列の各要素を発光又は非発光とすることで、前記光源を識別することを特徴とする付記1乃至4のいずれか一項記載の位置検出システム。
(付記6)
前記光源は、光をパルス状に出力し、発光と非発光の時間間隔から光源を識別することを特徴とする付記1乃至4のいずれか一項記載の位置検出システム。
(付記7)
前記投射光は、前後非対称の形状を有し、前記移動体の正面方向を示すようにしたことを特徴とする付記1乃至4のいずれか一項記載の位置検出システム。
(付記8)
前記光源は、該光源に備えた受光素子の反射光量が一定以上のときに光が遮蔽されたと判断し、アラームを発行、又は、該光源からの発光を停止する投射光遮断検知手段を有することを特徴とする付記1乃至7のいずれか一項記載の位置検出システム。
(付記9)
移動体の位置を検出する位置検出方法であって、コンピュータが、
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手順と、
前記投射光の画像領域の重心位置を算出する算出手順と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手順と
を実行することを特徴とする位置検出方法。
(付記10)
床面に設置した校正用光源の座標位置と、該校正用光源から前記天井面に投射された投射光の重心位置とから、該座標位置から該重心位置へと変換するための係数を算出して係数情報として記憶領域に出力する係数算出手順とを更に実行し、
前記位置変換手順は、前記記憶領域から前記係数情報を読み出して前記係数を取得し、該係数を用いて、前記重心位置を床面の前記移動体の位置へと変換することを特徴とする付記9記載の位置検出方法。
(付記11)
コンピュータを移動体の位置を検出する位置検出装置として機能させるプログラムを記憶したコンピュータ読取可能な記憶媒体であって、該コンピュータに、
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手順と、
前記投射光の画像領域の重心位置を算出する算出手順と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手順と
を実行させることを特徴とするコンピュータ読取可能な記憶媒体。
(付記12)
コンピュータを移動体の位置を検出する位置検出装置として機能させるコンピュータ実行可能なプログラムであって、該コンピュータに、
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手順と、
前記投射光の画像領域の重心位置を算出する算出手順と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手順と
を実行させることを特徴とするコンピュータ実行可能なプログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A position detection system for detecting the position of a moving object,
An extraction means for extracting an image area of projection light projected on the ceiling surface from a light source that is mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
Calculating means for calculating the position of the center of gravity of the image area of the projection light;
A position detection system comprising: position conversion means for converting the position of the center of gravity into the position of the movable body on the floor surface.
(Appendix 2)
The light source posture control means for controlling the light source vertically upward by means of a weight attached to the light source and holding the light source in a vertical posture and an inclination sensor for controlling the light source direction to be constant. Position detection system.
(Appendix 3)
Based on the posture angle of the light source, the light source has a vertical posture detection unit that detects that the light source has become a vertical posture, and when the vertical posture is detected, the light source emits light or the position conversion unit moves the device. The position detection system according to appendix 1, wherein the position of the body is output.
(Appendix 4)
The position detection system according to any one of appendices 1 to 3, further comprising a movement / stationary determination unit that determines whether the moving body is moving or stationary.
(Appendix 5)
The position detection system according to any one of appendices 1 to 4, wherein the projection light indicates a matrix pattern, and the light source is identified by emitting or not emitting each element in the vertical and horizontal rows.
(Appendix 6)
The position detection system according to any one of appendices 1 to 4, wherein the light source outputs light in a pulse shape, and identifies the light source from a time interval between light emission and non-light emission.
(Appendix 7)
The position detection system according to any one of appendices 1 to 4, wherein the projection light has an asymmetrical shape in front and back and indicates a front direction of the moving body.
(Appendix 8)
The light source has a projection light blocking detection means that determines that light is blocked when the amount of reflected light of a light receiving element provided in the light source is equal to or greater than a certain level, issues an alarm, or stops light emission from the light source. The position detection system according to any one of appendices 1 to 7, characterized by:
(Appendix 9)
A position detection method for detecting the position of a moving body, wherein a computer
An extraction procedure for extracting an image area of projection light projected on the ceiling surface from a light source mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
A calculation procedure for calculating the position of the center of gravity of the image area of the projection light;
A position detecting method for executing a position conversion procedure for converting the position of the center of gravity into the position of the moving body on the floor.
(Appendix 10)
A coefficient for converting from the coordinate position to the gravity center position is calculated from the coordinate position of the calibration light source installed on the floor and the gravity center position of the projection light projected from the calibration light source onto the ceiling surface. And further executing a coefficient calculation procedure for outputting to the storage area as coefficient information,
The position conversion procedure reads the coefficient information from the storage area, acquires the coefficient, and uses the coefficient to convert the position of the center of gravity to the position of the moving body on the floor surface. 10. The position detection method according to 9.
(Appendix 11)
A computer-readable storage medium storing a program that causes a computer to function as a position detection device that detects the position of a moving body,
An extraction procedure for extracting an image area of projection light projected on the ceiling surface from a light source mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
A calculation procedure for calculating the position of the center of gravity of the image area of the projection light;
A computer-readable storage medium that executes a position conversion procedure for converting the position of the center of gravity into the position of the moving body on the floor.
(Appendix 12)
A computer-executable program for causing a computer to function as a position detection device for detecting the position of a moving body,
An extraction procedure for extracting an image area of projection light projected on the ceiling surface from a light source mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
A calculation procedure for calculating the position of the center of gravity of the image area of the projection light;
A computer-executable program for executing a position conversion procedure for converting the position of the center of gravity into the position of the moving body on the floor.
1 天井面
2 床面
3 光源
3a レンズ
3b 発光素子
3c 電池
4 投射光
4p 投射面
5 運搬補助車
6 カメラ
7 画像処理部
8 位置検出部
8c 係数情報
11 CPU
12 メモリユニット
13 表示ユニット
14 出力ユニット
15 入力ユニット
16 通信ユニット
17 記憶装置
18 ドライバ
19 記憶媒体
30、30a 光源姿勢制御部
31 発光部
32 回転軸
33 重り
34 傾斜センサ
36a 回転モータ
36b 直動モータ
36 駆動機構
37 回転軸
50 鉛直姿勢検出部
54 メモリ
82 鉛直姿勢検出部
83 無線受信部
84 メモリ
100 位置検出装置
1000 システム
T15 出力結果テーブル
DESCRIPTION OF SYMBOLS 1 Ceiling surface 2 Floor surface 3 Light source 3a Lens 3b Light emitting element 3c Battery 4 Projection light 4p Projection surface 5 Carrying auxiliary vehicle 6 Camera 7 Image processing part 8 Position detection part 8c Coefficient information 11 CPU
DESCRIPTION OF SYMBOLS 12 Memory unit 13 Display unit 14 Output unit 15 Input unit 16 Communication unit 17 Memory | storage device 18 Driver 19 Storage medium 30, 30a Light source attitude | position control part 31 Light emission part 32 Rotating shaft 33 Weight 34 Inclination sensor 36a Rotation motor 36b Direct drive motor 36 Drive Mechanism 37 Rotating shaft 50 Vertical posture detection unit 54 Memory 82 Vertical posture detection unit 83 Wireless reception unit 84 Memory 100 Position detection device 1000 System T15 Output result table
Claims (8)
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手段と、
前記投射光の画像領域の重心位置を算出する算出手段と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手段と
を有することを特徴とする位置検出システム。 A position detection system for detecting the position of a moving object,
An extraction means for extracting an image area of projection light projected on the ceiling surface from a light source that is mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
Calculating means for calculating the position of the center of gravity of the image area of the projection light;
A position detection system comprising: position conversion means for converting the position of the center of gravity into the position of the movable body on the floor surface.
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手順と、
前記投射光の画像領域の重心位置を算出する算出手順と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手順と
を実行することを特徴とする位置検出方法。 A position detection method for detecting the position of a moving body, wherein a computer
An extraction procedure for extracting an image area of projection light projected on the ceiling surface from a light source mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
A calculation procedure for calculating the position of the center of gravity of the image area of the projection light;
A position detecting method for executing a position conversion procedure for converting the position of the center of gravity into the position of the moving body on the floor.
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手順と、
前記投射光の画像領域の重心位置を算出する算出手順と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手順と
を実行させることを特徴とするコンピュータ読取可能な記憶媒体。 A computer-readable storage medium storing a program that causes a computer to function as a position detection device that detects the position of a moving body,
An extraction procedure for extracting an image area of projection light projected on the ceiling surface from a light source mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
A calculation procedure for calculating the position of the center of gravity of the image area of the projection light;
A computer-readable storage medium that executes a position conversion procedure for converting the position of the center of gravity into the position of the moving body on the floor.
天井面を撮影した画像から前記移動体に装着されかつ鉛直制御された光源から該天井面へ投射された投射光の画像領域を抽出する抽出手順と、
前記投射光の画像領域の重心位置を算出する算出手順と、
前記重心位置を床面の前記移動体の位置へと変換する位置変換手順と
を実行させることを特徴とするコンピュータ実行可能なプログラム。 A computer-executable program for causing a computer to function as a position detection device for detecting the position of a moving body,
An extraction procedure for extracting an image area of projection light projected on the ceiling surface from a light source mounted on the moving body and vertically controlled from an image obtained by photographing the ceiling surface;
A calculation procedure for calculating the position of the center of gravity of the image area of the projection light;
A computer-executable program for executing a position conversion procedure for converting the position of the center of gravity into the position of the moving body on the floor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010097342A JP5418387B2 (en) | 2010-04-20 | 2010-04-20 | Position detection system, method, storage medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010097342A JP5418387B2 (en) | 2010-04-20 | 2010-04-20 | Position detection system, method, storage medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011226932A JP2011226932A (en) | 2011-11-10 |
JP5418387B2 true JP5418387B2 (en) | 2014-02-19 |
Family
ID=45042437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010097342A Expired - Fee Related JP5418387B2 (en) | 2010-04-20 | 2010-04-20 | Position detection system, method, storage medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5418387B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6398531B2 (en) * | 2014-09-25 | 2018-10-03 | 日本電気株式会社 | Moving body detection device |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61258108A (en) * | 1985-05-13 | 1986-11-15 | Takenaka Komuten Co Ltd | Remote control type indoor use level |
JP3548506B2 (en) * | 2000-08-01 | 2004-07-28 | 九州日本電気株式会社 | Electronic level and horizontal stage using the same |
JP4042517B2 (en) * | 2002-10-09 | 2008-02-06 | 株式会社日立製作所 | Moving body and position detection device thereof |
JP2007530978A (en) * | 2004-03-29 | 2007-11-01 | エヴォリューション ロボティクス インコーポレイテッド | Position estimation method and apparatus using reflected light source |
JP4448497B2 (en) * | 2006-03-23 | 2010-04-07 | 本田技研工業株式会社 | Self-position detecting device and position detecting system for moving body |
JP4721007B2 (en) * | 2006-03-30 | 2011-07-13 | 株式会社日立プラントテクノロジー | Marking apparatus and marking method |
JP2009103583A (en) * | 2007-10-23 | 2009-05-14 | Audio Technica Corp | Laser marking apparatus |
JP4422777B2 (en) * | 2008-08-05 | 2010-02-24 | オリンパス株式会社 | Moving body posture detection device |
-
2010
- 2010-04-20 JP JP2010097342A patent/JP5418387B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011226932A (en) | 2011-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11706377B2 (en) | Visual, depth and micro-vibration data extraction using a unified imaging device | |
US10512941B2 (en) | Projection instruction device, parcel sorting system, and projection instruction method | |
JP2019156641A (en) | Image processing device for fork lift and control program | |
US10534072B2 (en) | Object detection device, POS terminal device, object detection method, program, and program recording medium | |
US10860855B2 (en) | Instruction projecting device, package sorting system and instruction projecting method | |
JP5892588B2 (en) | Human guidance robot | |
JP7259835B2 (en) | Image processor and control program for forklift | |
JPH05201298A (en) | Vehicle surrounding monitor device | |
US7900840B2 (en) | Methods and apparatus for directing bar code positioning for imaging scanning | |
JP7194015B2 (en) | Sensor system and distance measurement method | |
US10675659B2 (en) | Instruction projecting device, package sorting system and instruction projecting method | |
JP6869002B2 (en) | Measuring device | |
JP7300646B2 (en) | Conveyor | |
US10471474B2 (en) | Projection indicator, cargo assortment system, and projection indicating method | |
CN113273176B (en) | Automated movie production using image-based object tracking | |
US20140267758A1 (en) | Stereo infrared detector | |
JP5418387B2 (en) | Position detection system, method, storage medium, and program | |
WO2020090897A1 (en) | Position detecting device, position detecting system, remote control device, remote control system, position detecting method, and program | |
JP2017036980A (en) | Vehicle position estimation device and vehicle position estimation method | |
JP2012198802A (en) | Intrusion object detection system | |
JP2019142714A (en) | Image processing device for fork lift | |
US10589319B2 (en) | Projection instruction device, parcel sorting system, and projection instruction method | |
US20200205633A1 (en) | Arrangement and Method for Contactless Distance Determination of the Type of the Light Intersection Method | |
US20200234453A1 (en) | Projection instruction device, parcel sorting system, and projection instruction method | |
US20230137706A1 (en) | Distance measuring apparatus, distance measuring program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131022 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131104 |
|
LAPS | Cancellation because of no payment of annual fees |