[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7309097B2 - 位置検知装置、位置検知方法、及び位置検知プログラム - Google Patents

位置検知装置、位置検知方法、及び位置検知プログラム Download PDF

Info

Publication number
JP7309097B2
JP7309097B2 JP2023515973A JP2023515973A JP7309097B2 JP 7309097 B2 JP7309097 B2 JP 7309097B2 JP 2023515973 A JP2023515973 A JP 2023515973A JP 2023515973 A JP2023515973 A JP 2023515973A JP 7309097 B2 JP7309097 B2 JP 7309097B2
Authority
JP
Japan
Prior art keywords
coordinates
position detection
map
dimensional
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023515973A
Other languages
English (en)
Other versions
JPWO2022224402A5 (ja
JPWO2022224402A1 (ja
Inventor
健央 川浦
隆博 加島
壮平 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022224402A1 publication Critical patent/JPWO2022224402A1/ja
Publication of JPWO2022224402A5 publication Critical patent/JPWO2022224402A5/ja
Application granted granted Critical
Publication of JP7309097B2 publication Critical patent/JP7309097B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、位置検知装置、位置検知方法、及び位置検知プログラムに関する。
複数の監視カメラの撮影範囲を足し合わせた範囲が対象エリアを漏れなく含むように工場の天井などに複数の監視カメラを備えたシステムの提案がある。このシステムでは、同じ方向を向くように固定された多数の監視カメラの撮影映像に基づいて、対象エリアを移動する人である作業者の位置座標を取得する。例えば、特許文献1を参照。
特開2017-34511号公報(例えば、段落0025、図2)
しかしながら、上記従来のシステムでは、作業者の位置座標を検出するために、同じ方向を向くように設置された多数の監視カメラが必要であるという課題がある。
本開示は、上記課題を解決することを可能にする位置検知装置、位置検知方法、及び位置検知プログラムを提供することを目的とする。
本開示位置検知装置は、監視カメラで撮影された映像を受け取り、前記映像において人を検知するための処理を行い、検知された前記人の位置を示す2次元カメラ座標を出力する人検知部と、前記2次元カメラ座標を、予め定められた共通の座標系で表される3次元座標に変換する座標変換部と、前記人がウェラブルカメラを装着しているときに前記ウェラブルカメラによって撮影されたウェラブルカメラ映像内の機器の銘板の文字列を認識する文字認識部と、認識された前記文字列を機器のレイアウト図面で検索する文字検索部と、認識された前記文字列が前記レイアウト図面で見つかった場合には、見つかった位置に基づいて2次元マップ座標を決定し、認識された前記文字列が前記レイアウト図面で見つからない場合には、前記3次元座標に基づいて前記2次元マップ座標を計算するマップ座標決定部と、マップを取得し、前記マップ上に前記2次元マップ座標の位置情報を重ねた映像データを出力する表示制御部と、を有することを特徴とする。
本開示によれば、簡単な構成で作業者の位置座標を検出することが可能である。
実施の形態1に係る位置検知装置の位置検知に用いられる構成である複数の監視カメラを示す図である。 (A)及び(B)は、複数の監視カメラによって撮影された複数の映像に基づいて検知された人の2次元座標をマップ上に示す図である。 実施の形態1に係る位置検知装置の構成を概略的に示す機能ブロック図である。 実施の形態1に係る位置検知装置のハードウェア構成を示す図である。 実施の形態1に係る位置検知装置の人検知部の処理を示すフローチャートである。 実施の形態1に係る位置検知装置の2次元/3次元座標変換部の処理を示すフローチャートである。 実施の形態1に係る位置検知装置のマップ座標決定部の処理を示すフローチャートである。 実施の形態2に係る位置検知装置の位置検知に用いられる構成である監視カメラとモバイル端末とを示す図である。 (A)は、監視カメラによって撮影された映像に基づいて検知された人の2次元座標をマップ上に示す図であり、(B)は、歩行者自律航法(PDR)によって検知された人の2次元座標をマップ上に示す図である。 実施の形態2に係る位置検知装置の構成を概略的に示す機能ブロック図である。 実施の形態2に係る位置検知装置の座標計算部の処理を示すフローチャートである。 実施の形態2に係る位置検知装置のマップ座標決定部の処理を示すフローチャートである。 実施の形態3に係る位置検知装置の位置検知に用いられる構成である監視カメラとウェラブルカメラとを示す図である。 (A)は、計器盤、計器、及び銘板の例を示す図であり、(B)は、銘板の映像によって検知された2次元マップ座標をマップ上に示す図である。 実施の形態3に係る位置検知装置の構成を概略的に示す機能ブロック図である。 実施の形態3に係る位置検知装置の文字認識部の処理を示すフローチャートである。 実施の形態3に係る位置検知装置の文字検索部の処理を示すフローチャートである。
以下に、実施の形態に係る位置検知装置、位置検知方法、及び位置検知プログラムを、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。なお、各図において、同一又は同様の構成には、同じ符号が付されている。
実施の形態1.
図1は、実施の形態1に係る位置検知装置10の位置検知に用いられる構成である複数の監視カメラ11_1~11_n(nは正の整数)を示す図である。監視カメラ11_1~11_nは、予め定められたエリア80に設置されている。エリア80には、計器盤40及び機械50が置かれている。監視カメラ11_1~11_nは、固定カメラである。監視カメラ11_1~11_nは、旋回可能なPTZカメラであってもよいが、この場合には、カメラパラメータを位置検知装置10に通知する機能を備える必要がある。監視カメラ11_1~11_nは、撮影範囲R1~Rnをそれぞれ撮影して、映像I~Iを位置検知装置10に送信する。位置検知装置10は、映像I~Iに基づいて、人90の2次元(2D)マップ座標(X,Y)を計算して、エリア80のマップ81に2Dマップ座標(X,Y)を示す情報を、表示装置に表示させるための映像データを生成する。エリアは、例えば、工場内である。人90は、例えば、作業者である。
図2(A)及び(B)は、複数の監視カメラ11_1~11_nによって撮影された複数の映像I~Iに基づいて検知された人90の2Dマップ座標(X,Y)をエリア80のマップ81上に示す図である。図2(A)は、3台の監視カメラ11_1、11_2、11_nによって2Dマップ座標(X,Y)が計算された例を示し、図2(B)は、2台の監視カメラ11_1、11_nによって2Dマップ座標(X,Y)が計算された例を示す。図2(A)及び(B)におけるエリア80のマップ81は、外部の記憶装置から取得される。ただし、マップ81は、位置検知装置10内の記憶装置に記憶されてもよい。
図3は、実施の形態1に係る位置検知装置10の構成を概略的に示す機能ブロック図である。位置検知装置10は、実施の形態1に係る位置検知方法を実施することができる装置である。位置検知装置10は、位置検知プログラムを実行することによって実施の形態1に係る位置検知方法を実施することができる。図3に示されるように、位置検知装置10は、映像受信部13と、人検知部14と、座標変換部15と、マップ座標決定部16と、表示制御部17とを有する。
映像受信部13は、複数の監視カメラ11_1~11_nで撮影され映像送信部12_1~12_nから送信された複数の映像I~Iを受信し、映像I~Iを人検知部14に出力する。映像受信部13は、通信回路又は通信インタフェースとも呼ばれる。
人検知部14は、映像I~Iを受け取り、映像I~Iのそれぞれにおいて人90を検知するための処理を行い、検知された人90の位置を示す複数の2次元(2D)カメラ座標(u,v)~(u,v)を出力する。2Dカメラ座標(u,v)~(u,v)の座標系は、互いに異なる。
座標変換部15は、2次元(2D)座標を3次元(3D)座標に変換する座標変換部である。座標変換部15は、複数の2Dカメラ座標(u,v)~(u,v)を、予め定められた共通の座標系で表される複数の3D座標(X,Y,Z)~(X,Y,Z)に変換する。共通の座標系は、例えば、世界座標系である。
マップ座標決定部16は、複数の3D座標(X,Y,Z)~(X,Y,Z)に基づいて2Dマップ座標(X,Y)を生成する。マップ座標決定部16は、複数の3D座標(X,Y,Z)~(X,Y,Z)の座標値の加算平均を用いて2Dマップ座標(X,Y)を算出する。
表示制御部17は、エリア80のマップ81上に2Dマップ座標(X,Y)の位置情報を重ねた映像データを出力する。表示装置18は、エリア80のマップ81及び2Dマップ座標(X,Y)の位置情報を表示する。図3の例では、マップ81は、外部の記憶装置から取得したマップ情報Lに基づいて表示される。
図4は、実施の形態1に係る位置検知装置10のハードウェア構成を示す図である。図4に示されるように、位置検知装置10は、CPU(Central Processing Unit)などのプロセッサ101、揮発性の記憶装置であるメモリ102、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SDD)などの不揮発性の記憶装置103と、外部と通信を行う通信部104とを有する。メモリ102は、例えば、RAM(Random Access Memory)などの、揮発性の半導体メモリである。
位置検知装置10の各機能は、処理回路により実現される。処理回路は、専用のハードウェアであっても、メモリ102に格納されるプログラムを実行するプロセッサ101であってもよい。プロセッサ101は、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、及びDSP(Digital Signal Processor)のいずれであってもよい。
処理回路が専用のハードウェアである場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらのうちのいずれかを組み合わせたものである。
処理回路がプロセッサ101である場合、位置検出プログラムは、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアは、プログラムとして記述され、メモリ102に格納される。プロセッサ101は、メモリ102に記憶された位置検出プログラムを読み出して実行することにより、図3に示される各部の機能を実現する。
なお、位置検知装置10は、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらのうちのいずれかの組み合わせによって、上述の各機能を実現することができる。
図5は、実施の形態1に係る位置検知装置10の人検知部14の処理を示すフローチャートである。人検知部14は、先ず、映像I~Iを受信する(ステップS11)。次に、人検知部14は、各フレームの画像91において検知窓92を順次移動させて、人90の検知のための処理を行う(ステップS12~S14)。具体的には、人検知部14は、各フレームの画像91において検知窓92を順次移動させて、局所領域における輝度(色、明るさ)の勾配方向をヒストグラム化した特徴量であるHOG(Histograms of Oriented Gradients)特徴量の算出し、教師あり学習を用いるパターン認識モデルであるSVM(Support Vector Machine)による判定を行い、人90を検知できたかどうかを判断する処理(ステップS12~S15)を繰り返す。次に、人検知部14は、人90の2D座標である2Dカメラ座標(u,v)を出力する。
図6は、実施の形態1に係る位置検知装置10の座標変換部15の処理を示すフローチャートである。先ず、座標変換部15は、人検知部14から撮影映像上の人90の2Dカメラ座標(u,v)を受け取り(ステップS21)、監視カメラの位置・姿勢情報を示す[R|t]を取得し(ステップS22)、監視カメラの内部パラメータAを取得する(ステップS23)。次に、以下の式(1)により、透視投影の逆変換を実行する(ステップS24)。
Figure 0007309097000001
ここで、
Figure 0007309097000002
は、監視カメラの内部パラメータであり、
Figure 0007309097000003
は、監視カメラの外部パラメータである。
次に、座標変換部15は、人90の3D座標(X,Y,Z)を出力する。
図7は、実施の形態1に係る位置検知装置10のマップ座標決定部16の処理を示すフローチャートである。マップ座標決定部16は、監視カメラ#1の映像による3D座標(X,Y,Z)、監視カメラ#2の映像による3D座標(X,Y,Z)、…、監視カメラ#nの映像によるによる3D座標(X,Y,Z)を取得する(ステップS31~S33)。
次に、マップ座標決定部16は、3D座標(X,Y,Z)~(X,Y,Z)のうちの値を持つ座標の個数(うなわち、カウント値M)をカウントする。
次に、マップ座標決定部16は、3D座標(X,Y,Z)~(X,Y,Z)の値から、以下の式で示される加重平均の算出式を用いて、2Dマップ座標(X,Y)の値を出力する。
Figure 0007309097000004
次に、マップ座標決定部16は、2Dマップ座標(X,Y)の値を出力する。
以上に説明したように、実施の形態1に係る位置検知装置10、位置検知方法、又は位置検知プログラムを用いれば、位置・姿勢の異なる複数の監視カメラ11_1~11_nの映像I~Iに基づいて、人90の位置を検知することができる。
また、複数の監視カメラ11_1~11_nを用いることによって、位置検知の精度を高めることができる。
また、複数の監視カメラ11_1~11_nのカメラパラメータは、共通である必要はないので、既存の監視カメラの映像を用いて人の位置を精度よく検出できる。
実施の形態2.
図8は、実施の形態2に係る位置検知装置20の位置検知に用いられる構成である監視カメラ11_1~11_nとモバイル端末21とを示す図である。モバイル端末21は、検知対象である人90によって携行される。1台以上の監視カメラ11_1~11_nは、計器盤40及び機械50が置かれた、予め定められたエリア80に設置されている。監視カメラ11_1~11_nは、既存のカメラであってもよい。監視カメラ11_1~11_nは、撮影範囲R1~Rnをそれぞれ撮影して、映像I~Iを位置検知装置20に送信する。位置検知装置20は、映像I~Iに基づいて、人90の2Dマップ座標(X,Y)を計算して、エリア80のマップ81に2Dマップ座標(X,Y)を示す情報を、表示装置18に表示させるための映像データを生成する。
図9(A)は、監視カメラ11_1~11_nによって撮影された映像I~Iに基づいて検知された人90の2Dマップ座標(X,Y)をエリア80のマップ81上に示す図である。図9(B)は、歩行者自律航法(PDR)によって検知された人90の2D座標(Xp,Yp)に基づく2Dマップ座標(X,Y)をエリア80のマップ81上に示す図である。図9(A)は、2台の監視カメラ11_1、11_nによって2Dマップ座標(X,Y)が計算された例を示す。図9(B)は、人90が監視カメラの撮影範囲外に移動した後に、PDRによる位置計算が行われ、位置計算の結果得られた2Dマップ座標(X,Y)を示す。
図10は、実施の形態2に係る位置検知装置20の構成を概略的に示す機能ブロック図である。位置検知装置20は、実施の形態2に係る位置検知方法を実施することができる装置である。位置検知装置20は、位置検知プログラムを実行することによって実施の形態2に係る位置検知方法を実施することができる。図3に示されるように、位置検知装置20は、映像受信部13と、人検知部14と、座標変換部15と、検出値受信部23と、端末位置計算部24と、マップ座標決定部16aと、表示制御部17とを有する。位置検知装置20のハードウェア構成は、図4のものと同様である。
映像受信部13は、1台以上の監視カメラ11_1で撮影され、映像送信部12_1から送信された映像Iを受信し、映像Iを人検知部14に渡す。人検知部14は、映像Iを受け取り、映像Iにおいて人90を検知するための処理を行い、検知された人90の位置を示す2Dカメラ座標(u,v)を出力する。座標変換部15は、2D/3D座標変換部である。座標変換部15は、2Dカメラ座標(u,v)を、予め定められた共通の座標系で表される3D座標(X,Y,Z)に変換する。
検出値受信部23は、人90が携行しているモバイル端末21の慣性センサ21aのセンサ値である検出値を受信して端末位置計算部24に出力する。慣性センサ21aは、例えば、直交する3軸方向の並進運動と、回転運動とを検出することができる装置である。一般に、慣性センサは、加速度センサ[m/s]により並進運動を検出し、角速度(ジャイロ)センサ[deg/sec]により回転運動を検出する装置である。
端末位置計算部24は、モバイル端末21の位置を示す端末位置座標(X,Y)を計算する。
マップ座標決定部16aは、人90が検知されている期間は、3D座標に基づいて2Dマップ座標(X,Y)を算出し、人90が検知されていない期間は、端末位置座標(X,Y)に基づいて2Dマップ座標(X,Y)を算出する。
表示制御部17は、エリア80のマップ81上に2Dマップ座標(X,Y)の位置情報を重ねた映像データを出力する。表示装置18は、エリア80のマップ81及び2Dマップ座標(X,Y)の位置情報を表示する。マップ81は、外部の記憶装置から取得したマップ情報Lに基づいて表示される。
図11は、実施の形態2に係る位置検知装置20の端末位置計算部24の処理を示すフローチャートである。図11において、端末位置計算部24は、検出値から、回転行列を計算し(ステップS42)、モバイル端末21の姿勢を変換し(ステップS43)、モバイル端末21の加速度を計算し(ステップS44)、加速度を二重積分することで変位を計算し(ステップS45)、この変位に基づいて端末位置座標(X,Y)を出力する(ステップS45)。端末位置計算部24は、以上の処理(ステップS42~S46)を、例えば、監視カメラによる位置検出が再開されるまで繰り返す(ステップS41)。
図12は、実施の形態2に係る位置検知装置20のマップ座標決定部16aの処理を示すフローチャートである。マップ座標決定部16aは、ループ処理(ステップS51)において、映像を受け取り、人90が検知されれば(ステップS53においてYES)、映像に基づく2Dマップ座標(X,Y)を出力し(ステップS54)、人が検知されなければ(ステップS53においてNO)、慣性センサ21aの検出値に基づいてPDRで得られた端末位置座標(X,Y)を2Dマップ座標(X,Y)として出力する(ステップS55)。
以上に説明したように、実施の形態2に係る位置検知装置20、位置検知方法、又は位置検知プログラムを用いれば、1台以上の監視カメラの映像に基づいて人90の位置を検知できるときには、映像Iなどに基づく比較的精度のよい方法で2Dマップ座標(X,Y)を出力し、人90が撮影範囲外にいるときには、慣性センサ21aの検出値に基づいて計算された端末位置座標を2Dマップ座標(X,Y)として出力することができる。
また、PDRの計算結果を過去の計算結果と比較し、所定値以上の誤差がある場合には、精度が低いことを通知する、などの対策を講じれば、比較的精度の低いPDRを用いた位置検知のデメリットを軽減できる。
実施の形態3.
図13は、実施の形態3に係る位置検知装置30の位置検知に用いられる構成である監視カメラ11_1~11_nとウェラブルカメラ31とを示す図である。ウェラブルカメラ31は、人90である作業者の視線方向を撮影する小型のカメラであり、スマートグラスとも呼ばれる。ウェラブルカメラ31は、人90によって携行される。1台以上の監視カメラ11_1~11_nは、計器盤40及び機械50が置かれた、予め定められたエリア80に設置されている。監視カメラ11_1~11_nは、既存のカメラであってもよい。監視カメラ11_1~11_nは、撮影範囲R1~Rnをそれぞれ撮影して、映像I~Iを位置検知装置10に送信する。位置検知装置10は、映像I~Iに基づいて、人90の2Dマップ座標(X,Y)を計算して、エリア80のマップ81に2Dマップ座標(X,Y)を示す情報を、表示装置に表示させるための映像情報を生成する。
図14(A)は、計器盤40、計器などの機器41、及び銘板42の例を示す図であり、図14(B)は、銘板42の映像によって認識された文字列43に基づいて2Dマップ座標(X,Y)をエリア80のマップ81上に示す図である。
図15は、実施の形態3に係る位置検知装置30の構成を概略的に示す機能ブロック図である。位置検知装置30は、実施の形態3に係る位置検知方法を実施することができる装置である。位置検知装置30は、位置検知プログラムを実行することによって位置検知方法を実施することができる。図15に示されるように、位置検知装置30は、映像受信部13と、人検知部14と、座標変換部15と、映像受信部33と、文字認識部34と、文字検索部35と、マップ座標決定部16bと、表示制御部17とを有する。位置検知装置30のハードウェア構成は、図4のものと同様である。
人検知部14は、監視カメラ11_1で撮影された映像Iを受け取り、映像Iにおいて人90を検知するための処理を行い、検知された人90の位置を示す2Dカメラ座標(u,v)を出力する。
座標変換部(15)は、2Dカメラ座標を、予め定められた共通の座標系で表される3D座標(X,Y,Z)に変換する。
文字認識部34は、人90がウェラブルカメラ31を装着しているときにウェラブルカメラ31によって撮影されたウェラブルカメラ映像I内の機器41の銘板42の文字列(43)を認識する。
文字検索部35は、認識された文字列43をエリア80の機器のレイアウト図面(例えば、機器レイアウトが記載されたマップ81)で検索する。
マップ座標決定部16bは、認識された文字列43がレイアウト図面で見つかった場合には、見つかった位置に基づいて2Dマップ座標(X,Y)を決定し、認識された文字列43がレイアウト図面で見つからない場合には、3D座標に基づいて2Dマップ座標(X,Y)を計算する。
表示制御部17は、エリア80のマップ81上に2Dマップ座標(X,Y)の位置情報を重ねた映像データを出力する。
図16は、実施の形態3に係る位置検知装置30の文字認識部34の処理を示すフローチャートである。文字認識部34は、文字列領域を検知し(ステップS61)、文字列領域を1文字の領域に分割し(ステップS62)、文字パターンを照合し(ステップS63)、1文字を確定し(ステップS64)、次の1文字があるかどうかを判断する(ステップS65)。次の一文字がある場合(ステップS65においてYES)、文字認識部34は、ステップS63~S65を繰り返す。次の一文字がない場合(ステップS65においてNO)、文字認識部34は、文字列を出力する(ステップS66)。
図17は、実施の形態3に係る位置検知装置30の文字検索部35の処理を示すフローチャートである。文字検索部35は、エリア80のマップ81のレイアウト図面を取得し(ステップS71)、文字列を取得し(ステップS72)、文字列に一致する文字列をレイアウト図面で検索する(ステップS73)。一致する文字列がある場合は(ステップS74においてYES)、文字検索部35は、該当文字列を2D座標に変換し(ステップS75)、人の位置を示す2Dマップ座標(X,Y)を出力する。一致する文字列がない場合は(ステップS74においてNO)、文字検索部35は、文字検索を終了する。
以上に説明したように、実施の形態3に係る位置検知装置30、位置検知方法、又は位置検知プログラムを用いれば、ウェラブルカメラ31の映像に基づき、銘板42の文字列43が見つかれば、その銘板42の位置を2Dマップ座標(X,Y)として出力し、銘板42の文字列43が見つからない場合は、監視カメラの映像に基づいて、人90の位置を2Dマップ座標(X,Y)として出力する。このような制御により、位置検出の精度を向上させることができる。つまり、撮影映像の計算結果より銘板42の位置を優先して位置検知に使用するので、位置検出精度を向上させることができる。
また、人が撮影範囲外にいるときであっても、ウェラブルカメラ31の映像に基づき座標を計算することができる。
10、20、30 位置検知装置、 11_1~11_n 監視カメラ、 14 人検知部、 15 座標変換部、 16、16a、16b マップ座標決定部、 17 表示制御部、 18 表示装置、 21 モバイル端末、 21a 慣性センサ、 24 端末位置計算部、 31 ウェラブルカメラ、 34 文字認識部、 35 文字検索部、 41 機器(計器)、 42 銘板、 43 文字列、 90 人、 I~I 映像、 I ウェラブルカメラ映像、 (u,v)~(u,v) 2次元カメラ座標(2Dカメラ画像)、 (X,Y,Z)~(X,Y,Z) 3次元座標(3D座標)、 (X,Y) 2次元マップ座標(2Dマップ座標)、 (X,Y) 端末位置座標、 (X,Y) ウェラブルカメラ座標。

Claims (3)

  1. 監視カメラで撮影された映像を受け取り、前記映像において人を検知するための処理を行い、検知された前記人の位置を示す2次元カメラ座標を出力する人検知部と、
    前記2次元カメラ座標を、予め定められた共通の座標系で表される3次元座標に変換する座標変換部と、
    前記人がウェラブルカメラを装着しているときに前記ウェラブルカメラによって撮影されたウェラブルカメラ映像内の機器の銘板の文字列を認識する文字認識部と、
    認識された前記文字列を前記機器のレイアウト図面で検索する文字検索部と、
    認識された前記文字列が前記レイアウト図面で見つかった場合には、見つかった位置に基づいて2次元マップ座標を決定し、認識された前記文字列が前記レイアウト図面で見つからない場合には、前記3次元座標に基づいて前記2次元マップ座標を計算するマップ座標決定部と、
    マップを取得し、前記マップ上に前記2次元マップ座標の位置情報を重ねた映像データを出力する表示制御部と、
    を有することを特徴とする位置検知装置。
  2. 位置検知装置によって実行される位置検知方法であって、
    監視カメラで撮影された映像を受け取り、前記映像において人を検知するための処理を行い、検知された前記人の位置を示す2次元カメラ座標を出力するステップと、
    前記2次元カメラ座標を、予め定められた共通の座標系で表される3次元座標に変換するステップと、
    前記人がウェラブルカメラを装着しているときに前記ウェラブルカメラによって撮影されたウェラブルカメラ映像内の機器の銘板の文字列を認識するステップと、
    認識された前記文字列と前記機器のレイアウト図面に含まれる文字列との照査の結果に基づいて、前記人の位置を検索するステップと、
    認識された前記文字列が前記レイアウト図面で見つかった場合には、見つかった位置に基づいて2次元マップ座標を決定し、認識された前記文字列が前記レイアウト図面で見つからない場合には、前記3次元座標に基づいて前記2次元マップ座標を計算するステップと、
    マップを取得し、前記マップ上に前記2次元マップ座標の位置情報を重ねた映像データを出力するステップと、
    を有することを特徴とする位置検知方法。
  3. 請求項に記載の位置検知方法をコンピュータに実行させる位置検知プログラム。
JP2023515973A 2021-04-22 2021-04-22 位置検知装置、位置検知方法、及び位置検知プログラム Active JP7309097B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/016290 WO2022224402A1 (ja) 2021-04-22 2021-04-22 位置検知装置、位置検知方法、及び位置検知プログラム

Publications (3)

Publication Number Publication Date
JPWO2022224402A1 JPWO2022224402A1 (ja) 2022-10-27
JPWO2022224402A5 JPWO2022224402A5 (ja) 2023-05-16
JP7309097B2 true JP7309097B2 (ja) 2023-07-14

Family

ID=83722213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023515973A Active JP7309097B2 (ja) 2021-04-22 2021-04-22 位置検知装置、位置検知方法、及び位置検知プログラム

Country Status (6)

Country Link
US (1) US20240037779A1 (ja)
JP (1) JP7309097B2 (ja)
KR (1) KR20230152146A (ja)
CN (1) CN117121471A (ja)
DE (1) DE112021007115T5 (ja)
WO (1) WO2022224402A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110417A1 (ja) 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
JP2014146247A (ja) 2013-01-30 2014-08-14 Secom Co Ltd 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置
JP2016219990A (ja) 2015-05-19 2016-12-22 キヤノン株式会社 位置推定システム、位置推定方法及びプログラム
WO2019167269A1 (ja) 2018-03-02 2019-09-06 三菱電機株式会社 動態検出装置
CN110851557A (zh) 2019-11-28 2020-02-28 云南电网有限责任公司电力科学研究院 一种配电网gis数据采集系统及方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076621A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. 監視システムおよびカメラ端末
JP5579663B2 (ja) * 2011-06-17 2014-08-27 株式会社日立パワーソリューションズ 現場機器誤操作防止方法および現場機器誤操作防止システム
JP2017034511A (ja) 2015-08-03 2017-02-09 株式会社ブイ・アール・テクノセンター 移動体検出システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009110417A1 (ja) 2008-03-03 2009-09-11 ティーオーエー株式会社 旋回型カメラの設置条件特定装置および方法ならびに当該設置条件特定装置を備えるカメラ制御システム
JP2014146247A (ja) 2013-01-30 2014-08-14 Secom Co Ltd 物体特徴抽出装置、物体領域抽出装置及び物体追跡装置
JP2016219990A (ja) 2015-05-19 2016-12-22 キヤノン株式会社 位置推定システム、位置推定方法及びプログラム
WO2019167269A1 (ja) 2018-03-02 2019-09-06 三菱電機株式会社 動態検出装置
CN110851557A (zh) 2019-11-28 2020-02-28 云南电网有限责任公司电力科学研究院 一种配电网gis数据采集系统及方法

Also Published As

Publication number Publication date
US20240037779A1 (en) 2024-02-01
WO2022224402A1 (ja) 2022-10-27
CN117121471A (zh) 2023-11-24
DE112021007115T5 (de) 2024-02-15
KR20230152146A (ko) 2023-11-02
JPWO2022224402A1 (ja) 2022-10-27

Similar Documents

Publication Publication Date Title
US12067784B2 (en) Surveillance information generation apparatus, imaging direction estimation apparatus, surveillance information generation method, imaging direction estimation method, and program
Rambach et al. Learning to fuse: A deep learning approach to visual-inertial camera pose estimation
US20160117824A1 (en) Posture estimation method and robot
US20040090444A1 (en) Image processing device and method therefor and program codes, storing medium
KR20220028042A (ko) 포즈 결정 방법, 장치, 전자 기기, 저장 매체 및 프로그램
JP2004157850A (ja) 運動検出装置
JP2012075060A (ja) 画像処理装置及びそれを用いた撮像装置
WO2022193508A1 (zh) 位姿优化方法、装置、电子设备、计算机可读存储介质、计算机程序及程序产品
JP2008204384A (ja) 撮像装置、物体検出方法及び姿勢パラメータの算出方法
CN108780577A (zh) 图像处理方法和设备
JP6479296B2 (ja) 位置姿勢推定装置および位置姿勢推定方法
WO2019019819A1 (zh) 一种用于处理任务区域的任务的移动电子设备以及方法
JP2023502192A (ja) 視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体
Huttunen et al. A monocular camera gyroscope
CN112087728B (zh) 获取Wi-Fi指纹空间分布的方法、装置和电子设备
JP7309097B2 (ja) 位置検知装置、位置検知方法、及び位置検知プログラム
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JP7562398B2 (ja) 位置管理システム
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
CN116576866B (zh) 导航方法和设备
JP6670682B2 (ja) 位置検出方法及び位置検出システム
JP7444292B2 (ja) 検出システム、検出方法、及びプログラム
US20230134912A1 (en) Information processing device, information processing system, information processing method, and recording medium
EP4292777A1 (en) Assistance system, image processing device, assistance method and program
KR102329785B1 (ko) 위치 측정을 위한 단말의 헤딩 방향을 추정하는 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230323

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230704

R150 Certificate of patent or registration of utility model

Ref document number: 7309097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150