[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6822906B2 - 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法 - Google Patents

変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法 Download PDF

Info

Publication number
JP6822906B2
JP6822906B2 JP2017122846A JP2017122846A JP6822906B2 JP 6822906 B2 JP6822906 B2 JP 6822906B2 JP 2017122846 A JP2017122846 A JP 2017122846A JP 2017122846 A JP2017122846 A JP 2017122846A JP 6822906 B2 JP6822906 B2 JP 6822906B2
Authority
JP
Japan
Prior art keywords
locus
moving body
coordinate system
transformation matrix
position sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017122846A
Other languages
English (en)
Other versions
JP2019008507A (ja
Inventor
小林 大祐
大祐 小林
俊信 中洲
俊信 中洲
梓帆美 高橋
梓帆美 高橋
一成 大内
一成 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017122846A priority Critical patent/JP6822906B2/ja
Priority to EP18159896.2A priority patent/EP3417919B1/en
Priority to US15/911,262 priority patent/US10657658B2/en
Publication of JP2019008507A publication Critical patent/JP2019008507A/ja
Application granted granted Critical
Publication of JP6822906B2 publication Critical patent/JP6822906B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Description

本発明の実施形態は、変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法に関する。
カメラで撮影された映像を解析し、映像中の移動体を追跡してその動きを分析する技術がある。例えば、スポーツ映像解析においては、サッカーやラグビーなどの試合の様子を撮影した映像を用いて選手やボールの動きを分析し、試合におけるシーンの解析や、チーム強化のための情報として利用したりすることが行われている。
移動体の動きを正しく分析するためには、移動体の時刻ごとの位置を精度良く推定することが重要となる。しかし、カメラで撮影された映像では、隠蔽(オクルージョン)によって追跡する移動体を検出できない時間帯があったり、移動体がカメラの撮影範囲外に移動して映像から検出できない時間帯があったりする。このため、カメラで撮影された映像のみを用いて移動体の時刻ごとの位置を精度良く推定することが難しく、改善が求められている。
特開2016−99941号公報 特開2013−251800号公報
相澤将吾,橋本敦史,飯山将晃,野中敬介,三功浩嗣,美濃導彦、"選手の移動軌跡の類似性を利用したサッカー映像における隠蔽区間補間の検討"、信学技法(MVE)vol.115,no.495、pp.241-242、2016
本発明が解決しようとする課題は、移動体の時刻ごとの位置を精度良く推定できる変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法を提供することである。
実施形態の変換行列算出装置は、第1軌跡生成部と、第2軌跡生成部と、軌跡照合部と、算出部と、を備える。第1軌跡生成部は、映像から検出された移動体の第1座標系における移動軌跡である第1軌跡を生成する。第2軌跡生成部は、位置センサが出力する位置情報の時系列データから、当該位置センサを保持する移動体の第2座標系における移動軌跡である第2軌跡を生成する。軌跡照合部は、前記第1軌跡と前記第2軌跡の類似度に基づいて、同一の移動体の移動軌跡と推定される前記第1軌跡と前記第2軌跡とを対応付ける。算出部は、対応付けられた前記第1軌跡と前記第2軌跡とを用いて、前記第2座標系を前記第1座標系に変換する変換行列を算出する。前記位置センサを保持する移動体を識別する固有情報が前記位置センサに対応付けられている。前記軌跡照合部は、映像から移動体とともに当該移動体の固有情報が検出された場合は、当該移動体の前記第1軌跡と、当該移動体の固有情報に対応付く前記位置センサが出力する位置情報の時系列データから生成された前記第2軌跡とを対応付ける。
実施形態の位置推定装置の構成例を示すブロック図。 映像から選手が検出された様子を示す図。 射影変換行列の算出方法の一例を説明する図。 映像から検出された選手の位置をフィールド座標系にマッピングした様子を示す図。 第1軌跡の一例を示す図。 第2軌跡の一例を示す図。 2つの第1軌跡の間の軌跡が途切れている時間帯を第2軌跡で補間する例を説明する図。 2つの第1軌跡の間の軌跡が途切れている時間帯を第2軌跡で補間する例を説明する図。 タイムスタンプの時刻差を算出する様子を示す図。 実施形態の位置推定装置の動作例を示すフローチャート。
以下に添付図面を参照して、実施形態の変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法について詳しく説明する。以下では、スポーツ映像解析への適用例を想定し、試合中の選手(「移動体」の一例)のフィールド座標系(「第1座標系」の一例)における時刻ごとの位置を推定する例を説明する。フィールド座標系とは、試合が行われるフィールドの所定の位置(例えば、サイドラインとエンドラインの交点のうちの1つなど)を原点とし、この原点からのx方向(例えば、サイドラインに平行な方向)およびy方向(例えば、エンドラインに平行な方向)の距離(例えば、メートル単位での距離)により、フィールド上の各位置を表す座標系である。
試合の様子は、例えば1台のカメラにより撮影されている。このカメラの撮影範囲は、試合が行われるフィールド全体よりも小さい。また、試合に出場する選手のうち少なくとも一部の選手には、地理座標系(「第2座標系」の一例)における位置を示す位置情報を一定間隔で出力するGPS(Global Positioning System)センサなどの位置センサが装着されているものとする。地理座標系は、緯度・経度により位置を表す座標系である。
本実施形態では、試合終了後に位置推定装置による後述の処理が行われるものとする。すなわち、カメラにより撮影された試合中の映像や、試合中に位置センサが出力した位置情報の時系列データは、例えば本実施形態の位置推定装置の外部にある外部装置に格納される。そして、本実施形態の位置推定装置が後述の処理を実行する際に、カメラにより撮影された試合の映像や位置センサが出力する位置情報の時系列データを外部装置から取得するものとする。なお、本実施形態の位置推定装置が、カメラや位置センサから試合の映像や位置情報の時系列データを直接取得する構成であってもよい。この場合、位置推定装置の内部の記憶回路に映像や位置情報の時系列データを一旦格納し、試合終了後に後述の処理を行ってもよいし、試合中にリアルタイムで後述の処理を行うことも可能である。
図1は、本実施形態の位置推定装置1の構成例を示すブロック図である。この位置推定装置1は、例えば専用または汎用コンピュータを用いて構成され、図1に示すように、処理回路10、記憶回路20、通信部30、各部を接続するバス40を備える。この位置推定装置1には、入力装置50やディスプレイ60などが有線または無線により接続されている。また、位置推定装置1は、通信部30を介して外部装置70に接続されている。
処理回路10は、検出機能11と、第1軌跡生成機能12と、第2軌跡生成機能13と、軌跡照合機能14と、算出機能15と、推定機能16とを有する。これらの各処理機能の具体的な内容については後述する。なお、図1では、本実施形態に関わる主要な処理機能を例示しているが、これらの処理機能に加えて他の処理機能を処理回路10がさらに有する構成であってもよい。
位置推定装置1において実行される各処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路20に記憶されている。処理回路10は、記憶回路20からプログラムを読み出して実行することで、各プログラムに対応する処理機能を実現するプロセッサである。各プログラムを読み出した状態の処理回路10は、図1に示した各処理機能を有することになる。
なお、図1では、単一の処理回路10により検出機能11、第1軌跡生成機能12、第2軌跡生成機能13、軌跡照合機能14、算出機能15および推定機能16の各処理機能が実現されるものとして図示しているが、複数の独立したプロセッサを組み合わせて処理回路10を構成しても構わない。この場合、各処理機能がプログラムとして構成されてもよいし、特定の機能が専用の独立したプログラム実行回路に実装されてもよい。
上述の「プロセッサ」は、例えば、CPU(Central Processing Unit)やGPU(Graphical Processing Unit)などの汎用プロセッサ、あるいは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、フィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))などの回路を意味する。プロセッサは記憶回路20に保存されたプログラムを読み出し実行することで機能を実現する。なお、記憶回路20にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わない。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。
記憶回路20は、処理回路10の各処理機能に伴うデータなどを必要に応じて記憶する。本実施形態の記憶回路20は、処理回路10の各処理機能を実現するためのプログラムと、通信部30を介して外部装置70から取得された試合中の映像や位置情報の時系列データなどを記憶する。例えば、記憶回路20は、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ素子、ハードディスク、光ディスクなどである。また、記憶回路20は、位置推定装置1の外部の記憶装置で代替されてもよい。記憶回路20は、LAN(Local Area Network)やインターネットなどにより伝達されたプログラムをダウンロードして記憶または一時記憶した記憶媒体であってもよい。また、記憶媒体は1つに限らず、複数の媒体から構成されてもよい。
通信部30は、有線または無線で接続された外部装置70から、カメラにより撮影された試合中の映像や、選手に装着された位置センサがその試合中に出力した位置情報の時系列データなどを取得し、記憶回路20に格納する。通信部30は、ネットワークに接続して外部装置70と通信を行い、これら映像や位置情報の時系列データなどを取得する構成であってもよい。
入力装置50は、操作者からの各種指示や情報入力を受け付ける。入力装置50は、例えば、マウスやトラックボールなどのポインティングデバイス、あるいはキーボードなどの入力デバイスである。
ディスプレイ60は、例えば液晶表示器などの表示デバイスであり、各種の情報を表示する。本実施形態では、カメラにより撮影された試合中の映像やその映像を加工した映像などを表示することができる。
次に、処理回路10が有する各処理機能について説明する。処理回路10は、例えば入力装置50を用いた操作者の指示に応じて記憶回路20から試合中の映像および位置情報の時系列データと各プログラムとを読み出し、以下で説明する検出機能11、第1軌跡生成機能12、第2軌跡生成機能13、軌跡照合機能14、算出機能15および推定機能16の各処理機能による処理を順次実行する。なお、以下で説明する各処理機能による一連の処理は、試合が行われた全ての時間帯を所定の単位時間(例えば1分間)で区切った上で、単位時間ごとに行われるものとする。
検出機能11は、カメラにより撮影された試合中の映像から移動体である選手を検出する。検出機能11は、画像処理技術として既知の物体検出アルゴリズムを用いて、試合中の映像から選手を検出すればよい。検出機能11により映像から選手が検出された様子を図2に示す。図中の矩形で示す領域が物体検出領域であり、映像から試合中の選手が検出されていることが分かる。検出機能11は、映像の各フレームあるいはフレーム間の動き量が基準値を超えるたびに、映像から選手を検出する処理を繰り返す。
第1軌跡生成機能12は、検出機能11により映像から検出された選手のフィールド座標系における移動軌跡である第1軌跡を生成する。第1軌跡生成機能12は、まず、映像中の特徴点とフィールド上の特徴点との対応付けにより、映像の座標系をフィールド座標系に射影変換するための射影変換行列を算出する。図3は、射影変換行列の算出方法の一例を説明する図である。図3の例では、フィールド上の特定のラインで囲まれた長方形の4つの角を特徴点とし、映像上の4つの角P1,P2,P3,P4の座標をそれぞれフィールド座標系における4つの角P1’,P2’,P3’,P4’の座標に変換する射影変換行列を算出する例を示している。なお、フィールド座標系のハッチングを付した領域は、カメラの撮影範囲外の撮影されない領域を示している。
次に、第1軌跡生成機能12は、検出機能11により映像から検出された選手の位置を、射影変換行列を用いてフィールド座標系にマッピングすることにより、フィールド座標系における選手の位置を推定する。図4は、映像から検出された選手の位置をフィールド座標系にマッピングした様子を示す図であり、図2に示した選手の映像上の位置をフィールド座標系にマッピングした様子を示している。
第1軌跡生成機能12は、検出機能11により映像から選手が検出されるたびに、射影変換行列を用いたマッピングによりその選手のフィールド座標系における位置を推定する処理を繰り返す。そして、フィールド座標系における選手の位置および画像特徴(検出領域の色やテスクチャ)の類似度を用いて、例えば動的計画法による最適化により選手のトラックレットを生成し、これをフィールド座標系における選手の移動軌跡である第1軌跡とする。図5に第1軌跡L1の一例を示す。第1軌跡L1は、映像から検出された選手ごとに生成され、それぞれフィールド座標系における選手の時系列の動きを表している。なお、ここではフィールド座標系でトラックレットを生成する例を説明したが、映像の座標系でトラックレットを生成し、射影変換行列を用いてトラックレットをフィールド座標系にマッピングすることにより第1軌跡L1を生成する構成であってもよい。
第2軌跡生成機能13は、選手に装着された位置センサが試合中に出力した位置情報の時系列データから、その位置センサを装着した選手の地理座標系における移動軌跡である第2軌跡を生成する。図6に第2軌跡L2の一例を示す。第2軌跡L2は、センサを装着した選手ごとに生成され、それぞれ地理座標系における選手の時系列の動きを表している。センサを装着していない選手がいる場合は、その選手に対応する第2軌跡L2は生成されない。一方、センサを装着した選手に対応する第2軌跡L2は、その選手がオクルージョンの影響やカメラの撮影範囲外に移動したことによりカメラの映像に映らない時間帯であっても生成される。
軌跡照合機能14は、第1軌跡生成機能12により生成された第1軌跡L1と第2軌跡生成機能13により生成された第2軌跡L2の形状の類似度に基づいて、同じ選手の移動軌跡と推定される第1軌跡L1と第2軌跡L2とを対応付ける。第1軌跡L1と第2軌跡L2の形状の類似度は、例えば、高次局所自己相関(HLAC:Higher-order Local AutoCorrelation)特徴を用いて判定することができる。すなわち、第1軌跡L1から抽出されたHLAC特徴と第2軌跡L2から抽出されたHLAC特徴との差分が所定の閾値以下である場合、これら第1軌跡L1と第2軌跡L2は同一の選手の移動軌跡を示していると推定できる。例えば、図5に例示した第1軌跡L1と図6に例示した第2軌跡L2は、形状の類似度が高いため、同一の選手の移動軌跡を示していると推定されて対応付けられる。
なお、選手が装着する位置センサに対してその選手を識別する背番号などの固有情報が事前に対応付けられており、位置センサが出力する位置情報の時系列データにその固有情報が付加されている場合は、第1軌跡L1と第2軌跡L2との対応付けをより簡易的に行うことも可能である。すなわち、カメラにより撮影された試合中の映像から選手とともにその選手の背番号などの固有情報が検出された場合に、その選手のフィールド座標系における時系列の動きを示す第1軌跡L1と、その選手の背番号などの固有情報が付加された位置情報の時系列データをもとに生成された第2軌跡L2とを対応付ければよい。
算出機能15は、軌跡照合機能14によって対応付けられた第1軌跡L1と第2軌跡L2とを用いて、位置センサの座標系である地理座標系をフィールド座標系に変換する変換行列Mを算出する。例えば算出機能15は、第2軌跡L2を構成する各時刻の地理座標系における位置をフィールド座標系における位置に変換したときに、第1軌跡L1を構成する各時刻のフィールド座標系における位置との誤差が最小となるように、地理座標系をフィールド座標系に変換する変換行列Mを算出する。なお、変換行列Mを算出するために用いる第1軌跡L1と第2軌跡L2のペアは少なくとも1つあればよいが、多数のペアを用いることでより正確な変換行列Mを算出することができる。
推定機能16は、変換行列Mを用いて第2軌跡L2をフィールド座標系にマッピングすることにより、フィールド座標系における各選手の位置を推定する。例えば推定部は、第1軌跡L1と変換行列Mを用いてフィールド座標系にマッピングされた第2軌跡L2とを選手ごとに統合し、統合した各選手の移動軌跡に基づいてフィールド座標系における各選手の時刻ごとの位置を推定する。すなわち、推定機能16は、まず、第2軌跡生成機能13により生成された全ての第2軌跡L2を、算出機能15により算出された変換行列Mを用いてフィールド座標系にマッピングする。そして、推定機能16は、第1軌跡生成機能12により生成された全ての第1軌跡L1と、フィールド座標系にマッピングされた全ての第2軌跡L2とを、フィールド座標系での重なりや連続性をもとにグルーピングすることにより、同じ選手の移動軌跡を示すと推定される第1軌跡L1と第2軌跡L2とを統合する。
例えば、位置センサを装着した選手がカメラで撮影された映像に映っている時間帯においては、その選手の地理座標系における時系列の動きを表す第2軌跡L2が、その選手のフィールド座標系における動きを表す第1軌跡L1と概ね重なるようにマッピングされる。したがって、推定機能16は、これら第1軌跡L1とフィールド座標系にマッピングされた第2軌跡L2とを、1人の選手のフィールド座標系における移動軌跡として統合する。
また、位置センサを装着した選手がオクルージョンによって一時的にカメラで撮影された映像に映っていない時間帯がある場合、例えば図7に示すように、フィールド座標系にマッピングされた1つの第2軌跡L2_1に対し、2つの第1軌跡L1_1,L1_2の重なり度合いが高く、これら2つの第1軌跡L1_1,L1_2が第2軌跡L2_1を介して連続性を持つ。このような場合、推定機能16は、これら2つの第1軌跡L1_1,L1_2と第2軌跡L2_1とを、1人の選手のフィールド座標系における移動軌跡として統合する。これにより、その選手の移動軌跡を示す2つの第1軌跡L1_1,L1_2の間の軌跡が途切れている時間帯、つまり、オクルージョンにより映像からその選手が検出されずに第1軌跡L1が生成されない時間帯におけるその選手の移動軌跡を、フィールド座標系にマッピングされた第2軌跡L2_1を用いて補間することができる。
また、位置センサを装着した選手が一時的にカメラの撮影範囲外に移動することにより映像に映っていない時間帯がある場合、例えば図8に示すように、フィールド座標系にマッピングされた1つの第2軌跡L2_2に対し、2つの第1軌跡L1_3,L1_4の重なり度合いが高く、これら2つの第1軌跡L1_3,L1_4が第2軌跡L2_2を介して連続性を持つこともある。このような場合、推定機能16は、これら2つの第1軌跡L1_3,L1_4と第2軌跡L2_2とを、1人の選手のフィールド座標系における移動軌跡として統合する。これにより、その選手の移動軌跡を示す2つの第1軌跡L1_3,L1_4の間の軌跡が途切れている時間帯、つまり、その選手がカメラの撮影範囲外に移動したために第1軌跡L1が生成されない時間帯におけるその選手の移動軌跡を、フィールド座標系にマッピングされた第2軌跡L2_2を用いて補間することができる。
推定機能16は、以上のようにフィールド座標系において第1軌跡L1と第2軌跡L2とを統合することにより、フィールド座標系における各選手の移動軌跡を推定して各選手の時刻ごとの位置を推定する。ここで、位置センサが装着された選手について、同一時刻における第1軌跡L1上の位置とフィールド座標系にマッピングされた第2軌跡L2上の位置とが異なる場合、つまり、同じ選手の移動軌跡として統合された第1軌跡L1と第2軌跡L2が重ならない時刻においては、推定機能16は、所定の基準に従って、その選手の位置を推定する。例えば推定機能16は、その時刻における第1軌跡L1上の位置と第2軌跡L2上の位置との中間点を、その時刻における選手の位置と推定する。あるいは推定機能16は、その時刻における第1軌跡L1上の位置と第2軌跡L2上の位置のうち、選手の移動軌跡が滑らかになるいずれか一方の位置を、その時刻における選手の位置と推定してもよい。あるいは推定機能16は、選手の移動軌跡を滑らかにする新たな位置、つまり第1軌跡L1上でも第2軌跡L2上でもない新たな位置を求めて、この位置をその時刻における選手の位置と推定してもよい。
また、推定機能16は、1人の選手のフィールド座標系における移動軌跡として統合する第1軌跡L1と第2軌跡L2とから、再重み付け最小二乗法により滑らかな近似曲線を算出し、これをフィールド座標系における選手の移動軌跡とすることで、各時刻における選手の位置を一意に推定できるようにしてもよい。
また、推定機能16は、フィールド系にマッピングされた第2軌跡L2のいずれにも統合されない第1軌跡L1がある場合、この第1軌跡L1を、位置センサが装着されていない選手の移動軌跡と推定する。そして、推定機能16は、この選手のフィールド座標系における時刻ごとの位置を、この第1軌跡L1のみから推定する。
なお、以上の説明は、カメラにより撮影された映像のタイムスタンプと、選手に装着された位置センサが出力する位置情報のタイムスタンプとが一致していることを前提としている。しかし、両者のタイムスタンプが一致している保証はなく、両者のタイムスタンプがずれている場合は、上述の変換行列Mが正しく算出されずに位置推定精度が低下する懸念がある。
そこで、このような場合に上述の算出機能15は、軌跡照合機能14によって対応付けられた第1軌跡L1と第2軌跡L2との間の距離が最小となるように、これら第1軌跡L1と第2軌跡L2の一方を時間軸方向に移動しながら上述の変換行列Mを算出する。そして、算出機能15は、これら第1軌跡L1と第2軌跡L2との間の距離が最小となるようにいずれかを移動したときの移動量に基づいて、カメラにより撮影された映像のタイムスタンプと、位置センサが出力する位置情報のタイムスタンプとの時刻差をさらに算出する。
図9は、タイムスタンプの時刻差を算出する様子を示す図であり、横軸が時間、縦軸は各時刻における位置を仮想的に1次元で表している。この図9に示す例では、第1軌跡L1または第2軌跡L2を時間軸方向に移動量Sだけ移動させると、これら第1軌跡L1と第2軌跡L2との間の距離が最小となる。この場合、算出機能15は、移動量Sに相当する時刻差を、カメラにより撮影された映像のタイムスタンプと、位置センサが出力する位置情報のタイムスタンプとの時刻差として算出する。
算出機能15によって以上のようなタイムスタンプの時刻差が算出された場合、推定機能16は、第1軌跡L1とフィールド座標系にマッピングされた第2軌跡L2とのいずれか一方を、算出機能15により算出された時刻差に基づいて時間軸方向に移動した後に、上述の方法によって同じ選手の移動軌跡を示すと推定される第1軌跡L1と第2軌跡L2とを統合する。そして、フィールド座標系における各選手の移動軌跡を推定して各選手の時刻ごとの位置を推定する。これにより、カメラにより撮影された映像のタイムスタンプと、位置センサが出力する位置情報のタイムスタンプとにずれが生じていたとしても、フィールド座標系における各選手の時刻ごとの位置を精度良く推定することができる。
図10は、以上説明した本実施形態の位置推定装置1(処理回路10)の動作例を示すフローチャートである。なお、図10の各ステップの具体的な内容は上述した通りであるので、詳細な説明は適宜省略する。
まず、処理回路10の検出機能11が、カメラにより撮影された試合中の映像から選手を検出する(ステップS101)。次に、処理回路10の第1軌跡生成機能12が、ステップS101で映像から検出された選手のフィールド座標系における移動軌跡である第1軌跡L1を生成する(ステップS102)。次に、処理回路10の第2軌跡生成機能13が、選手に装着された位置センサが試合中に出力した位置情報の時系列データから、その位置センサを装着した選手の地理座標系における移動軌跡である第2軌跡L2を生成する(ステップS103)。なお、ステップS103の処理は、ステップS101およびステップS102の処理よりも前に実施されてもよい。
次に、処理回路10の軌跡照合機能14が、ステップS102で生成された第1軌跡L1とステップS103で生成された第2軌跡L2を照合し、これら第1軌跡L1と第2軌跡L2の形状の類似度をもとに、同じ選手の移動軌跡と推定される第1軌跡L1と第2軌跡L2とを対応付ける(ステップS104)。そして、処理回路10の算出機能15が、ステップS104で対応付けられた第1軌跡L1と第2軌跡L2との間の距離が最小となるように、地理座標系をフィールド座標系に変換する変換行列Mを算出する(ステップS105)。
次に、処理回路10の推定機能16が、ステップS105で算出された変換行列Mを用いてステップS103で生成された全ての第2軌跡L2をフィールド座標系にマッピングする(ステップS106)。そして、処理回路10の推定機能16は、ステップS102で生成された第1軌跡L1とステップS106でマッピングされた第2軌跡L2とを統合し、統合された移動経路に基づいて、フィールド座標系における各選手の時刻ごとの位置を推定する(ステップS107)。
以上説明したように、本実施形態の位置推定装置1は、カメラにより撮影された映像から検出された選手のフィールド座標系における移動軌跡である第1軌跡と、位置センサが出力する位置情報の時系列データから生成された選手の地理座標系における移動軌跡である第2軌跡との形状の類似度に基づいて、同じ選手の移動軌跡と推定される第1軌跡と第2軌跡とを対応付ける。そして、対応付けられた第1軌跡と第2軌跡との間の距離が最小となるように、位置センサが出力する位置情報の座標系である地理座標系をフィールド座標系に変換する変換行列を算出し、この変換行列を用いて第2軌跡をフィールド座標系にマッピングする。そして、第1軌跡とフィールド座標系にマッピングされた第2軌跡とを統合して、フィールド座標系における選手の時刻ごとの位置を推定するようにしている。したがって、本実施形態の位置推定装置1によれば、フィールド座標系における試合中の選手の時刻ごとの位置を精度良く推定することができる。
例えば、本実施形態の位置推定装置1によれば、オクルージョンによって映像に映らない選手やカメラの撮影範囲外に移動したことにより映像に映らない選手の軌跡を第2軌跡で補間することで、映像に映らない時間帯であっても選手の位置を推定できる。また、同じ選手の動きを示す2つの軌跡を用いて時刻ごとの位置を推定することにより、ノイズに対して頑強に位置の推定を行うことができる。
なお、上述の実施形態においては、軌跡照合機能14がフィールド座標系における第1軌跡L1と地理座標系における第2軌跡L2とを照合し、第1軌跡L1と第2軌跡L2の形状の類似度をもとに同じ選手の移動軌跡と推定される第1軌跡L1と第2軌跡L2とを対応付ける例を説明したが、軌跡照合機能14は、第1軌跡L1と第2軌跡L2をそれぞれ共通の座標系に射影した上で照合し、両者の形状の類似度を判定するようにしてもよい。この場合、第1軌跡L1と第2軌跡L2との形状の類似度をより正確に判定することができる。
また、上述の実施形態においては、地理座標系における選手の動きの時系列を示す第2軌跡L2をフィールド座標系にマッピングしたが、この第2軌跡L2をさらにカメラの座標系に変換し、カメラにより撮影された映像に射影してディスプレイ60に表示させてもよい。これにより、映像を閲覧するユーザに対し、映像に映る選手の動きを過去に遡って把握させることができる。
また、上述の実施形態はスポーツ映像解析への適用例であるが、本実施形態の位置推定装置1は、スポーツ映像解析に限らず、映像解析を通じて移動体の位置を推定する様々な用途に適用できる。
なお、本実施形態の位置推定装置1の上述の処理機能は、上述したように、例えばコンピュータを用いて構成される位置推定装置1がプログラムを実行することにより実現される。この場合、本実施形態の位置推定装置1で実行されるプログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、本実施形態の位置推定装置1で実行されるプログラムを、インターネットなどのネットワーク経由で提供または配布するようにしてもよい。さらに、本実施形態の位置推定装置1で実行されるプログラムを、ROMなどの不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。
以上、本発明の実施形態を説明したが、上述の実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 位置推定装置
10 処理回路
11 検出機能
12 第1軌跡生成機能
13 第2軌跡生成機能
14 軌跡照合機能
15 算出機能
16 推定機能

Claims (11)

  1. 映像から検出された移動体の第1座標系における移動軌跡である第1軌跡を生成する第1軌跡生成部と、
    位置センサが出力する位置情報の時系列データから、当該位置センサを保持する移動体の第2座標系における移動軌跡である第2軌跡を生成する第2軌跡生成部と、
    前記第1軌跡と前記第2軌跡の類似度に基づいて、同一の移動体の移動軌跡と推定される前記第1軌跡と前記第2軌跡とを対応付ける軌跡照合部と、
    対応付けられた前記第1軌跡と前記第2軌跡とを用いて、前記第2座標系を前記第1座標系に変換する変換行列を算出する算出部と、を備え、
    前記位置センサを保持する移動体を識別する固有情報が前記位置センサに対応付けられており、
    前記軌跡照合部は、映像から移動体とともに当該移動体の固有情報が検出された場合は、当該移動体の前記第1軌跡と、当該移動体の固有情報に対応付く前記位置センサが出力する位置情報の時系列データから生成された前記第2軌跡とを対応付ける、
    変換行列算出装置。
  2. 前記軌跡照合部は、前記第1軌跡と前記第2軌跡とを共通の座標系に射影して前記類似度を判定する、
    請求項1に記載の変換行列算出装置。
  3. 前記第2軌跡を前記映像に射影して表示する映像表示部をさらに備える、
    請求項1又は2に記載の変換行列算出装置。
  4. 請求項1乃至のいずれか一項に記載の変換行列算出装置と、
    前記変換行列を用いて前記第2軌跡を前記第1座標系にマッピングすることにより、前記第1座標系における移動体の位置を推定する推定部と、
    を備える位置推定装置。
  5. 前記推定部は、前記第1軌跡と前記第1座標系にマッピングされた前記第2軌跡とを移動体ごとに統合し、統合した各移動体の移動軌跡に基づいて前記第1座標系における各移動体の時刻ごとの位置を推定する、
    請求項に記載の位置推定装置。
  6. 前記算出部は、さらに、対応付けられた前記第1軌跡と前記第2軌跡との間の距離が最小となるように前記第1軌跡または前記第2軌跡を時間軸方向に移動したときの移動量に基づいて、カメラにより撮影された映像のタイムスタンプと、前記位置センサが出力する位置情報のタイムスタンプとの時刻差を算出し、
    前記推定部は、前記第1軌跡と前記第1座標系にマッピングされた前記第2軌跡とのいずれか一方を前記時刻差に基づいて時間軸方向に移動した後、前記第1軌跡と前記第1座標系にマッピングされた前記第2軌跡とを移動体ごとに統合する、
    請求項に記載の位置推定装置。
  7. 前記推定部は、前記位置センサを保持する移動体について、前記映像から当該移動体が検出されずに前記第1軌跡が生成されない時間帯における当該移動体の移動軌跡を、前記第1座標系にマッピングされた前記第2軌跡を用いて補間する、
    請求項またはに記載の位置推定装置。
  8. 前記推定部は、前記位置センサを保持する移動体について、当該移動体の同一時刻における前記第1軌跡上の位置と前記第1座標系にマッピングされた前記第2軌跡上の位置とが異なる場合に、これらの位置の中間点、または、移動体の移動軌跡が滑らかになるいずれか一方の位置、また、移動体の移動軌跡を滑らかにする新たな位置、のいずれかを当該移動体の位置として推定する、
    請求項乃至のいずれか一項に記載の位置推定装置。
  9. 前記推定部は、前記第1座標系にマッピングされた前記第2軌跡のいずれにも統合されない前記第1軌跡がある場合、当該第1軌跡を、前記位置センサを保持しない移動体の移動軌跡と推定し、当該移動体の前記第1座標系における位置を前記第1軌跡のみから推定する、
    請求項乃至のいずれか一項に記載の位置推定装置。
  10. 変換行列算出装置が、映像から検出された移動体の第1座標系における移動軌跡である第1軌跡を生成するステップと
    前記変換行列算出装置が、位置センサが出力する位置情報の時系列データから、当該位置センサを保持する移動体の第2座標系における移動軌跡である第2軌跡を生成するステップと
    前記変換行列算出装置が、前記第1軌跡と前記第2軌跡の類似度に基づいて、同一の移動体の移動軌跡と推定される前記第1軌跡と前記第2軌跡とを対応付けるステップと
    前記変換行列算出装置が、対応付けられた前記第1軌跡と前記第2軌跡とを用いて、前記第2座標系を前記第1座標系に変換する変換行列を算出するステップと、を含み、
    前記位置センサを保持する移動体を識別する固有情報が前記位置センサに対応付けられており、
    前記対応付けるステップは、映像から移動体とともに当該移動体の固有情報が検出された場合は、当該移動体の前記第1軌跡と、当該移動体の固有情報に対応付く前記位置センサが出力する位置情報の時系列データから生成された前記第2軌跡とを対応付ける、
    変換行列算出方法。
  11. 位置推定装置が、映像から検出された移動体の第1座標系における移動軌跡である第1軌跡を生成するステップと
    前記位置推定装置が、位置センサが出力する位置情報の時系列データから、当該位置センサを保持する移動体の第2座標系における移動軌跡である第2軌跡を生成するステップと
    前記位置推定装置が、前記第1軌跡と前記第2軌跡の類似度に基づいて、同一の移動体の移動軌跡と推定される前記第1軌跡と前記第2軌跡とを対応付けるステップと
    前記位置推定装置が、対応付けられた前記第1軌跡と前記第2軌跡とを用いて、前記第2座標系を前記第1座標系に変換する変換行列を算出するステップと
    前記位置推定装置が、前記変換行列を用いて前記第2軌跡を前記第1座標系にマッピングすることにより、前記第1座標系における移動体の位置を推定するステップとを含み、
    前記位置センサを保持する移動体を識別する固有情報が前記位置センサに対応付けられており、
    前記対応付けるステップは、映像から移動体とともに当該移動体の固有情報が検出された場合は、当該移動体の前記第1軌跡と、当該移動体の固有情報に対応付く前記位置センサが出力する位置情報の時系列データから生成された前記第2軌跡とを対応付ける、
    位置推定方法。
JP2017122846A 2017-06-23 2017-06-23 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法 Active JP6822906B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017122846A JP6822906B2 (ja) 2017-06-23 2017-06-23 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法
EP18159896.2A EP3417919B1 (en) 2017-06-23 2018-03-05 Transformation matrix deriving device, position estimation apparatus, transformation matrix deriving method, and position estimation method
US15/911,262 US10657658B2 (en) 2017-06-23 2018-03-05 Transformation matrix deriving device, position estimation apparatus, transformation matrix deriving method, and position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017122846A JP6822906B2 (ja) 2017-06-23 2017-06-23 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法

Publications (2)

Publication Number Publication Date
JP2019008507A JP2019008507A (ja) 2019-01-17
JP6822906B2 true JP6822906B2 (ja) 2021-01-27

Family

ID=61616768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017122846A Active JP6822906B2 (ja) 2017-06-23 2017-06-23 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法

Country Status (3)

Country Link
US (1) US10657658B2 (ja)
EP (1) EP3417919B1 (ja)
JP (1) JP6822906B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11305194B2 (en) * 2019-01-21 2022-04-19 Tempus Ex Machina, Inc. Systems and methods for providing a real-time representation of positional information of subjects
DE102019209398A1 (de) * 2019-06-27 2020-12-31 Robert Bosch Gmbh Angleichen von Koordinatensystemen mehrerer Karten basierend auf Trajektorien
EP3792815A1 (en) * 2019-09-14 2021-03-17 MyLaps B.V. Sports timing based on a camera system
CN111551142A (zh) * 2020-05-22 2020-08-18 西安飞机工业(集团)有限责任公司 一种三坐标随位串联定位器的定位方法
JP7534279B2 (ja) 2021-12-03 2024-08-14 株式会社日立製作所 計算機システム及び監視オブジェクトのトラッキング方法
CN116363565B (zh) * 2023-06-01 2023-08-11 深圳须弥云图空间科技有限公司 目标轨迹确定方法、装置、电子设备及存储介质
CN117557789B (zh) * 2024-01-12 2024-04-09 国研软件股份有限公司 一种海上目标的智能化检测方法及系统

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06101018B2 (ja) * 1991-08-29 1994-12-12 インターナショナル・ビジネス・マシーンズ・コーポレイション 動画像データベースの検索
CA2121005C (en) * 1993-04-15 2005-01-11 Masaaki Oka Methods and apparatus for synthesizing a three-dimensional image signal and producing a two-dimensional visual display therefrom
US6108460A (en) * 1996-01-02 2000-08-22 Pixelfusion Limited Load balanced image generation
US5850489A (en) * 1996-01-02 1998-12-15 Integrated Device Technology, Inc. Linear expression evaluator
US6385772B1 (en) * 1998-04-30 2002-05-07 Texas Instruments Incorporated Monitoring system having wireless remote viewing and control
US6449382B1 (en) * 1999-04-28 2002-09-10 International Business Machines Corporation Method and system for recapturing a trajectory of an object
JP3791584B2 (ja) * 1999-12-28 2006-06-28 セイコーエプソン株式会社 面発光型半導体レーザおよび面発光型半導体レーザアレイ
ATE539558T1 (de) * 2002-04-25 2012-01-15 Panasonic Corp Objektdetektionseinrichtung, objektdetektionsserver und objektdetektionsverfahren
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US7929017B2 (en) * 2004-07-28 2011-04-19 Sri International Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
JP2007219948A (ja) * 2006-02-17 2007-08-30 Advanced Telecommunication Research Institute International ユーザ異常検出装置、及びユーザ異常検出方法
CN102989174B (zh) * 2006-05-04 2016-06-29 美国索尼电脑娱乐公司 获得用于控制游戏程序的运行的输入
US8411149B2 (en) * 2006-08-03 2013-04-02 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
US7990398B2 (en) * 2007-04-13 2011-08-02 Apple Inc. Matching movement behavior in motion graphics
JP5363752B2 (ja) 2008-03-18 2013-12-11 株式会社ゼンリン 路面標示地図生成方法
WO2010044186A1 (ja) * 2008-10-17 2010-04-22 パナソニック株式会社 動線作成システム、動線作成装置及び3次元動線表示装置
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
WO2012014430A1 (ja) * 2010-07-27 2012-02-02 パナソニック株式会社 移動体検出装置および移動体検出方法
JP5994397B2 (ja) 2012-06-01 2016-09-21 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9747805B2 (en) * 2013-07-31 2017-08-29 International Business Machines Corporation Computing a similarity measure over moving object trajectories
EP3522522B1 (en) * 2014-03-03 2020-04-29 Photoneo S.R.O Methods and apparatus for superpixel modulation
JP6525453B2 (ja) 2014-11-26 2019-06-05 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
US9792664B2 (en) * 2015-01-29 2017-10-17 Wipro Limited System and method for mapping object coordinates from a video to real world coordinates using perspective transformation
US20160379074A1 (en) * 2015-06-25 2016-12-29 Appropolis Inc. System and a method for tracking mobile objects using cameras and tag devices
JP6681682B2 (ja) * 2015-08-19 2020-04-15 株式会社日立製作所 移動体計測システム及び移動体計測方法
WO2017103781A1 (en) * 2015-12-13 2017-06-22 Photoneo S.R.O. Methods and apparatus for superpixel modulation with ambient light suppression
JP6649231B2 (ja) 2016-11-18 2020-02-19 株式会社東芝 検索装置、検索方法およびプログラム

Also Published As

Publication number Publication date
US10657658B2 (en) 2020-05-19
EP3417919A1 (en) 2018-12-26
US20180374222A1 (en) 2018-12-27
JP2019008507A (ja) 2019-01-17
EP3417919B1 (en) 2023-09-20

Similar Documents

Publication Publication Date Title
JP6822906B2 (ja) 変換行列算出装置、位置推定装置、変換行列算出方法および位置推定方法
US7092109B2 (en) Position/orientation measurement method, and position/orientation measurement apparatus
US7330197B2 (en) Mixed reality exhibiting method and apparatus
US11948376B2 (en) Method, system, and device of generating a reduced-size volumetric dataset
US9448067B2 (en) System and method for photographing moving subject by means of multiple cameras, and acquiring actual movement trajectory of subject based on photographed images
CN104424649B (zh) 检测运动物体的方法和系统
CN107924461B (zh) 用于多因素图像特征配准和跟踪的方法、电路、设备、系统及相关计算机可执行代码
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US20090245681A1 (en) Information processing method and information processing apparatus
JP2009017480A (ja) カメラキャリブレーション装置およびそのプログラム
CN113449570A (zh) 图像处理方法和装置
JP2002228442A (ja) 位置姿勢の決定方法及び装置並びに記憶媒体
JP2007271564A (ja) 位置姿勢計測方法、位置姿勢計測装置
JP2015127664A (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2012221261A5 (ja)
JP6746050B2 (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
CN108122280A (zh) 一种三维点云的重建方法及装置
JP6196562B2 (ja) 被写体情報重畳装置、被写体情報重畳方法及びプログラム
US11913768B2 (en) Estimating tracking sensor parametrization using known surface constraints
JP7224832B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20200041262A1 (en) Method for performing calibration by using measured data without assumed calibration model and three-dimensional scanner calibration system for performing same
JP7318814B2 (ja) データ生成方法、データ生成プログラムおよび情報処理装置
JP2004046464A (ja) 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体
CN111344741A (zh) 一种三维轨迹数据的数据缺失处理方法及装置
JP2010244192A (ja) 物体流動速度計測方法とその装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210107

R151 Written notification of patent or utility model registration

Ref document number: 6822906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151