JP7397282B2 - Stationary determination system and computer program - Google Patents
Stationary determination system and computer program Download PDFInfo
- Publication number
- JP7397282B2 JP7397282B2 JP2019165678A JP2019165678A JP7397282B2 JP 7397282 B2 JP7397282 B2 JP 7397282B2 JP 2019165678 A JP2019165678 A JP 2019165678A JP 2019165678 A JP2019165678 A JP 2019165678A JP 7397282 B2 JP7397282 B2 JP 7397282B2
- Authority
- JP
- Japan
- Prior art keywords
- image area
- frames
- user
- region
- stationary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004590 computer program Methods 0.000 title claims description 13
- 238000003384 imaging method Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000001624 hip Anatomy 0.000 description 2
- 210000004394 hip joint Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Description
本発明は、静止判定システム及びコンピュータプログラムに関する。 The present invention relates to a stationary determination system and a computer program.
特許文献1には、運動動作を行っているユーザーの画像を取得し、その画像に基づいて人間動作スクリーニングスコアを生成し、そのスコアに基づいてパーソナル化エクササイズプログラムを生成する方法が開示されている。 Patent Document 1 discloses a method of acquiring an image of a user performing an exercise movement, generating a human movement screening score based on the image, and generating a personalized exercise program based on the score. .
このようなユーザーの動作の評価を行う上で、身体の静止判定を安定的に行う必要が生じていた。 In order to evaluate such user movements, it has become necessary to stably determine whether the user's body is still.
本発明はこのような事情に鑑みてなされたものであり、ユーザー動作の静止判定を安定的に行うことを可能にする、静止判定システム及びコンピュータプログラムを提供するものである。 The present invention has been made in view of these circumstances, and provides a stillness determination system and a computer program that make it possible to stably determine whether a user's motion is still.
本発明によれば、ユーザーの身体が静止しているか否かを判定するシステムであって、撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定するシステムが提供される。 According to the present invention, there is provided a system for determining whether or not a user's body is stationary, including an imaging section, a region specifying section, an image area setting section, and a stillness determination section, the imaging section comprising: The user's movements are photographed to obtain photographed data including a plurality of frames, the region specifying section identifies a predetermined region of the user's body in the acquired photographic data, and the image area setting section , a system in which an image area is set to be associated with the identified predetermined part, and the stillness determination unit determines whether or not the predetermined part is still based on a difference between frames of the image area. is provided.
このような構成とすることにより、ユーザーの身体における特定の部位について静止判定を安定的に行う事が可能となる。 With such a configuration, it is possible to stably determine whether a specific part of the user's body is still.
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。また、各特徴事項について独立して発明が成立する。 Embodiments of the present invention will be described below with reference to the drawings. Various features shown in the embodiments described below can be combined with each other. Further, the invention is established independently for each characteristic matter.
<1.第1実施形態>
(1-1.判定システム1の全体構成)
図1に示すように、本発明の第1実施形態の判定システム1は、携帯端末10を備える。携帯端末10は、複数のアプリケーションプログラムをインストール可能な、スマートフォンやタブレット端末などを用いることができる。
<1. First embodiment>
(1-1. Overall configuration of judgment system 1)
As shown in FIG. 1, a determination system 1 according to a first embodiment of the present invention includes a mobile terminal 10. The mobile terminal 10 can be a smartphone, a tablet terminal, or the like, on which a plurality of application programs can be installed.
本実施形態では、携帯端末10はカメラ20を備え、ユーザーUを前側から撮影するように配置されている。なお、図1に示す構成は例示であって、携帯端末10は、ユーザーUの前側以外の位置に配置されていてもよい。 In this embodiment, the mobile terminal 10 includes a camera 20 and is arranged to photograph the user U from the front side. Note that the configuration shown in FIG. 1 is an example, and the mobile terminal 10 may be placed at a position other than the front side of the user U.
(1-2.携帯端末10の構成)
図2に示すように、携帯端末10の筐体12には、その正面12Aに、画面に画像を表示する画像表示手段であるタッチパネルディスプレイ14が備えられる。タッチパネルディスプレイ14は、例えばLCD(Liquid Crystal Display)及びタッチセンサを備える。LCDは、各種画像を表示し、タッチセンサは、指、スタイラス、又はペン等の指示体を用いて行われる各種入力操作を受け付ける。
(1-2. Configuration of mobile terminal 10)
As shown in FIG. 2, the housing 12 of the mobile terminal 10 is equipped with a touch panel display 14, which is an image display means for displaying an image on a screen, on the front surface 12A. The touch panel display 14 includes, for example, an LCD (Liquid Crystal Display) and a touch sensor. The LCD displays various images, and the touch sensor accepts various input operations performed using a pointing object such as a finger, stylus, or pen.
また、携帯端末10の正面12Aには、音が入力されるマイクロフォン16、音を出力するスピーカ18、及び被写体を撮像するカメラ20が備えられる。カメラ20は、筐体12の正面12Aだけでなく筐体12の背面にも備えられる。さらに、筐体12の側面12Bには、携帯端末10を起動又は停止させるための電源ボタンやスピーカ18が出力する音のボリューム調整ボタン等の操作ボタン22が備えられる。 Further, the front surface 12A of the mobile terminal 10 is equipped with a microphone 16 for inputting sound, a speaker 18 for outputting sound, and a camera 20 for capturing an image of a subject. The camera 20 is provided not only on the front side 12A of the housing 12 but also on the back side of the housing 12. Furthermore, the side surface 12B of the housing 12 is provided with operation buttons 22 such as a power button for starting or stopping the mobile terminal 10 and a volume adjustment button for the sound output from the speaker 18.
また、携帯端末10の筐体12には、メモリカードが挿入されるスロットやUSB(Universal Serial Bus)端子等が備えられる。 Furthermore, the housing 12 of the mobile terminal 10 is provided with a slot into which a memory card is inserted, a USB (Universal Serial Bus) terminal, and the like.
図3は、携帯端末10の電気的構成を示す機能ブロック図である。 FIG. 3 is a functional block diagram showing the electrical configuration of the mobile terminal 10.
携帯端末10は、上記構成に加え、制御部24、記憶部26、通信部28を備える。 In addition to the above configuration, the mobile terminal 10 includes a control section 24, a storage section 26, and a communication section 28.
制御部24は、例えば、CPU(Central Processing Unit)、マイクロプロセッサ、DSP(Digital Signal Processor)等であり、携帯端末10の全体の動作を制御する。 The control unit 24 is, for example, a CPU (Central Processing Unit), a microprocessor, a DSP (Digital Signal Processor), etc., and controls the overall operation of the mobile terminal 10.
記憶部26は、例えば、RAM(Random Access Memory)やDRAM(Dynamic Random Access Memory)等を含み、制御部24による各種プログラムに基づく処理の実行時のワークエリア等として用いられる。 The storage unit 26 includes, for example, a RAM (Random Access Memory), a DRAM (Dynamic Random Access Memory), and the like, and is used as a work area or the like when the control unit 24 executes processing based on various programs.
記憶部26は、さらに、フラッシュメモリ等の不揮発性メモリを含み、画像等の各種データ及び制御部24の処理に利用されるプログラム等を保存する。記憶部26に記憶されるプログラムは、例えば、携帯端末10の基本的な機能を実現するためのOS(Operating System)、各種ハードウェア制御するためのドライバ、電子メールやウェブブラウジング、その他各種機能を実現するためのアプリケーションプログラム等である。また、記憶部26には、詳細を後述する本実施形態に係る判定方法を実行するためのプログラムが予め記憶されている。 The storage unit 26 further includes a nonvolatile memory such as a flash memory, and stores various data such as images and programs used for processing by the control unit 24. The programs stored in the storage unit 26 include, for example, an OS (Operating System) for realizing the basic functions of the mobile terminal 10, drivers for controlling various hardware, e-mail and web browsing, and various other functions. These are application programs, etc. to realize this. Further, the storage unit 26 stores in advance a program for executing a determination method according to the present embodiment, the details of which will be described later.
通信部28は、例えばNIC(Network Interface Controller)であり、携帯電話網等の通信網に接続する機能を有する。なお、通信部28は、NICに代えて又はNICと共に、無線LAN(Local Area Network)に接続する機能、無線WAN(Wide Area Network)に接続する機能、例えばBluetooth(登録商標)等の近距離の無線通信、及び赤外線通信等を可能とする機能を有してもよい。 The communication unit 28 is, for example, a NIC (Network Interface Controller), and has a function of connecting to a communication network such as a mobile phone network. Note that the communication unit 28 has a function of connecting to a wireless LAN (Local Area Network), a function of connecting to a wireless WAN (Wide Area Network), instead of or together with the NIC, and has a short-range communication function such as Bluetooth (registered trademark). It may also have functions that enable wireless communication, infrared communication, and the like.
これら制御部24、記憶部26、通信部28、タッチパネルディスプレイ14、マイクロフォン16、スピーカ18、カメラ20、及び操作ボタン22は、システムバス30を介して相互に電気的に接続されている。従って、制御部24は、記憶部26へのアクセス、タッチパネルディスプレイ14に対する画像の表示、ユーザーによるタッチパネルディスプレイ14や操作ボタン22に対する操作状態の把握、マイクロフォン16への音の入力、スピーカ18からの音の出力、カメラ20に対する制御、及び通信部28を介した各種通信網や他の情報処理装置へのアクセス等を行うことができる。 These control section 24, storage section 26, communication section 28, touch panel display 14, microphone 16, speaker 18, camera 20, and operation button 22 are electrically connected to each other via a system bus 30. Therefore, the control unit 24 accesses the storage unit 26, displays images on the touch panel display 14, grasps the state of operation of the touch panel display 14 and operation buttons 22 by the user, inputs sound to the microphone 16, and outputs sounds from the speaker 18. output, control over the camera 20, and access to various communication networks and other information processing devices via the communication unit 28.
(1-3.機能ブロック図)
図4は、本実施形態に係る判定機能に関する機能ブロック図である。
(1-3. Functional block diagram)
FIG. 4 is a functional block diagram regarding the determination function according to this embodiment.
図4に示すように、制御部24は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を含む。 As shown in FIG. 4, the control section 24 includes an imaging section 31, a region specifying section 32, an image area setting section 33, and a stillness determining section 34.
撮影部31は、ユーザーUの動作を撮影して複数のフレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、静止判定の対象となるユーザーUの所定の部位を特定する。 The photographing unit 31 photographs the motion of the user U and obtains photographed data including a plurality of frames. The region identifying unit 32 identifies a predetermined region of the user U that is a target of stillness determination in the acquired imaging data.
画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて、特定された所定の部位が静止しているか否かを判定する。 The image area setting unit 33 sets an image area associated with the specified predetermined part. The stillness determination unit 34 determines whether the specified predetermined region is still or not based on the difference between frames of the image area.
上述した制御部24が備える各機能構成は、記憶部26に記憶されているコンピュータプログラムによって実現される。また、コンピュータプログラムは、コンピュータ読み取り可能な非一時的な記録媒体に格納し、必要に応じて当該記録媒体から読み出してもよい。 Each functional configuration of the control section 24 described above is realized by a computer program stored in the storage section 26. Further, the computer program may be stored in a computer-readable non-transitory recording medium and read from the recording medium as necessary.
(1-4.判定処理の流れ)
図5を参照し、判定システム1を用いた静止判定の処理の流れを詳細に説明する。
(1-4. Flow of judgment processing)
Referring to FIG. 5, the flow of the stillness determination process using the determination system 1 will be described in detail.
ステップS110において、撮影部31は、ユーザーUの動作を撮影する。ここで、当該撮影がNフレーム/秒でT秒間行われた場合、撮影データに含まれるフレーム数Mは、N×Tで算出される。N,Tは正の実数であり、Mは自然数である。各フレームには静止画像が含まれる。Nは例えば60であり、Tは例えば5である。この場合、撮影データには、300枚(M=60×5=300)の静止画像が含まれることとなる。 In step S110, the photographing unit 31 photographs the user U's movements. Here, if the photographing is performed for T seconds at N frames/second, the number M of frames included in the photographic data is calculated as N×T. N and T are positive real numbers, and M is a natural number. Each frame contains a still image. N is, for example, 60, and T is, for example, 5. In this case, the photographic data includes 300 still images (M=60×5=300).
ステップS120において、部位特定部32は、取得された撮影データについて、静止判定の対象となるユーザーUの部位の特定を行う。この特定は、一例として、撮影データを構成する各静止画像に対する二次元姿勢推定による姿勢モデルに基づいて行うことができる。 In step S120, the region specifying unit 32 specifies the region of the user U that is the object of the stillness determination in the acquired imaging data. This identification can be performed, for example, based on a posture model based on two-dimensional posture estimation for each still image that constitutes the photographic data.
二次元姿勢推定では、例えば深層学習を用いたアルゴリズムによって、静止画像中のユーザーUの複数の特徴点の座標を推定することで、ユーザーUの姿勢を二次元的に推定することができる。さらに、複数の静止画像に対して二次元姿勢推定することで、ユーザーUの骨格の動きを計測することも可能となる。 In two-dimensional posture estimation, the posture of the user U can be estimated two-dimensionally by estimating the coordinates of a plurality of feature points of the user U in a still image using, for example, an algorithm using deep learning. Furthermore, by estimating the two-dimensional posture of a plurality of still images, it is also possible to measure the movement of the user's U skeleton.
図6に、複数の特徴点の配置例を示す。図6は、ユーザーUが右足で片足立ちをしている場合の画像を例示している。ここで、特徴点0~14は、それぞれ、頭(0)、首(1)、右肩(2)、右肘(3)、右手(4)、左肩(5)、左肘(6)、左手(7)、腰(8)、右股関節(9)、右膝(10)、右足首(11)、左股関節(12)、左膝(13)、左足首(14)に対応する。 FIG. 6 shows an example of arrangement of a plurality of feature points. FIG. 6 illustrates an example of an image in which the user U is standing on one leg with his right foot. Here, feature points 0 to 14 are head (0), neck (1), right shoulder (2), right elbow (3), right hand (4), left shoulder (5), left elbow (6), They correspond to the left hand (7), waist (8), right hip joint (9), right knee (10), right ankle (11), left hip joint (12), left knee (13), and left ankle (14).
このように、二次元姿勢推定によって各静止画像においてユーザーUの特徴点0~14の座標を取得すると、これらの座標に基づいて、ユーザーの姿勢を推定することができる。なお、特徴点の数や配置は、本実施形態のものに限定されず、適宜変更可能である。 In this way, when the coordinates of the feature points 0 to 14 of the user U are obtained in each still image by two-dimensional pose estimation, the user's pose can be estimated based on these coordinates. Note that the number and arrangement of feature points are not limited to those in this embodiment, and can be changed as appropriate.
このように、各撮影データを構成する各静止画像について二次元姿勢推定で得られた複数の特徴点の座標を、計測データとして取得することができる。ここで、撮影データがMフレームで構成される場合、その撮影データに対応する計測データもMフレームで構成される。 In this way, the coordinates of a plurality of feature points obtained by two-dimensional pose estimation for each still image constituting each photographic data can be acquired as measurement data. Here, when the photographic data is composed of M frames, the measurement data corresponding to the photographic data is also composed of M frames.
部位特定部32は、取得した計測データ(すなわち、複数の特徴点の座標)に基づいて、ユーザーUの身体における所定の部位を特定する。ここで、部位特定部32は、ユーザーUの動作に応じて、特定すべき部位を変更してもよい。この場合、部位特定部32は、全ての特徴点について計測データを取得する必要はなく、ユーザーUが行う動作毎に特定すべき部位のみについて計測データの取得を行ってもよい。 The part specifying unit 32 specifies a predetermined part in the body of the user U based on the acquired measurement data (that is, the coordinates of the plurality of feature points). Here, the region identification unit 32 may change the region to be identified depending on the user's U motion. In this case, the region identifying unit 32 does not need to acquire measurement data for all feature points, and may acquire measurement data only for the region that should be identified for each action performed by the user U.
ステップS130において、画像領域設定部33は、特定された所定の部位に対応づけられる画像領域Dを設定する。画像領域Dの設定にあたり、ユーザーUの動作ごとに対応する特徴点が記憶部26に記憶されている。一例として、図7に示す右足で片足立ちをする動作については、上半身の部位である1~7の特徴点が所定の部位として対応づけられている。そこで、画像領域設定部33は、記憶部26を参照し、特徴点1~7を含む画像を画像領域Dとして設定する。また、画像領域設定部33は、例えば、特定すべき部位が上半身である場合、特徴点8(腰)よりも上側の画像を画像領域Dとして設定してもよい。 In step S130, the image area setting unit 33 sets an image area D associated with the specified predetermined part. When setting the image area D, feature points corresponding to each movement of the user U are stored in the storage unit 26. As an example, for the action of standing on one leg with the right foot shown in FIG. 7, feature points 1 to 7, which are upper body parts, are associated as predetermined parts. Therefore, the image area setting unit 33 refers to the storage unit 26 and sets the image including the feature points 1 to 7 as the image area D. Further, the image area setting unit 33 may set the image above the feature point 8 (waist) as the image area D, for example, when the region to be specified is the upper body.
また、図8に示す他の例では、ユーザーUが左腕を伸ばした場合が例示されている。このような場合に、左腕の位置を特徴点5~7の座標位置から推定するために、特徴点5~7を含む画像を画像領域Dとして設定してもよい。 In another example shown in FIG. 8, a case is illustrated in which the user U extends his left arm. In such a case, an image including the feature points 5 to 7 may be set as the image region D in order to estimate the position of the left arm from the coordinate positions of the feature points 5 to 7.
ステップS140において、静止判定部34は、画像領域のフレーム間の差分に基づいて、特定された所定の部位が静止しているか否かを判定する。具体的には、静止判定部34は、取得された撮影データにおける連続する3つのフレームについて、画像領域に含まれる各ピクセルに対する階調値の差分を算出し、特定された所定の部位が静止しているか否かを判定する。 In step S140, the stillness determination unit 34 determines whether the specified predetermined region is still or not based on the difference between frames of the image area. Specifically, the stillness determination unit 34 calculates the difference in gradation values for each pixel included in the image area for three consecutive frames in the acquired imaging data, and determines whether the specified predetermined region is still. Determine whether or not the
以下、図9を参照して具体的に説明する。図9には、取得された撮影データから選出された3つの連続する画像G1~G3が示されている。なお、当該撮影データは、300枚の静止画像(M=300)で構成されているとし、始点フレームF1から終点フレームF300で構成される。画像G1~G3は、それぞれ、フレームFn~Fn+2(1≦n≦298)に対応する。 A detailed explanation will be given below with reference to FIG. 9. FIG. 9 shows three consecutive images G1 to G3 selected from the acquired photographic data. It is assumed that the photographic data is composed of 300 still images (M=300), and is composed of a starting point frame F1 to an ending point frame F300. Images G1 to G3 correspond to frames Fn to Fn+2 (1≦n≦298), respectively.
画像G1~G3は、それぞれ、画像領域設定部33によって設定された画像領域D1~D3を含む。ここで、画像領域D1~D3は、複数のピクセルごとに0~255までの階調値を有する。すなわち、以下の(式1)~(式3)で表すことができる。 Images G1 to G3 each include image areas D1 to D3 set by image area setting section 33. Here, the image regions D1 to D3 have tone values ranging from 0 to 255 for each of a plurality of pixels. That is, it can be expressed by the following (Formula 1) to (Formula 3).
ここで、D1(i,j)は、画像領域D1に含まれる各ピクセルを意味する。演算子「∋」は、取りうる値を意味する。静止判定部34は、フレームが連続する画像領域ごとの差分の絶対値を差分画像F12,F23として算出する。 Here, D1(i,j) means each pixel included in the image area D1. The operator "∋" means possible values. The stillness determination unit 34 calculates the absolute value of the difference between each image area where frames are continuous as difference images F12 and F23.
次に、静止判定部34は、差分画像F12およびF23に対して、論理積を計算して論理積画像Faを算出する。 Next, the stillness determination unit 34 calculates a logical product image Fa by calculating a logical product of the difference images F12 and F23.
ここで、演算子「∩」は、積集合を意味する。次に、静止判定部34は、任意の閾値Tと比較することにより二値化処理を行い、二値化された差分画像Ftを算出する。 Here, the operator "∩" means an intersection set. Next, the stillness determination unit 34 performs a binarization process by comparing it with an arbitrary threshold value T, and calculates a binarized difference image Ft.
上記処理により、画像領域D1~D3において、静止していると判定された部分(ピクセル)は階調値が255となり、静止していないと判定されたピクセルは階調値が0となる。なお、閾値Tは、静止判定において求める精度に応じて適宜設定すればよい。 Through the above processing, in the image regions D1 to D3, portions (pixels) determined to be stationary have a gradation value of 255, and pixels determined not to be stationary have a gradation value of 0. Note that the threshold value T may be appropriately set according to the accuracy required in the stationary determination.
次に、差分画像Ftにおけるピクセル値の総和Fを算出し、静止判定の判定値Fvを算出する。 Next, a total sum F of pixel values in the difference image Ft is calculated, and a determination value Fv for determining the stationary state is calculated.
以上のようにして、フレームFn~Fn+2(1≦n≦298)について、複数(本実施形態では298個)の判定値Fvが求まる。この判定値Fvに対して、所定の統計処理を行い、予め定められた閾値と比較することにより、静止判定が行われる。ここでの統計処理とは、例えば、単純和、加重和、又はこれに基づく値(単純平均、加重平均)などの統計的に求まる値を算出する処理である。 As described above, a plurality of (298 in this embodiment) determination values Fv are determined for frames Fn to Fn+2 (1≦n≦298). A stationary determination is made by performing predetermined statistical processing on this determination value Fv and comparing it with a predetermined threshold. The statistical processing here is, for example, processing for calculating a statistically determined value such as a simple sum, a weighted sum, or a value based on this (simple average, weighted average).
以上のようにして、本実施形態に係る判定システム1は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を備える。撮影部31は、ユーザーの動作を撮影して複数フレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、ユーザーの身体における所定の部位を特定する。 As described above, the determination system 1 according to the present embodiment includes the imaging section 31, the region specifying section 32, the image area setting section 33, and the stillness determining section 34. The photographing unit 31 photographs the user's movements and acquires photographic data including a plurality of frames. The region identification unit 32 identifies a predetermined region of the user's body based on the acquired imaging data.
画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて所定の部位が静止しているか否かを判定する。 The image area setting unit 33 sets an image area associated with the specified predetermined part. The stillness determination unit 34 determines whether a predetermined region is still or not based on the difference between frames in the image area.
このような構成とすることにより、ユーザーの身体の特定の部位について、検出時のブレなどの影響を抑制することができ、静止判定を安定的に行うことが可能となる。 With such a configuration, it is possible to suppress the effects of blurring and the like upon detection of a specific part of the user's body, and it is possible to stably perform a stationary determination.
<2.第2実施形態>
図10を参照し、第2実施形態に係る判定システム1について説明する。第2実施形態に係る判定システム1は、携帯端末10としての親機10aおよび子機10bを含む点で第1実施形態と異なる。以下、第1実施形態との相違点を中心に説明する。
<2. Second embodiment>
Referring to FIG. 10, a determination system 1 according to the second embodiment will be described. The determination system 1 according to the second embodiment differs from the first embodiment in that it includes a base device 10a and a slave device 10b as the mobile terminal 10. Hereinafter, differences from the first embodiment will be mainly explained.
図10に示すように、本実施形態においては、ユーザーUの右側、左側、後側に子機10bが配置される。子機10bは、親機10aと同様に、携帯端末10で構成される。親機10aと子機10bは、通信部28を通じて通信可能に構成されている。子機10bは、撮影部31として機能し、複数の方向からユーザーUの動作を撮影し、撮影データを複数取得する。 As shown in FIG. 10, in this embodiment, the handset 10b is arranged on the right side, left side, and rear side of the user U. The slave device 10b is configured with a mobile terminal 10, similarly to the base device 10a. The base unit 10a and the slave unit 10b are configured to be able to communicate through the communication unit 28. The handset 10b functions as a photographing unit 31, photographs the movements of the user U from a plurality of directions, and acquires a plurality of photographic data.
子機10bで取得された撮影データは、親機10aに対して送信される。親機10aの部位特定部32は、取得された複数の撮影データに対してそれぞれ所定の部位を特定する。 The photographic data acquired by the slave unit 10b is transmitted to the base unit 10a. The region identifying unit 32 of the base device 10a identifies a predetermined region for each of the plurality of acquired photographic data.
静止判定部34は、複数の方向から取得された撮影データに対して、ユーザーUに対する撮影方向に基づく重み付けを設定する。静止判定部34は、画像領域設定部33によって設定された画像領域のフレーム間の差分と、当該重み付けとに基づいて、ユーザーの所定の部位が静止しているか否かを判定する。 The stillness determination unit 34 sets weighting based on the shooting direction for the user U, for shooting data acquired from a plurality of directions. The stillness determination unit 34 determines whether a predetermined part of the user is stationary based on the difference between frames of the image area set by the image area setting unit 33 and the weighting.
このような構成とすることにより、複数の撮影データに基づいてユーザーの身体が静止しているか否かを解析することとなり、より安定的に静止判定を行うことができる。 With such a configuration, whether or not the user's body is stationary is analyzed based on a plurality of photographic data, and it is possible to more stably determine whether the user's body is stationary.
ここで、好ましくは、静止判定部34は、撮影するユーザーUの動作に応じて、撮影方向に基づく重み付けを設定してもよい。撮影方向に基づく重み付けは、特定された所定の部位に対応づけられて設定される。すなわち、ユーザーUの動作において、所定の部位ごとに動きが検知されやすい方向からの撮影データについて、重み付けを大きく設定することなどが考えられる。 Here, preferably, the stillness determining unit 34 may set weighting based on the photographing direction according to the motion of the user U who photographs. Weighting based on the imaging direction is set in association with the identified predetermined region. That is, in the movement of the user U, it is conceivable to set a large weight for photographic data taken from a direction in which movement is likely to be detected for each predetermined region.
このような構成とすることにより、ユーザーの動作に応じて撮影方向に基づく重み付けを変化させることが可能となり、より安定的に静止判定を行うことができる。 With such a configuration, it is possible to change the weighting based on the shooting direction according to the user's motion, and it is possible to more stably perform a stillness determination.
<3.その他の実施形態>
以上、実施形態について説明したが、本願の技術的範囲の適用範囲は、上記実施形態に限定されるものではない。
<3. Other embodiments>
Although the embodiments have been described above, the technical scope of the present application is not limited to the above embodiments.
たとえば、静止判定部34は、取得した撮影データに含まれる連続したLフレームの中から、静止判定の判定値に基づいて選択された3つのフレームを判定対象フレームとして選出する仕様としてもよい。 For example, the stillness determination unit 34 may be configured to select three frames selected based on the determination value of the stillness determination as determination target frames from among consecutive L frames included in the acquired photographic data.
この場合、静止判定部34は、たとえば、始点となるフレームが異なるP通りの連続する3つのフレーム(L=3)について静止判定の判定値を算出する。ここで、Pは自然数である。静止判定部34は、P通りの判定値をユーザーUの動きが小さい順に並べたときの順位がQ位以内であることであるフレームを判定対象フレームとして選出してもよい。なお、Lは3以外の値とすることもできる。 In this case, the stillness determination unit 34 calculates the determination value for the stillness determination for P consecutive three frames (L=3) having different starting points, for example. Here, P is a natural number. The stillness determination unit 34 may select frames whose ranking is within Q rank when the P determination values are arranged in descending order of the movement of the user U as the determination target frame. Note that L can also be set to a value other than 3.
例えば、P=90で、Q=10であれば、90通りの判定値Fvの中から値が小さい10個の判定値Fvを選出する。また、P=90で、Q=1であり、フレームF121から始まる連続する3つのフレーム(つまり、フレームF121~F123)の判定値Fvが最小であれば、フレームF121~F123が判定対象フレームとなる。なお、フレームF0を始点とする連続する3つのフレームについて判定値Fvを算出してもよいが、撮像開始直後のデータは信頼性が低い。つまり、計測データのうち最初の複数のフレームを除外して判定対象フレームを特定することによって判定の信頼性を高めてもよい。 For example, if P=90 and Q=10, 10 determination values Fv with the smallest values are selected from 90 determination values Fv. Furthermore, if P=90, Q=1, and the judgment value Fv of three consecutive frames starting from frame F121 (that is, frames F121 to F123) is the minimum, frames F121 to F123 become the judgment target frames. . Note that the determination value Fv may be calculated for three consecutive frames starting from frame F0, but the reliability of data immediately after the start of imaging is low. That is, the reliability of the determination may be increased by excluding the first plurality of frames from the measurement data and specifying the determination target frame.
また、第2実施形態のように複数の方向から撮影する場合の評価対象フレームの選出にあたっては、重み付けが最も大きい撮影方向からの撮影データから、静止判定の判定値Fvを算出して判定対象フレームを選出してもよい。この場合、選出された判定対象フレームに対応する他の撮影方向のフレームの判定値Fvを算出し、各方向の判定値Fvに撮影方向に基づく重み付けを考慮して静止判定を行うこととなる。 In addition, when selecting evaluation target frames when photographing from multiple directions as in the second embodiment, a determination value Fv for still determination is calculated from photographic data from the photographing direction with the highest weighting, and the determination target frame is may be selected. In this case, the determination value Fv of the frame in the other photographing direction corresponding to the selected determination target frame is calculated, and the stillness determination is performed by considering weighting based on the photographing direction to the determination value Fv in each direction.
また、上記実施形態では、スマートフォンやタブレットなどの携帯端末10を用いて判定システム1を構成しているが、判定システム1を構成している装置の少なくとも1つは、通信可能で且つ撮影機能を有する任意の装置(例:Webカメラ)であってもよい。 Further, in the above embodiment, the determination system 1 is configured using a mobile terminal 10 such as a smartphone or a tablet, but at least one of the devices configuring the determination system 1 is capable of communication and has a shooting function. It may be any device (e.g. a web camera) that has a
さらに、本発明は、上述の判定システムを実現させるための携帯端末を機能させるプログラムとして実現することもできる。 Furthermore, the present invention can also be realized as a program that causes a mobile terminal to function in order to realize the above-described determination system.
さらに、本発明は、上述のプログラムを格納する、コンピュータが読み取り可能な非一時的な記録媒体として実現することもできる。 Furthermore, the present invention can also be realized as a computer-readable non-transitory recording medium that stores the above-mentioned program.
<4.実施形態の特徴>
以下、本発明の実施形態の特徴をまとめる。
<4. Features of embodiment>
The features of the embodiments of the present invention are summarized below.
判定システム1は、撮影部31と、部位特定部32と、画像領域設定部33と、静止判定部34を備える。撮影部31は、ユーザーの動作を撮影して複数フレームを含む撮影データを取得する。部位特定部32は、取得された撮影データについて、ユーザーの身体における所定の部位を特定する。画像領域設定部33は、特定された所定の部位に対応づけられる画像領域を設定する。静止判定部34は、画像領域のフレーム間の差分に基づいて所定の部位が静止しているか否かを判定する。 The determination system 1 includes an imaging section 31 , a region specifying section 32 , an image area setting section 33 , and a stillness determining section 34 . The photographing unit 31 photographs the user's movements and acquires photographic data including a plurality of frames. The region identification unit 32 identifies a predetermined region of the user's body based on the acquired imaging data. The image area setting unit 33 sets an image area associated with the specified predetermined part. The stillness determination unit 34 determines whether a predetermined region is still or not based on the difference between frames in the image area.
このような構成とすることにより、ユーザーの身体の特定の部位について、検出時のブレなどの影響を抑制することができ、静止判定を安定的に行うことが可能となる。 With such a configuration, it is possible to suppress the effects of blurring and the like upon detection of a specific part of the user's body, and it is possible to stably perform a stationary determination.
判定システム1の備える部位特定部32は、撮影データから推定される姿勢モデルに基づいて、ユーザーUの身体における所定の部位を特定してもよい。 The region identification unit 32 included in the determination system 1 may identify a predetermined region of the user U's body based on the posture model estimated from the imaging data.
このような構成とすることにより、ユーザーの身体における部位の特定を安定的に実現することができる。 With such a configuration, it is possible to stably identify a part of the user's body.
部位特定部32は、ユーザーUの動作に基づいて所定の部位を特定してもよい。 The region identification unit 32 may identify a predetermined region based on user U's motion.
このような構成とすることにより、動作ごとに特定する部位を設定することとなり、より安定的に部位の特定を行うことができる。 With such a configuration, a region to be specified is set for each movement, and the region can be specified more stably.
撮影データの複数フレームは、Mフレームで構成され、静止判定部34は、撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて所定の部位の静止度合いについての判定値Fvを算出し、P通りの判定値Fvを所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された所定の部位が静止しているか否かを判定してもよい。 The plurality of frames of photographic data is composed of M frames, and the stillness determination unit 34 determines a predetermined value based on the difference between the frames for P consecutive L frames having different starting points from among the photographic data. The determination value Fv regarding the degree of stillness of the part is calculated, and the specified predetermined value is determined based on the L frames that rank within Q when the P different determination values Fv are arranged in descending order of movement of the predetermined part. It may also be determined whether the region is stationary.
このような構成とすることにより、静止判定の対象を絞り込むこととなり、より安定的に静止判定を行うことができる。 With such a configuration, the targets for the stillness determination can be narrowed down, and the stillness determination can be performed more stably.
撮影部31は、複数の方向から前記ユーザーの動作を撮影して撮影データを複数取得し、部位特定部32は、取得された前記複数の撮影データに対してそれぞれ前記所定の部位を特定してもよい。 The photographing unit 31 acquires a plurality of pieces of photographic data by photographing the user's movements from a plurality of directions, and the part specifying unit 32 specifies each of the predetermined parts from the plurality of acquired photographic data. Good too.
このような構成とすることにより、複数の撮影データを解析することとなり、より安定的に静止判定を行うことができる。 With such a configuration, a plurality of pieces of photographic data are analyzed, and a stillness determination can be made more stably.
静止判定部34は、複数の撮影データに対して、ユーザーUに対する撮影方向に基づく重み付けを設定し、画像領域のフレーム間の差分と、撮影データの重み付けとに基づいて、所定の部位が静止しているか否かを判定してもよい。 The stillness determining unit 34 sets weighting for the plurality of pieces of photographic data based on the photographing direction with respect to the user U, and determines whether a predetermined region is stationary based on the difference between frames in the image area and the weighting of the photographic data. It may also be determined whether the
このような構成とすることにより、複数のデータに対して撮影方向での重み付けを行うこととなり、より安定的に静止判定を行うことができる。 With such a configuration, a plurality of pieces of data are weighted in the photographing direction, and a stillness determination can be performed more stably.
静止判定部34は、ユーザーUの動作に応じて、撮影方向に基づく重み付けを設定してもよい。 The stillness determination unit 34 may set weighting based on the shooting direction depending on the user's U movement.
このような構成とすることにより、動作に応じて撮影方向の重み付けを変化させることとなり、より安定的に静止判定を行うことができる。 With such a configuration, the weighting of the photographing direction is changed according to the movement, and it is possible to more stably determine whether the object is still.
本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although various embodiments of the invention have been described, these are presented as examples and are not intended to limit the scope of the invention. The new embodiment can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. The embodiment and its modifications are included within the scope and gist of the invention, and are included within the scope of the invention described in the claims and its equivalents.
1 :判定システム
10 :携帯端末
10a :親機
10b :子機
11 :特徴点
12 :筐体
12A :正面
12B :側面
13 :特徴点
14 :タッチパネルディスプレイ
16 :マイクロフォン
18 :スピーカ
20 :カメラ
22 :操作ボタン
24 :制御部
26 :記憶部
28 :通信部
30 :システムバス
31 :撮影部
32 :部位特定部
33 :画像領域設定部
34 :静止判定部
U :ユーザー
1: Judgment system 10: Mobile terminal 10a: Base unit 10b: Child unit 11: Feature points 12: Housing 12A: Front 12B: Side 13: Feature points 14: Touch panel display 16: Microphone 18: Speaker 20: Camera 22: Operation Button 24: Control unit 26: Storage unit 28: Communication unit 30: System bus 31: Imaging unit 32: Part identification unit 33: Image area setting unit 34: Stillness determination unit U: User
Claims (8)
撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、
前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、
前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体において手と手以外とを含む複数の特徴点のうち前記撮影データに基づく複数の特徴点に対応づけられている所定の部位を特定し、
前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、
前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、システム。 A system that determines whether a user's body is stationary,
Comprising an imaging section, a region specifying section, an image area setting section, and a stillness determination section,
The photographing unit photographs the user's movements and obtains photographic data including a plurality of frames;
The part specifying unit is configured to determine, with respect to the acquired imaging data, a predetermined portion of the user's body that is associated with a plurality of feature points based on the imaging data, among a plurality of feature points including a hand and a part other than the hand. identify the part of
The image area setting unit sets an image area associated with the identified predetermined part,
The stillness determination unit determines whether or not the predetermined region is still based on a difference between frames of the image area.
撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、Comprising an imaging section, a region specifying section, an image area setting section, and a stillness determination section,
前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、The photographing unit photographs the user's movements and obtains photographic data including a plurality of frames;
前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、The part identifying unit identifies a predetermined part of the user's body with respect to the acquired imaging data,
前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、The image area setting unit sets an image area associated with the identified predetermined part,
前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定し、The stationary determination unit determines whether the predetermined part is stationary based on a difference between frames of the image area,
前記部位特定部は、前記撮影データから推定される姿勢モデルに基づいて、前記所定の部位を特定する、システム。The system, wherein the region identifying unit identifies the predetermined region based on a posture model estimated from the imaging data.
撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、Comprising an imaging section, a region specifying section, an image area setting section, and a stillness determination section,
前記撮影部は、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、The photographing unit photographs the user's movements and obtains photographic data including a plurality of frames;
前記部位特定部は、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、The part identifying unit identifies a predetermined part of the user's body with respect to the acquired imaging data,
前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、The image area setting unit sets an image area associated with the identified predetermined part,
前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定し、The stationary determination unit determines whether the predetermined part is stationary based on a difference between frames of the image area,
前記撮影データの複数フレームは、Mフレームで構成され、The plurality of frames of the photographic data is composed of M frames,
前記静止判定部は、The stationary determination unit includes:
前記撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて前記所定の部位の静止度合いについての判定値を算出し、Calculating a determination value regarding the degree of stillness of the predetermined region based on the difference between frames for P consecutive L frames having different starting points from the imaging data;
前記P通りの判定値を前記所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された前記所定の部位が静止しているか否かを判定する、システム。It is determined whether or not the specified predetermined part is stationary based on L frames whose ranking is within Q rank when the P judgment values are arranged in descending order of movement of the predetermined part. ,system.
撮影部と、部位特定部と、画像領域設定部と、静止判定部を備え、Comprising an imaging section, a region specifying section, an image area setting section, and a stillness determination section,
前記撮影部は、複数の方向から前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、The photographing unit photographs the user's movements from a plurality of directions to obtain photographic data including a plurality of frames;
前記部位特定部は、取得された前記撮影データに対してそれぞれ前記ユーザーの身体における所定の部位を特定し、The part identifying unit identifies a predetermined part of the user's body with respect to the acquired imaging data,
前記画像領域設定部は、特定された前記所定の部位に対応づけられる画像領域を設定し、The image area setting unit sets an image area associated with the identified predetermined part,
前記静止判定部は、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、システム。The stillness determination unit determines whether or not the predetermined region is still based on a difference between frames of the image area.
前記撮影ステップでは、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、
前記部位特定ステップでは、取得された前記撮影データについて、前記ユーザーの身体において手と手以外とを含む複数の特徴点のうち前記撮影データに基づく複数の特徴点に対応づけられている所定の部位を特定し、
前記画像領域設定ステップでは、特定された前記所定の部位に対応づけられる画像領域を設定し、
前記静止判定ステップでは、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、コンピュータプログラム。 A computer program for causing a computer to execute a method for determining whether a user's body is at rest, the method comprising: a photographing step, a region specifying step, an image area setting step, and a stillness determination step, the method comprising:
In the photographing step, photographing the user's movements and obtaining photographic data including a plurality of frames;
In the region identification step, for the acquired imaging data, a predetermined portion of the user's body that is associated with a plurality of feature points based on the imaging data, among a plurality of feature points including hands and areas other than the hands, is determined. identify the part of
In the image area setting step, an image area that is associated with the identified predetermined part is set;
In the stillness determining step, the computer program determines whether or not the predetermined region is still based on a difference between frames of the image area.
前記撮影ステップでは、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、In the photographing step, photographing the user's movements and obtaining photographic data including a plurality of frames;
前記部位特定ステップでは、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、In the region identifying step, a predetermined region on the user's body is identified with respect to the acquired imaging data,
前記画像領域設定ステップでは、特定された前記所定の部位に対応づけられる画像領域を設定し、In the image area setting step, an image area that is associated with the identified predetermined part is set;
前記静止判定ステップでは、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定し、 In the stationary determination step, it is determined whether the predetermined part is stationary based on a difference between frames of the image area,
前記部位特定ステップでは、前記撮影データから推定される姿勢モデルに基づいて、前記所定の部位を特定する、コンピュータプログラム。In the region specifying step, the computer program specifies the predetermined region based on a posture model estimated from the imaging data.
前記撮影ステップでは、前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、In the photographing step, photographing the user's movements and obtaining photographic data including a plurality of frames;
前記部位特定ステップでは、取得された前記撮影データについて、前記ユーザーの身体における所定の部位を特定し、In the region identifying step, a predetermined region on the user's body is identified with respect to the acquired imaging data,
前記画像領域設定ステップでは、特定された前記所定の部位に対応づけられる画像領域を設定し、In the image area setting step, an image area that is associated with the identified predetermined part is set;
前記静止判定ステップでは、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定し、 In the stationary determination step, it is determined whether the predetermined part is stationary based on a difference between frames of the image area,
前記撮影データの複数フレームは、Mフレームで構成され、The plurality of frames of the photographic data is composed of M frames,
前記静止判定ステップでは、In the stationary determination step,
前記撮影データの中から始点となるフレームが異なるP通りの連続するLフレームに対して、フレーム間の差分に基づいて前記所定の部位の静止度合いについての判定値を算出し、Calculating a determination value regarding the degree of stillness of the predetermined region based on the difference between frames for P consecutive L frames having different starting points from the imaging data;
前記P通りの判定値を前記所定の部位の動きが小さい順に並べたときの順位がQ位以内であるLフレームに基づいて、特定された前記所定の部位が静止しているか否かを判定する、コンピュータプログラム。It is determined whether or not the specified predetermined part is stationary based on L frames whose ranking is within Q rank when the P judgment values are arranged in descending order of movement of the predetermined part. , computer program.
前記撮影ステップでは、複数の方向から前記ユーザーの動作を撮影して複数フレームを含む撮影データを取得し、In the photographing step, the user's movements are photographed from a plurality of directions to obtain photographic data including a plurality of frames;
前記部位特定ステップでは、取得された前記撮影データに対してそれぞれ前記ユーザーの身体における所定の部位を特定し、In the region identification step, a predetermined region of the user's body is identified based on the acquired imaging data,
前記画像領域設定ステップでは、特定された前記所定の部位に対応づけられる画像領域を設定し、In the image area setting step, an image area that is associated with the identified predetermined part is set;
前記静止判定ステップでは、前記画像領域のフレーム間の差分に基づいて前記所定の部位が静止しているか否かを判定する、コンピュータプログラム。 In the stillness determining step, the computer program determines whether or not the predetermined region is still based on a difference between frames of the image area.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165678A JP7397282B2 (en) | 2019-09-11 | 2019-09-11 | Stationary determination system and computer program |
JP2023197608A JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165678A JP7397282B2 (en) | 2019-09-11 | 2019-09-11 | Stationary determination system and computer program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023197608A Division JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043730A JP2021043730A (en) | 2021-03-18 |
JP7397282B2 true JP7397282B2 (en) | 2023-12-13 |
Family
ID=74862403
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165678A Active JP7397282B2 (en) | 2019-09-11 | 2019-09-11 | Stationary determination system and computer program |
JP2023197608A Pending JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023197608A Pending JP2024015004A (en) | 2019-09-11 | 2023-11-21 | Stationary determining system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7397282B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001056861A (en) | 1999-06-08 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded |
JP2012098988A (en) | 2010-11-04 | 2012-05-24 | Sony Corp | Image processing apparatus and method, and program |
WO2012147961A1 (en) | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | Information processing device, information processing method, and recording medium |
JP2015170206A (en) | 2014-03-07 | 2015-09-28 | 富士通株式会社 | detection device and detection method |
-
2019
- 2019-09-11 JP JP2019165678A patent/JP7397282B2/en active Active
-
2023
- 2023-11-21 JP JP2023197608A patent/JP2024015004A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001056861A (en) | 1999-06-08 | 2001-02-27 | Matsushita Electric Ind Co Ltd | Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded |
JP2012098988A (en) | 2010-11-04 | 2012-05-24 | Sony Corp | Image processing apparatus and method, and program |
WO2012147961A1 (en) | 2011-04-28 | 2012-11-01 | Necシステムテクノロジー株式会社 | Information processing device, information processing method, and recording medium |
JP2015170206A (en) | 2014-03-07 | 2015-09-28 | 富士通株式会社 | detection device and detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2024015004A (en) | 2024-02-01 |
JP2021043730A (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102981603B (en) | Image processing apparatus and image processing method | |
US20200380594A1 (en) | Virtual try-on system, virtual try-on method, computer program product, and information processing device | |
KR20190044952A (en) | Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same | |
JP2012253483A (en) | Image processing apparatus, image processing method, and program | |
EP2894851B1 (en) | Image processing device, image processing method, program, and computer-readable storage medium | |
JP5613741B2 (en) | Image processing apparatus, method, and program | |
US20220198780A1 (en) | Information processing apparatus, information processing method, and program | |
JP6002058B2 (en) | Image processing apparatus, method, and program | |
JP6008025B2 (en) | Image processing apparatus, image processing method, and program | |
TW201909058A (en) | Activity support method, program, activity support system | |
JP2019058285A (en) | Activity support method, program, and activity support system | |
KR20220063847A (en) | Electronic device for identifying human gait pattern and method there of | |
CN110738548B (en) | Virtual fitting method and device, mobile terminal and computer readable storage medium | |
JP7397282B2 (en) | Stationary determination system and computer program | |
JP5876121B2 (en) | Image processing apparatus, method, and program | |
JP2020092944A (en) | User operation evaluation system and computer program | |
JPWO2020059716A1 (en) | Size measurement system | |
CN111797754B (en) | Image detection method, device, electronic equipment and medium | |
CN109727191B (en) | Image processing method and mobile terminal | |
JP2021092918A (en) | Image processing apparatus, image processing method, computer program, and storage medium | |
TWI819512B (en) | Information processing devices, information processing methods and information processing programs | |
JP7564481B2 (en) | Exercise menu determination system, program, and method | |
KR101643913B1 (en) | Information display position determining system according to the characteristic information of the user | |
JP7561357B2 (en) | Determination method, determination device, and determination system | |
JP2020092945A (en) | User operation evaluation system and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7397282 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |