JP7268121B2 - Information processing device, method and program - Google Patents
Information processing device, method and program Download PDFInfo
- Publication number
- JP7268121B2 JP7268121B2 JP2021190320A JP2021190320A JP7268121B2 JP 7268121 B2 JP7268121 B2 JP 7268121B2 JP 2021190320 A JP2021190320 A JP 2021190320A JP 2021190320 A JP2021190320 A JP 2021190320A JP 7268121 B2 JP7268121 B2 JP 7268121B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- motion
- motion data
- worker
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 36
- 238000000034 method Methods 0.000 title claims description 12
- 230000033001 locomotion Effects 0.000 claims description 318
- 230000006872 improvement Effects 0.000 claims description 103
- 230000009471 action Effects 0.000 claims description 79
- 230000014509 gene expression Effects 0.000 claims description 28
- 238000005259 measurement Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 22
- 230000003183 myoelectrical effect Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 6
- 230000001737 promoting effect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本実施形態は、情報処理装置、方法及びプログラムに関する。 The present embodiment relates to an information processing device, method, and program.
一般的に、製造現場において、作業員に必要技術を会得させるための訓練や教育、指導は、生産性を確保するために必要不可欠である。また、昨今の労働市場の流動化やグローバル化による海外工場展開や外国人の雇用等、激しい人員の入れ替わりにより、実務経験の浅い作業員をいかに早く育成し、現場に送り出せるかが重要になってきている。このため、作業員の育成を効率よく促進可能な技術が望まれている。 In general, at a manufacturing site, training, education, and instruction for workers to acquire necessary skills are essential to ensure productivity. In addition, due to the rapid turnover of personnel, such as the expansion of overseas factories and the employment of foreigners due to the recent fluidity and globalization of the labor market, it has become important how quickly workers with little practical experience can be trained and sent to the site. is coming. Therefore, there is a demand for a technology that can efficiently promote the training of workers.
本発明の実施形態が解決しようとする課題は、作業員の育成を促進可能な情報処理装置、方法及びプログラムを提供することである。 A problem to be solved by the embodiments of the present invention is to provide an information processing apparatus, method, and program capable of promoting training of workers.
実施形態に係る情報処理装置は、複数種別のセンサ装置と通信する。前記情報処理装置は、第1取得手段、第2取得手段、第3取得手段、推定手段、判定手段、提示手段、選択手段及び第2記憶手段を備える。前記第1取得手段は、第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得する。前記第2取得手段は、前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得する。前記第3取得手段は、前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得する。前記推定手段は、前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加する。前記判定手段は、前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定する。前記提示手段は、前記判定手段による判定の結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示する。前記選択手段は、前記判定手段による判定結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択する。前記第2記憶手段は、前記付随データと前記第2動作データと前記習熟度データとを関連付けて記憶する。前記判定手段は、前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとする。 An information processing device according to an embodiment communicates with multiple types of sensor devices. The information processing apparatus includes first acquisition means, second acquisition means, third acquisition means, estimation means, determination means, presentation means, selection means, and second storage means. The first acquisition means acquires, from each of the sensor devices, first motion data indicating a motion when the first worker performs a predetermined work, and also acquires the type of the sensor device, the measurement site, and the predetermined work. Accompanying data indicating at least the contents of the work are respectively obtained. The second acquisition means acquires, from each of the sensor devices, second motion data representing motions of a second worker who is more proficient than the first worker when performing the predetermined work, and obtains second motion data from each of the sensor devices. Get the data respectively. The third acquisition means acquires proficiency level data indicating a proficiency level of the first worker for the predetermined work. The estimating means analyzes each of the first motion data and each of the second motion data, and determines one or more types of motions by the first worker and the second worker indicated by the motion data. Estimation is performed, and estimation result data capable of identifying the type of the estimated motion is added to each motion data. The determination means compares each of the first motion data and each of the second motion data to determine similarity. The presenting means presents to the first worker instruction data indicating points to be improved regarding actions in performing a predetermined work according to the result of determination by the determining means. The selection means selects instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to a determination result by the determination means. The second storage means associates and stores the accompanying data, the second action data, and the proficiency level data. The determination means determines the second action data associated with the acquired proficiency level data and the accompanying data acquired together with the first action data based on the accompanying data and the proficiency level data. Acquired from the second storage means as a comparison target of the first motion data, and extracting from each of the first motion data and the second motion data, portions added with estimation result data indicating the same type of motion , comparing the motion data, detecting a difference between the first motion data and the second motion data, and a matching portion of the first motion data and the second motion data to determine the similarity of the motion data; The result of the determination is used as determination result data.
以下、図面を参照して実施形態を説明する。 Embodiments will be described below with reference to the drawings.
図1は、第1の実施形態に係る情報処理装置を含む動作改善促進システムの概略構成例を示す図である。図1に示す動作改善促進システムは、複数のセンサ装置11~14と、データ送受信機15と、情報処理装置16とを含んでいる。
FIG. 1 is a diagram showing a schematic configuration example of a motion improvement promotion system including an information processing device according to the first embodiment. The performance improvement promotion system shown in FIG. 1 includes a plurality of sensor devices 11 to 14, a data transmitter/
複数のセンサ装置11~14は、人(ユーザ)が所定の作業を行うときの動作に関する動作データを測定可能なセンサであり、例えば、加速度センサ、ジャイロセンサ、地磁気センサ及び筋電センサ等が一体化されたウェアラブルセンサ11~13や、圧力センサ14等が一例として挙げられる。これらセンサ装置11~14は、所定の作業を行う人や、その人が当該所定の作業を行うにあたって使用する工具等に取り付けられる。各センサ装置11~14によって測定される各種動作データは、動作データを測定したセンサの種別(センサ種別)とそのセンサが装着された部位(装着部位、測定部位)とを示す付随データと共に、データ送受信機15を介して、情報処理装置16に送信される。なお、付随データは、センサ装置11~14の装着時に、例えば装着者(ユーザ)によって設定される。
The plurality of sensor devices 11 to 14 are sensors capable of measuring motion data related to the motion of a person (user) when performing a predetermined task. Examples include the wearable sensors 11 to 13, the pressure sensor 14, and the like. These sensor devices 11 to 14 are attached to a person who performs a predetermined work or to a tool or the like used by the person to perform the predetermined work. Various motion data measured by each of the sensor devices 11 to 14 are data together with accompanying data indicating the type of sensor that measured the motion data (sensor type) and the site where the sensor was attached (mounted site, measurement site). It is transmitted to the
なお、センサ装置は、上記したウェアラブルセンサ11~13や圧力センサ14に限定されず、所定の作業を行う人の動作に関する動作データを測定可能なものであれば、任意の各種センサがセンサ装置として使用されても良い。例えば、所定の作業を行う人の動作の遷移を連続的に撮影可能な撮像装置(カメラ)が、さらなるセンサ装置として、又はセンサ装置11~14に代わるセンサ装置として使用されても良い。 In addition, the sensor device is not limited to the wearable sensors 11 to 13 and the pressure sensor 14 described above, and any various sensors can be used as the sensor device as long as they can measure motion data related to the motion of a person performing a predetermined work. May be used. For example, an imaging device (camera) capable of continuously photographing the transition of the motion of a person performing a predetermined task may be used as an additional sensor device or as a sensor device in place of the sensor devices 11-14.
本実施形態においては、各センサ装置11~14が、図1に示すように、所定の作業に対する習熟度が低い人(以下、「被験者」と表記する)ULと、当該所定の作業に対する習熟度が高い人(以下、「熟練者」と表記する)UHとの、右手(右腕)、左手(左腕)、腹部、被験者UL及び熟練者UHが使用する工具に取り付けられている場合を想定する。また、本実施形態においては、上記した所定の作業が「ネジ締め」である場合を想定する。但し、各センサ装置11~14の装着部位や所定の作業の内容は、上記した事項に限定されるものでない。 In this embodiment, as shown in FIG. 1, each of the sensor devices 11 to 14 is composed of a person UL who has a low proficiency level for a predetermined task (hereinafter referred to as a "subject") and a person UL who is proficient in the predetermined task. Right hand (right arm), left hand (left arm) , abdomen, test subject UL and expert UH with a highly skilled person (hereinafter referred to as "expert") UH assume. Further, in this embodiment, it is assumed that the above-described predetermined work is "screw tightening". However, the attachment sites of the sensor devices 11 to 14 and the contents of the predetermined work are not limited to those described above.
情報処理装置16は、データ送受信機15を介して、各センサ装置11~14によって測定された被験者の動作データ(以下、「被験者動作データ」と表記する)と、熟練者の動作データ(以下、「熟練者動作データ」と表記する)とを取得すると、被験者動作データ及び熟練者動作データに基づいて、所定の作業の習熟度を高めるためにすべき事項を判定・選択し、その結果を動作改善指示として被験者ULに提示する動作改善促進処理を実行する。なお、被験者動作データ及び熟練者動作データは、各センサ装置11~14によって測定された生の動作データであっても良いし、生の動作データに対して加工が施された動作データであっても良い。
The
図2は、情報処理装置16のハードウェア構成の一例を示すブロック図である。
FIG. 2 is a block diagram showing an example of the hardware configuration of the
情報処理装置16は、図2に示すように、CPU21、システムコントローラ22、主メモリ23、グラフィクスコントローラ24、BIOS-ROM25、不揮発性メモリ26、無線通信デバイス27、エンベデッドコントローラ(EC)28等を備え、例えば、パーソナルコンピュータ(PC)等がこれに該当する。なお、本実施形態では、情報処理装置16がPCである場合を想定して説明するが、これに限定されず、情報処理装置16は、タブレットコンピュータやスマートフォン、各種ウェアラブルデバイス等であっても良い。
As shown in FIG. 2, the
CPU21は、情報処理装置16内の各種モジュールの動作を制御するプロセッサである。CPU21は、不揮発性メモリ26から主メモリ23にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)や各種アプリケーションプログラムが含まれる。アプリケーションプログラムには、動作改善促進プログラムが含まれ、この動作改善促進プログラムが、CPU21によって実行されることで、上記した動作改善促進処理は実現される。
The
CPU21は、BIOS-ROM25に記憶された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ22は、CPU21のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ22には、主メモリ23をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ22は、PCI EXPRESS規格のシリアルバス等を介してグラフィクスコントローラ24との通信を行う機能も有している。
The
グラフィクスコントローラ24は、情報処理装置16に設けられるディスプレイモニタ(LCD)や、情報処理装置16に接続されるディスプレイモニタを制御する表示コントローラである。
The
無線通信デバイス27は、無線LANまたは3G・4G移動通信等の無線通信を実行するように構成されたデバイスである。EC28は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータであり、ユーザの操作に応じて情報処理装置16のパワーオン・パワーオフを行う機能を有している。
The
図3は、動作改善促進プログラムの機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the functional configuration of the performance improvement promotion program.
動作改善促進プログラムは、機能部として、被験者データ取得部101、熟練者データ取得部102、類似性判定部103、動作改善指示選択部104及び提示部105等を備える。以下では、各機能部101~105について詳しく説明すると共に、動作改善指示データベース201についても詳しく説明する。動作改善指示データベース201は、情報処理装置16内のストレージデバイス、情報処理装置16に外付けされたストレージデバイスまたはストレージサービス等を提供するクラウド上のサーバ装置、等によって構成される。
The motion improvement promotion program includes, as functional units, a subject
被験者データ取得部101は、被験者ULに装着されたセンサ装置11a~14aから被験者動作データと当該被験者動作データに付随する付随データとを取得する。より詳しくは、被験者データ取得部101は、被験者ULに装着されたセンサ装置11a~14aであることを示す識別データが付された被験者動作データと、当該被験者動作データに付随する付随データとを取得する。例えば、被験者ULの右手に筋電センサが装着されている場合、被験者データ取得部101は、被験者ULの右手に装着された筋電センサから、図4に示すような、右手の筋肉の活動量(筋電相対出力)の時系列データを被験者動作データとして取得する。
The subject
なお、ここでは、被験者ULの右手に筋電センサが装着されており、その筋電センサから被験者動作データと付随データが取得される場合について説明したが、被験者ULが装着しているその他のセンサ装置(例えば、左手及び腹部に装着された筋電センサや、被験者ULが使用する工具に取り付けられた圧力センサ等)からも同様に、被験者動作データと付随データは取得される。このとき、被験者データ取得部101は、各センサ装置11a~14aから被験者動作データを取得するタイミングを同期した上で、各センサ装置11a~14aから被験者動作データを取得する方が好ましい。
It should be noted that, here, a case where a myoelectric sensor is worn on the right hand of the subject UL , and the subject movement data and accompanying data are acquired from the myoelectric sensor, is described. (For example, myoelectric sensors attached to the left hand and abdomen, pressure sensors attached to tools used by the subject UL , etc.) similarly acquire subject movement data and associated data. At this time, it is preferable that the subject
熟練者データ取得部102は、被験者データ取得部101と同様に、熟練者UHに装着されるセンサ装置11b~14bから熟練者動作データ(換言すると、上記した識別データが付されていない熟練者動作データ)とその付随データを取得する。なお、熟練者データ取得部102もまた、各センサ装置11b~14bから熟練者動作データを取得するタイミングを同期した上で、各センサ装置11b~14bから熟練者動作データを取得する方が好ましい。図5は、熟練者UHの右手に装着された筋電センサから取得される右手の筋肉の活動量の時系列データの一例を示している。
Similarly to the subject
被験者データ取得部101及び熟練者データ取得部102によって取得された動作データ及びその動作データに付随する付随データは、類似性判定部103に出力される。
The motion data acquired by the subject
類似性判定部103は、被験者データ取得部101から出力される被験者動作データと、熟練者データ取得部102から出力される熟練者動作データとの入力を受けると、これら動作データと共に入力された付随データによって示されるセンサ種別及び装着部位が共に同一の被験者動作データと熟練者動作データとを比較して、これら動作データの類似性を判定する。
When the
より詳しくは、類似性判定部103は、動作データが図4及び図5に示したような時系列データの場合、図6に示すように被験者動作データと熟練者動作データとを重ね合わせて比較し、振幅、周波数、位相、変位といった各種項目に順に着目して、動作データの類似性を判定する。例えば、振幅に着目した場合、類似性判定部103は、被験者動作データの最大ピークの振幅と、熟練者動作データの最大ピークの振幅とに所定値以上の差分が検出されたか否かを判定する。なお、所定値は、項目毎に予め設定されているものとし、類似性判定部103は、同様な処理を項目毎に実行する。
More specifically, when the motion data is time-series data as shown in FIGS. 4 and 5, the
なお、類似性判定部103において、被験者動作データと熟練者動作データとを正確に重ね合わせるためには、被験者動作データと熟練者動作データとを同期させる必要がある。同期方法としては、2つの動作データに共通する急激なデータの立ち上がりを検出し、立ち上がり時刻の位置を合わせる方法がある。例えば、センサ装置の1つが、3種類のセンサ信号(x軸、y軸、z軸方向の時系列信号)を取得可能な3軸加速度センサの場合、単位時間の信号の2乗で計算可能なパワーを3つのセンサ信号で加算した値が、一定の閾値以上だけ増加した時刻を立ち上がり時刻とみなして、2つの動作データを同期させる。これによれば、別時刻に測定された被験者動作データと熟練者動作データとを正確に重ね合わせることができる。
In the
上記した判定の結果、所定値以上の差分が検出された項目がある場合、類似性判定部103は、被験者ULには改善対象となり得る動作があると判定し、所定値以上の差分が検出された項目と、当該差分が熟練者UHを基準としたときにどのような差分であるかとを示す判定結果データ(例えば、[項目]振幅が[どのような差分か]小さい、[項目]タイミング(位相)が[どのような差分か]早い、等)を動作改善指示選択部104に出力する。なお、類似性判定部103は、判定結果データに加えて、当該判定時に使用した動作データに付随する付随データ(換言すると、比較対象となった動作データと共に取得された付随データ)も共に動作改善指示選択部104に出力する。
As a result of the above determination, if there is an item for which a difference equal to or greater than a predetermined value is detected, the
なお、上記した判定の結果、複数の項目について所定値以上の差分が検出された場合、類似性判定部103は、最も差分の大きな項目に関する判定結果データだけを、または最も差分の大きな項目に関する判定結果データから順に複数の判定結果データを動作改善指示選択部104に出力しても良い。これによれば、早急に改善すべき動作を対象にして、動作改善指示を被験者ULに提示することができるようになる。一方で、類似性判定部103は、最も差分の小さな項目に関する判定結果データだけを、または最も差分の小さな項目に関する判定結果データから順に複数の判定結果データを動作改善指示選択部104に出力しても良い。これによれば、改善しやすい動作を対象にして、動作改善指示を被験者ULに提示することができるようになる。
Note that, as a result of the determination described above, when a difference equal to or greater than a predetermined value is detected for a plurality of items, the
また、ここでは、動作データが時系列データである場合を想定して説明したが、動作データが時系列データではなく、1つの測定値である場合、その測定値が所定値以上であるか否かを判定することで、被験者ULに改善対象となり得る動作があるか否かを判定する。 Further, here, the description has been made on the assumption that the motion data is time-series data. It is determined whether or not the subject UL has a motion that can be improved.
さらに、本実施形態では、類似性判定部103は、被験者ULに改善対象となり得る動作を提示するために、被験者動作データと熟練者動作データとにおける所定値以上の差分を検出するとしたが、これに限定されず、例えば、被験者ULに改善する必要のない動作、つまり、このまま続けるべき動作を提示するために、被験者動作データと熟練者動作データとにおいて一致する部分をさらに検出するとしても良い。
Furthermore, in the present embodiment, the
これによれば、改善対象となり得る動作に加えて、このまま続けるべき動作もまた被験者ULに提示することができるので、被験者ULは、自身の悪い部分だけでなく良い部分も合わせて知ることができ、被験者ULの動作改善へのモチベーション維持ないしは向上の効果を期待することができる。 According to this, in addition to motions that can be improved, motions that should be continued can also be presented to the subject UL , so that the subject UL can know not only the bad parts of himself but also the good parts. Therefore, it is possible to expect the effect of maintaining or improving the motivation of the subject UL to improve the movement.
ここで、動作改善指示選択部104について説明する前に、動作改善指示データベース201について説明する。
Here, before explaining the action improvement
動作改善指示データベース201は、図7に示すように、動作改善指示選択部104から出力される文字列データを、動作改善指示選択部104に入力される付随データ及び判定結果データに関連づけた動作改善指示データを記憶している。
7, the action
例えば、図7の動作改善指示データa1によれば、動作改善指示選択部104に入力される付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、動作改善指示選択部104に入力される判定結果データによって「振幅が小さい」ことが示される場合、「右手に力を入れてください」という表現の文字列データが、動作改善指示選択部104から出力される文字列データとして好適であることが示される。
For example, according to the motion improvement instruction data a1 in FIG. 7, the sensor type indicated by the accompanying data input to the action improvement
なお、ここでは、図7の動作改善指示データa1のみを例にとって説明したが、図7に示すその他の動作改善指示データa2~a4においても同様であるため、ここではその詳しい説明は省略する。 Here, only the operation improvement instruction data a1 in FIG. 7 has been described as an example, but since the other operation improvement instruction data a2 to a4 shown in FIG. 7 are the same, detailed explanation thereof will be omitted here.
また、本実施形態では、動作改善指示選択部104からの出力として、動作改善指示データに文字列データが含まれている場合を例示したが、これに限定されず、文字列データの代わりに、例えば音声データや画像(映像)データ等が、動作改善指示選択部104からの出力として、動作改善指示データに含まれても良い。さらには、電気や音波、機械的な力を利用した触覚フィードバックのための動作信号が、動作改善指示選択部104からの出力として動作改善指示データに含まれても良い。
Further, in this embodiment, the case where character string data is included in the operation improvement instruction data as an output from the operation improvement
動作改善指示選択部104は、類似性判定部103から出力された判定結果データと付随データとの入力を受けると、当該入力された判定結果データ及び付随データに基づいて、動作改善指示データベース201から好適な動作改善指示データを選択し、当該選択された動作改善指示データに含まれる文字列データを取得する。取得された文字列データは、提示部105に出力される。
Upon receiving the input of the determination result data and the accompanying data output from the
提示部105は、動作改善指示選択部104から出力された文字列データの入力を受けると、当該入力された文字列データによって示される文字列を情報処理装置16に設けられたディスプレイモニタまたは情報処理装置16に接続されたディスプレイモニタに表示出力し、当該文字列を、つまり、動作改善指示を被験者ULに提示する。
When the character string data output from the operation improvement
なお、提示部105は、動作改善指示選択部104から文字列データの入力を受ける度に、動作改善指示を被験者ULに提示する、つまり、リアルタイムに動作改善指示を被験者ULに提示しても良いし、入力された文字列データを図示しない一時メモリに記憶しておき、所定のタイミングで、当該一時メモリに記憶された文字列データに基づいた動作改善指示を被験者ULに一括して提示するとしても良い。
The presenting
次に、図8のフローチャートを参照して、以上のような機能構成を有した動作改善促進プログラムによって実現される動作改善促進処理の一例について説明する。 Next, an example of the motion improvement promoting process realized by the motion improvement promoting program having the functional configuration as described above will be described with reference to the flowchart of FIG.
まず、被験者データ取得部101は、被験者ULに装着された各センサ装置11a~14aから被験者動作データ及びこれに付随する付随データを各々取得する(ステップS1)。ステップS1の処理と並行して、熟練者データ取得部102は、熟練者UHに装着された各センサ装置11b~14bから熟練者動作データ及びこれに付随する付随データを各々取得する(ステップS2)。
First, the subject
なお、取得された動作データ及び付随データは、共に類似性判定部103に出力される。
Note that both the acquired motion data and accompanying data are output to the
続いて、類似性判定部103は、被験者データ取得部101及び熟練者データ取得部102から出力された動作データ及び付随データの入力を受け付ける。そして、類似性判定部103は、入力された付随データによって示されるセンサ種別及び装着部位が同一の被験者動作データと熟練者動作データとを順に比較し、被験者ULに改善対象となり得る動作があるか否かを判定する(ステップS3)。
Subsequently, the
ステップS3の判定の結果、いずれの被験者動作データと熟練者動作データとの間にも所定値以上の差分がなく、被験者ULに改善対象となり得る動作がないと判定された場合(ステップS3のNO)、ここでの処理は終了する。 As a result of the determination in step S3, it is determined that there is no difference equal to or greater than a predetermined value between any of the motion data of the subject and the motion data of the expert, and that the subject UL has no motion that can be improved (step S3). NO), the process ends here.
一方、ステップS3の判定の結果、被験者動作データと熟練者動作データとの間に所定値以上の差分があり、被験者ULに改善対象となり得る動作があると判定された場合(ステップS3のYES)、類似性判定部103は、所定値以上の差分が検出された項目と当該差分が熟練者UHを基準にしたときにどのような差分であるかとを示す判定結果データと、当該被験者動作データ及び当該熟練者動作データに付随した付随データとを動作改善指示選択部104に出力する(ステップS4)。
On the other hand, as a result of the determination in step S3, if there is a difference of a predetermined value or more between the motion data of the subject and the motion data of the expert, and it is determined that the subject UL has a motion that can be improved (YES in step S3). ), the
次に、動作改善指示選択部104は、類似性判定部103から出力された判定結果データ及び付随データの入力を受け付ける。そして、動作改善指示選択部104は、入力された付随データ及び判定結果データの内容を含む動作改善指示データを、好適な動作改善指示データとして、動作改善指示データベース201から選択・取得し、選択・取得された動作改善指示データに含まれる文字列データを提示部105に出力する(ステップS5)。
Next, the operation improvement
しかる後、提示部105は、動作改善指示選択部104から出力された文字列データの入力を受けると、当該文字列データをディスプレイモニタに表示出力し(ステップS6)、ここでの処理は終了する。
After that, when the
なお、本実施形態では、被験者ULと熟練者UHとが同時刻に同じ所定の作業を行う場合を想定して説明したが、被験者ULと熟練者UHとが必ずしも同時刻に同じ所定の作業を行えるとは限らない。被験者ULが所定の作業を行ったとしても、同時刻に同じ所定の作業を行う熟練者UHがいないと、熟練者データ取得部102への入力がないことになるため、被験者動作データと比較する対象が得られず、被験者ULに対して動作改善指示を提示することができないという不都合が生じてしまう。
In this embodiment , the subject UL and the expert UH performed the same predetermined work at the same time. It is not always possible to perform the prescribed work. Even if the subject UL performs a predetermined task, if there is no expert UH who performs the same predetermined task at the same time, there will be no input to the expert
このため、図9に示すように、熟練者データ取得部102の代わりに、熟練者動作データを予め記憶しておく動作データベース202が別途設けられても良い。
For this reason, as shown in FIG. 9, instead of the expert
動作データベース202には、図10に示すように、熟練者動作データと、付随データとを関連づけた動作データが記憶される。なお、この場合における付随データは、上記したセンサ種別及び装着部位に加えて、所定の作業の内容(作業内容)を示すものとする。例えば、図10の動作データb1は、熟練者UHが「筋電センサ」を「右手」に装着して「ネジ締め」を行った場合の熟練者動作データである「熟練者動作データ1」を含む。
As shown in FIG. 10, the
なお、ここでは、図10の動作データb1のみを例にとって説明したが、図10に示すその他の動作データb2~b4においても同様であるため、ここではその詳しい説明は省略する。 Here, only the motion data b1 in FIG. 10 has been described as an example, but the other motion data b2 to b4 shown in FIG. 10 are also the same, so detailed description thereof is omitted here.
図9に示すように、熟練者データ取得部102の代わりに動作データベース202が別途設けられる場合、熟練者動作データは、類似性判定部103により動作データベース202から取得される。以下に、動作データベース202が設けられる場合の類似性判定部103の機能について説明する。
As shown in FIG. 9 , when a
類似性判定部103は、被験者データ取得部101から出力される被験者動作データ及びその付随データの入力を受けると、入力された付随データに基づいて、熟練者動作データを動作データベース202から取得する。具体的には、類似性判定部103は、入力された付随データによって示されるセンサ種別、装着部位及び作業内容に関連づけられた熟練者動作データを動作データベース202から取得する。
The
以上のように、動作データベース202が熟練者データ取得部102の代わりに別途設けられ、類似性判定部103が動作データベース202から熟練者動作データを取得可能な構成とすることで、被験者ULが所定の作業を行う際に熟練者UHがいなかったとしても、被験者ULに対して好適な動作改善指示を提示することができる。
As described above, the
一方で、上記のように動作データベース202が別途設けられ、この動作データベース202に、センサ種別、装着部位及び作業内容に関連づけて、模範とすべき1つの熟練者動作データが記憶される場合、次のような不都合が生じる可能性がある。
On the other hand, when the
例えば、被験者ULが所定の作業への習熟度が非常に低い初心者である場合、上記した動作データベース202に記憶された熟練者動作データでは、習熟度に大きな乖離があり、改善対象となり得る動作が多数検出されてしまうことが考えられる。この場合、被験者ULに対して提示する動作改善指示が多岐にわたってしまい、被験者ULをかえって混乱させてしまうという不都合が生じ得る。
For example, if the subject UL is a beginner whose proficiency level for a given task is very low, there is a large discrepancy in the proficiency level in the expert motion data stored in the
この不都合を解消するために、動作データベース202に記憶される動作データを、図11に示すようなデータ構造とし、動作改善促進プログラムによって実現される機能部に、図12に示す習熟度取得部106を追加しても良い。
In order to solve this problem, the motion data stored in the
図11は、動作データベース202に記憶される動作データのデータ構造の一例を示す図である。図11に示す動作データは、図10に示した動作データとは異なり、熟練者動作データ及び付随データに加えて、習熟度データがさらに関連づけられている。習熟度データは、関連づけられた付随データによって示される作業内容への被験者ULの習熟度を示す。なお、ここでは、習熟度は、1~NのN段階評価であり、値が大きい程、習熟度が高いことを示すものとする。
FIG. 11 is a diagram showing an example of the data structure of motion data stored in the
例えば、図11の動作データc1は、熟練者UHが「筋電センサ」を「右手」に装着して「ネジ締め」を行った場合の熟練者動作データであり、習熟度が「3」の被験者UL向けの「熟練者動作データ1a」である。一方で、図10の動作データc2は、動作データc1と同様に、熟練者UHが「筋電センサ」を「右手」に装着して「ネジ締め」を行った場合の熟練者動作データではあるが、習熟度が「2」の被験者UL向けの「熟練者動作データ1b」である。 For example, the operation data c1 in FIG. 11 is the expert operation data when the expert UH attaches the "myoelectric sensor" to the "right hand" and performs "screw tightening", and the proficiency level is "3". This is the "expert motion data 1a" for the test subject UL . On the other hand, the motion data c2 in FIG. 10 is similar to the motion data c1 when the expert UH attaches the "myoelectric sensor" to the "right hand" and performs "screw tightening". However, it is "expert motion data 1b" for subject UL whose proficiency level is "2".
なお、ここでは、図11の動作データc1,c2のみを例にとって説明したが、図11に示すその他の動作データc3,c4においても同様であるため、ここではその詳しい説明は省略する。 Although only the motion data c1 and c2 shown in FIG. 11 have been described here as an example, the other motion data c3 and c4 shown in FIG.
習熟度取得部106は、被験者ULの習熟度を示す習熟度データを取得し、これを類似性判定部103に出力する機能を有する。なお、習熟度データは、被験者ULが作業を行う現場の監督者が所持する外部装置から取得(入力)されても良いし、被験者データ取得部101によって取得された被験者動作データを解析し、その解析結果として生成されても良い。
The proficiency
この場合、類似性判定部103は、被験者データ取得部101から出力される被験者動作データ及びその付随データと、習熟度取得部106から出力される習熟度データとの入力を受けると、入力された付随データ及び習熟度データに基づいて、好適な熟練者動作データを動作データベース202から取得する。具体的には、類似性判定部103は、付随データによって示されるセンサ種別、装着部位及び作業内容と、習熟度データによって示される習熟度とを含む動作データ内の熟練者動作データを動作データベース202から取得する。
In this case, when the
なお、ここでは、類似性判定部103が、取得された習熟度データによって示される習熟度を含む動作データ内の熟練者動作データを取得するとしたが、これに限定されず、類似性判定部103は、取得された習熟度データによって示される習熟度よりも1段階上の習熟度を含む動作データ内の熟練者動作データを取得するとしても良い。
Here, it is assumed that the
また、提示部105は、動作改善指示選択部104からの文字列データに加えて、当該文字列データによって示される動作改善指示を実行することにより「習熟度が1段階向上する」旨の文字列データを提示しても良いし、当該文字列データによって示される動作改善指示を実行することにより「所定の作業の作業時間がM秒短くなる」旨の文字列データを提示しても良い。なお、上記したMの値は、類似性判定部103に入力された習熟度データにより示される習熟度よりも1段階上の習熟度の熟練者動作データを解析することで得られる熟練者UHが所定の作業に要する時間と、類似性判定部103に入力された被験者動作データを解析することで得られる被験者ULが所定の作業に要する時間との差分に相当する。
In addition to the character string data from the action improvement
以上のように、同じ作業内容であっても、習熟度毎に段階分けされた熟練者動作データを記憶する動作データベース202が設けられ、類似性判定部103が動作データベース202から被験者ULの習熟度に適した熟練者動作データを取得可能な構成とすることで、習熟度の大きく乖離した熟練者動作データが被験者動作データの比較対象となることを防ぐことができ、被験者ULの段階的な習熟度向上を実現することができる。
As described above, the
なお、ここでは、被験者ULにとって好適な熟練者動作データが習熟度に応じて選択される場合を例示したが、これに限定されず、例えば、性別や年齢、身長、体重、作業従事年数等に応じて好適な熟練者動作データが選択されても良い。 Here, the case where the expert motion data suitable for the subject UL is selected according to the proficiency level is exemplified, but the present invention is not limited to this. Appropriate expert motion data may be selected according to.
以上説明した第1の実施形態によれば、情報処理装置16は、所定の作業時の動作に関し、被験者ULと熟練者UHとの類似性を判定し、被験者ULに対し、好適な動作改善指示を提示可能な構成を備えているので、動作訓練の効率化や必要な技術会得の短縮化を期待することができる。<第2の実施形態>
次に、第2の実施形態について説明する。本実施形態では、図3に示す動作改善促進プログラムに、図13に示す動作推定部107がさらに備えられている場合について説明する。なお、以下の説明においては、主に第1の実施形態との相違点に着目し、同一の構成については同一の符号を付して説明を省略することがある。また、本実施形態において、付随データは、センサ種別、装着部位及び作業内容を示すものとする。
According to the first embodiment described above, the
Next, a second embodiment will be described. In this embodiment, a case will be described in which the motion improvement promoting program shown in FIG. 3 is further provided with a
図13は、第2の実施形態に係る動作改善促進プログラムの機能構成の一例を示すブロック図である。 FIG. 13 is a block diagram showing an example of the functional configuration of an operation improvement promotion program according to the second embodiment.
動作推定部107は、被験者データ取得部101から出力される被験者動作データ及び付随データの入力を受けると、当該被験者動作データから特徴量を抽出し、この特徴量を基に、事前に学習させておいた学習結果を用いて、公知のニューラルネットワーク、SVM(Support Vector Machine)、ランダムフォレスト等の機械学習・判別分析により、被験者ULの動作を推定する。
The
例えば、入力された付随データにより示されるセンサ種別が「筋電センサ」であり、装着部位が「右手」であり、作業内容が「ネジ締め」である場合、動作推定部107は、入力された被験者動作データから特徴量を抽出し、この特徴量を基に、事前に学習させておいた学習辞書を用いて、被験者ULの動作が「握る」、「放す」、「捻る」のいずれに該当するかを判定することで、被験者ULの動作を推定する。 For example, when the sensor type indicated by the input accompanying data is "myoelectric sensor", the wearing part is "right hand", and the work content is "screw tightening", motion estimation unit 107 A feature amount is extracted from the motion data of the subject, and based on this feature amount, a learning dictionary that has been learned in advance is used to determine whether the motion of the subject UL is "grip", "release", or "twist". The motion of the subject UL is estimated by determining whether it is applicable.
動作推定部107は、被験者ULの動作種別を示す推定結果データを、入力された被験者動作データに付加した(ラベル付けした)上で、類似性判定部103に出力する。例えば、動作推定部107は、図14に示す被験者動作データの区間Aにおける被験者ULの動作が「捻る」であると推定した場合、当該区間Aにおける被験者ULの動作が「捻る」であることが分かるようなラベル付けをした上で、被験者動作データを類似性判定部103に出力する。
The
なお、動作推定部107は、熟練者データ取得部102から出力される熟練者動作データに対しても同様な処理を実行し、熟練者UHの動作種別を示す推定結果データを、入力される熟練者動作データにラベル付けした上で、類似性判定部103に出力する。
The
動作推定部107によって被験者動作データ及び熟練者動作データに被験者UL及び熟練者UHの動作種別を示すラベル付けが行われることにより、次のような利点を得ることができる。
The following advantages can be obtained by labeling the motion data of the subject and the motion data of the expert by the
類似性判定部103は、被験者動作データ及び熟練者動作データが時系列データである場合、これら動作データを重ね合わせて比較し、これら動作データの類似性を判定する。しかしながら、被験者動作データと熟練者動作データとでは、比較したい動作の発生時間にズレが生じ得るため、これら動作データをそのまま重ね合わせて比較することができないという不都合がある。このため、被験者データ取得部101が被験者動作データを取得するタイミングと、熟練者データ取得部102が熟練者動作データを取得するタイミングとを予め同期させておいたり、取得された被験者動作データ及び熟練者動作データの頭を揃えたりする処理が必要になってくる。
When the motion data of the subject and the motion data of the expert are time-series data, the
これに対し、動作推定部107によって被験者動作データ及び熟練者動作データに被験者UL及び熟練者UHの動作種別を示すラベル付けが行われることにより、例えば図15に示すように、比較したい動作の発生時間にズレが生じていたとしても、比較したい区間のみを抽出して容易に比較することが可能になる。
On the other hand, the
また、上記した第1の実施形態では、動作改善指示選択部104により好適な動作改善指示データが動作改善指示データベース201から選択・取得され、被験者ULへの動作改善指示が一意に決定される場合を例示したが、動作推定部107による推定結果データを使用することで、より細やかな動作改善指示を被験者ULに対して提示することも可能になる。
In the above-described first embodiment, the movement improvement
この場合、図16に示すように、図13に示す動作改善指示データベース201に代えて、副詞表現データベース203が設けられると共に、動作改善指示選択部104に代えて、動作改善指示生成部108が機能部として設けられる。
In this case, as shown in FIG. 16, an
副詞表現データベース203は、図17に示すように、付随データ(の一部)と、判定結果データと、推定結果データと、副詞表現とを関連づけた副詞表現データが記憶される。例えば図17の副詞表現データd1によれば、付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、判定結果データが「振幅が小さい」旨を示し、推定結果データによって示される動作種別が「握る」である場合の副詞表現は「強く」であることが示される。また、図17の副詞表現データd2によれば、付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、判定結果データが「タイミングが早い」旨を示し、推定結果データによって示される動作種別が「捻る」である場合の副詞表現は「ゆっくり」であることが示される。
As shown in FIG. 17, the
図16に示す動作改善指示生成部108は、類似性判定部103から出力される判定結果データ及び付随データと、類似性判定部103によって判定時に使用された動作データに付加された推定結果データ(換言すると、比較対象となった動作データに付加された推定結果データ)との入力を受けると、入力された各データと副詞表現データベース203とに基づいて、動作改善指示を生成する。
The motion improvement
より詳しくは、動作改善指示生成部108は、図18(a)に示すように、入力された付随データによって示される装着部位を改善対象となる部位として認識する。また、動作改善指示生成部108は、図18(b)に示すように、入力された推定結果データによって示される動作種別を改善対象となる動作として認識する。さらに、動作改善指示生成部108は、図18(c)に示すように、入力された付随データ、判定結果データ及び推定結果データに基づいて、副詞表現データベース203から好適な副詞表現データを選択・取得し、被験者ULに対して提示する動作改善指示に付加する副詞表現を決定する。
More specifically, as shown in FIG. 18(a), the action improvement
動作改善指示生成部108は、予め設定された論理にしたがって、認識・決定された改善対象となる部位、改善対象となる動作、及び副詞表現を組み合わせて、動作改善指示を生成する。詳しくは、動作改善指示生成部108は、「[部位]を(に)[副詞表現][動作]して下さい」といった論理にしたがって、動作改善指示を生成する。
The action improvement
例えば、入力された付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、入力された判定結果データが「振幅が小さい」旨を示し、推定結果データによって示される動作種別が「握る」であって、この場合に好適な副詞表現が「強く」である場合、動作改善指示生成部108は、「[右手]を(に)[強く][握って]下さい」という動作改善指示を生成する。生成された動作改善指示を示す動作改善指示データは、提示部105に出力され、提示部105により被験者ULに対して提示される。
For example, the sensor type indicated by the input accompanying data is a "myoelectric sensor", the attachment site indicated by the accompanying data is "right hand", and the input determination result data is "small amplitude". , and if the action type indicated by the estimation result data is "grasp" and the suitable adverb expression in this case is "strongly", the action improvement
なお、動作改善指示生成部108によって生成される動作改善指示には、段階的な副詞表現が使用されても良い。具体的には、「強く」という副詞表現だけでなく、「非常に強く」や「やや強く」といった段階的な副詞表現が使用されても良い。
Note that step-by-step adverb expressions may be used for the action improvement instruction generated by the action improvement
この場合、類似性判定部103は、被験者動作データと熟練者動作データとの間に単に所定値以上の差分があるか否かを判定するのではなく、段階的に設定された閾値に基づいた判定を行う。例えば段階的な閾値として第1閾値及び第2閾値(但し、第1閾値<第2閾値である)が設定されている場合、類似性判定部103は、被験者動作データと熟練者動作データとの間に第1閾値以上、第2閾値未満の差分があるか否か、あるいは、第2閾値以上の差分があるか否かを判定する。例えば、被験者動作データが熟練者動作データに比べて振幅が小さく、この差分が、第1閾値以上、第2閾値未満である場合、類似性判定部103は、「振幅が小さい」旨の判定結果データを出力し、上記差分が、第2閾値以上である場合、類似性判定部103は、「振幅が非常に小さい」旨の判定結果データを出力する。
In this case, the
このように判定結果データが細やかになることで、副詞表現データベース203に記憶される副詞表現データも細分化することが可能になるため(例えば、判定結果データ「振幅が小さい」には「強く」の副詞表現が関連づけられ、判定結果データ「振幅が非常に小さい」には「非常に強く」の副詞表現が関連づけられる等)、結果的に、動作改善指示生成部108は、段階的な副詞表現を使用した動作改善指示を生成することが可能になる。
Since the judgment result data becomes finer in this way, the adverb expression data stored in the
以上説明した第2の実施形態によれば、情報処理装置16は、被験者UL及び熟練者UHの動作種別を推定し、推定された動作種別を示す推定結果データを被験者動作データ及び熟練者動作データにラベル付け可能な動作推定部107をさらに備えているので、被験者動作データと熟練者動作データとの比較を容易に行うことができると共に、被験者ULに対してより細やかな動作改善指示を提示することが可能となる。
According to the second embodiment described above, the
以上説明した少なくとも1つの実施形態によれば、作業員(被験者UL)の育成を促進可能な情報処理装置、方法及びプログラムを提供することができる。 According to at least one embodiment described above, it is possible to provide an information processing apparatus, method, and program capable of promoting training of workers (subjects U L ).
なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 It should be noted that although several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.
11~14…センサ装置、15…データ送受信機、16…情報処理装置、101…被験者データ取得部、102…熟練者データ取得部、103…類似性判定部、104…動作改善指示選択部、105…提示部、106…習熟度取得部、107…動作推定部、108…動作改善指示生成部、201…動作改善指示データベース、202…動作データベース、203…副詞表現データベース、UL…被験者、UH…熟練者。
Reference numerals 11 to 14: sensor device, 15: data transceiver, 16: information processing device, 101: subject data acquisition unit, 102: expert data acquisition unit, 103: similarity determination unit, 104: action improvement instruction selection unit, 105
Claims (8)
第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得する第1取得手段と、
前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得する第2取得手段と、
前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得する第3取得手段と、
前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加する推定手段と、
前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定する判定手段と、
前記判定手段による判定結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示する提示手段と、
前記判定手段による判定結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択する選択手段と、
前記付随データと前記第2動作データと前記習熟度データとを関連付けて記憶する第2記憶手段と、
を具備し、
前記判定手段は、
前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとする、情報処理装置。 An information processing device that communicates with multiple types of sensor devices,
Acquiring first motion data indicating motions of the first worker when performing a predetermined work from each of the sensor devices, and indicating at least the type of the sensor device, the measurement site, and the content of the predetermined work. a first acquisition means for acquiring each associated data;
A second operation data indicating an operation when a second operator having higher proficiency than the first operator performs the predetermined work is acquired from each of the sensor devices, and a second operation data is acquired from each of the accompanying data. acquisition means;
a third acquisition means for acquiring proficiency level data indicating the proficiency level of the first worker for the predetermined work;
analyzing each of the first motion data and each of the second motion data, and estimating one or more motion types by the first worker and the second worker indicated by the motion data; an estimating means for adding estimation result data capable of identifying the type of motion to each motion data;
determining means for comparing each of the first motion data and each of the second motion data to determine similarity;
presenting means for presenting to the first worker instruction data indicating points to be improved regarding actions in performing a predetermined work according to a determination result by the determining means;
selection means for selecting instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to a determination result by the determination means;
a second storage means for storing the associated data, the second action data, and the proficiency level data in association with each other;
and
The determination means is
Accompanying data acquired together with the first action data, and second action data associated with the acquired proficiency level data, based on the accompanying data and the proficiency level data, the first action data Parts to which estimation result data indicating the same type of motion are added are extracted from the first motion data and the second motion data obtained from the second storage means as objects for comparison, and these motion data are extracted from the first motion data and the second motion data. comparing and detecting a difference between the first motion data and the second motion data and a matching portion between the first motion data and the second motion data to determine the similarity of the motion data; as determination result data.
前記付随データと、前記判定結果データと、前記第1作業者に対する動作改善指示とが少なくとも関連づけられた指示データを記憶し、
前記選択手段は、
前記検出された差分が所定値以上の場合に、当該差分に関する判定結果データと、当該差分を検出する際に比較対象となった第1動作データと共に取得された付随データとを含む指示データを、前記第1作業者に対して提示する指示データとして選択する
請求項1に記載の情報処理装置。 The first storage means is
storing instruction data in which at least the accompanying data, the determination result data, and an operation improvement instruction to the first worker are associated;
The selection means is
when the detected difference is equal to or greater than a predetermined value, instruction data including determination result data regarding the difference and accompanying data obtained together with the first motion data to be compared when the difference is detected; The information processing apparatus according to claim 1, wherein the instruction data is selected as the instruction data to be presented to the first operator.
前記生成される動作改善指示に含まれる副詞表現と、前記判定結果データと、前記付随データと、前記推定結果データとが関連づけられた複数の副詞表現データを記憶する第3記憶手段と、
を更に具備する請求項1に記載の情報処理装置。 generating means for generating a motion improvement instruction for the first worker according to the result of determination by the determining means and using this as instruction data;
a third storage means for storing a plurality of adverbial expression data in which the adverbial expression included in the generated action improvement instruction, the determination result data, the accompanying data, and the estimation result data are associated;
The information processing apparatus according to claim 1, further comprising:
前記検出された差分に関する判定結果データと、当該差分を検出する際に比較対象となった第1動作データと共に取得された付随データと、当該比較対象となった第1動作データに付加された推定結果データとを含む副詞表現データを取得し、
当該付随データによって示される装着部位と、当該推定結果データによって示される動作の種別と、前記取得された副詞表現データによって示される副詞表現とを組み合わせて動作改善指示を生成する
請求項4に記載の情報処理装置。 The generating means is
determination result data relating to the detected difference; accompanying data acquired together with the first motion data to be compared when detecting the difference; and estimation added to the first motion data to be compared Get the adverb expression data containing the result data and
5. The action improvement instruction is generated by combining the wearing part indicated by the accompanying data, the type of action indicated by the estimation result data, and the adverbial expression indicated by the acquired adverbial expression data. Information processing equipment.
第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得することと、
前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得することと、
前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得することと、
前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加することと、
前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定することと、
前記判定の結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示することと、
前記判定の結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択することと、
前記付随データと前記第2動作データと前記習熟度データとを関連付けて第2記憶手段に記憶することと、
を具備し、
前記類似性を判定することは、
前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとすることを含む、方法。 A method executed by an information processing device that communicates with multiple types of sensor devices,
Acquiring first motion data indicating motions of the first worker when performing a predetermined work from each of the sensor devices, and indicating at least the type of the sensor device, the measurement site, and the content of the predetermined work. respectively obtaining ancillary data;
Acquiring from each of the sensor devices second motion data indicating motions of a second worker who is more proficient than the first worker when performing the predetermined work, and acquiring each of the accompanying data. ,
Acquiring proficiency level data indicating the proficiency level of the first worker for the predetermined work;
analyzing each of the first motion data and each of the second motion data, and estimating one or more motion types by the first worker and the second worker indicated by the motion data; adding estimation result data capable of identifying the type of motion to each motion data;
comparing each of the first motion data and each of the second motion data to determine similarity;
presenting to the first worker, according to the result of the determination, instruction data indicating points to be improved regarding actions when performing a predetermined work;
Selecting instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to the result of the determination;
associating the accompanying data, the second action data, and the proficiency level data and storing them in a second storage means;
and
Determining the similarity includes:
Accompanying data acquired together with the first action data, and second action data associated with the acquired proficiency level data, based on the accompanying data and the proficiency level data, the first action data Parts to which estimation result data indicating the same type of motion are added are extracted from the first motion data and the second motion data obtained from the second storage means as objects for comparison, and these motion data are extracted from the first motion data and the second motion data. comparing and detecting a difference between the first motion data and the second motion data and a matching portion between the first motion data and the second motion data to determine the similarity of the motion data; as determination result data.
第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得する第1取得手段と、
前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得する第2取得手段と、
前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得する第3取得手段と、
前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加する推定手段と、
前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定する判定手段と、
前記判定手段による判定の結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示する提示手段と、
前記判定手段による判定結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択する選択手段と、
前記付随データと前記第2動作データと前記習熟度データとを関連付けて第2記憶手段に記憶する記憶手段として動作させ、
前記判定手段は、
前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとする、プログラム。 A program executed by a computer of an information processing device that communicates with multiple types of sensor devices, the program causing the computer to:
Acquiring first motion data indicating motions of the first worker when performing a predetermined work from each of the sensor devices, and indicating at least the type of the sensor device, the measurement site, and the content of the predetermined work. a first acquisition means for acquiring each associated data;
A second operation data indicating an operation when a second operator having higher proficiency than the first operator performs the predetermined work is acquired from each of the sensor devices, and a second operation data is acquired from each of the accompanying data. acquisition means;
a third acquisition means for acquiring proficiency level data indicating the proficiency level of the first worker for the predetermined work;
analyzing each of the first motion data and each of the second motion data, and estimating one or more motion types by the first worker and the second worker indicated by the motion data; an estimating means for adding estimation result data capable of identifying the type of motion to each motion data;
determining means for comparing each of the first motion data and each of the second motion data to determine similarity;
presenting means for presenting to the first worker, according to the result of the determination by the determining means, instruction data indicating points to be improved regarding actions in performing a predetermined work;
selection means for selecting instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to a determination result by the determination means;
Operate as storage means for associating the accompanying data, the second action data, and the proficiency level data and storing them in a second storage means;
The determination means is
Accompanying data acquired together with the first action data, and second action data associated with the acquired proficiency level data, based on the accompanying data and the proficiency level data, the first action data Parts to which estimation result data indicating the same type of motion are added are extracted from the first motion data and the second motion data obtained from the second storage means as objects for comparison, and these motion data are extracted from the first motion data and the second motion data. comparing and detecting a difference between the first motion data and the second motion data and a matching portion between the first motion data and the second motion data to determine the similarity of the motion data; A program that uses the result of as judgment result data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021190320A JP7268121B2 (en) | 2017-07-13 | 2021-11-24 | Information processing device, method and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017137258A JP2019020913A (en) | 2017-07-13 | 2017-07-13 | Information processing apparatus, method and program |
JP2021190320A JP7268121B2 (en) | 2017-07-13 | 2021-11-24 | Information processing device, method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017137258A Division JP2019020913A (en) | 2017-07-13 | 2017-07-13 | Information processing apparatus, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022031286A JP2022031286A (en) | 2022-02-18 |
JP7268121B2 true JP7268121B2 (en) | 2023-05-02 |
Family
ID=87888399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021190320A Active JP7268121B2 (en) | 2017-07-13 | 2021-11-24 | Information processing device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7268121B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123411A (en) | 2009-12-14 | 2011-06-23 | Emprie Technology Development LLC | Motion analyzer and motion analyzing method |
JP2011164694A (en) | 2010-02-04 | 2011-08-25 | Nec Corp | Device and method for support of standard operation execution |
JP2012185695A (en) | 2011-03-07 | 2012-09-27 | Univ Of Tsukuba | Work management system and work management method |
-
2021
- 2021-11-24 JP JP2021190320A patent/JP7268121B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123411A (en) | 2009-12-14 | 2011-06-23 | Emprie Technology Development LLC | Motion analyzer and motion analyzing method |
JP2011164694A (en) | 2010-02-04 | 2011-08-25 | Nec Corp | Device and method for support of standard operation execution |
JP2012185695A (en) | 2011-03-07 | 2012-09-27 | Univ Of Tsukuba | Work management system and work management method |
Also Published As
Publication number | Publication date |
---|---|
JP2022031286A (en) | 2022-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10971029B2 (en) | Information processing device, method, and storage medium | |
MassirisFernández et al. | Ergonomic risk assessment based on computer vision and machine learning | |
KR102097190B1 (en) | Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same | |
US20180178061A1 (en) | Rehabilitation compliance devices | |
JP6710644B2 (en) | Motion analysis device, motion analysis method and program | |
US20160166880A1 (en) | Exercise information display system, exercise information display method and computer-readable recording medium | |
US8113843B2 (en) | Apparatus for analyzing operations and method for analyzing operations | |
US20210286983A1 (en) | Estimation method, and computer-readable recording medium recording estimation program | |
US20200279205A1 (en) | Techniques for tailoring fabrication environments based on user, task, and expertise | |
WO2017150073A1 (en) | Work operation analysis system, work operation analysis method, and work operation analysis program | |
US20240104456A1 (en) | Work action recognition system and work action recognition method | |
KR20140043174A (en) | Simulator for horse riding and method for simulation of horse riding | |
JP7268121B2 (en) | Information processing device, method and program | |
JP2017068430A (en) | Adaptability evaluation device, and adaptability evaluation method | |
JP6999543B2 (en) | Interactive Skills Frameworks and methods configured to enable analysis of physically performed skills, including application to distribution of training content. | |
US10748320B2 (en) | Animation simulation of biomechanics | |
Coruzzolo et al. | Comparing semiautomatic rapid upper limb assessments (rula): Azure kinect versus rgb-based machine vision algorithm | |
JP2022055736A (en) | Situation estimation apparatus, server apparatus, situation estimation system, and situation estimation method | |
US20190005842A1 (en) | Information processing apparatus, information processing method, and program | |
US20200149985A1 (en) | Multiple sensor false positive detection | |
CN104076926B (en) | Set up the method and wearable electronic equipment of data transmission link | |
Negi et al. | Real-Time Human Pose Estimation: A MediaPipe and Python Approach for 3D Detection and Classification | |
EP4331691A1 (en) | Movement improvement device, movement improvement method, movement improvement program, and movement improvement system | |
US20210335114A1 (en) | Motion Evaluation System, Motion Evaluation Device, and Motion Evaluation Method | |
KR20140104158A (en) | Stretching coaching system and method for preventing pmusculoskeletal diseases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220930 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7268121 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |