[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7268121B2 - Information processing device, method and program - Google Patents

Information processing device, method and program Download PDF

Info

Publication number
JP7268121B2
JP7268121B2 JP2021190320A JP2021190320A JP7268121B2 JP 7268121 B2 JP7268121 B2 JP 7268121B2 JP 2021190320 A JP2021190320 A JP 2021190320A JP 2021190320 A JP2021190320 A JP 2021190320A JP 7268121 B2 JP7268121 B2 JP 7268121B2
Authority
JP
Japan
Prior art keywords
data
motion
motion data
worker
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021190320A
Other languages
Japanese (ja)
Other versions
JP2022031286A (en
Inventor
泰之 角井
和範 井本
加奈子 仲山
佐和 福家
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017137258A external-priority patent/JP2019020913A/en
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2021190320A priority Critical patent/JP7268121B2/en
Publication of JP2022031286A publication Critical patent/JP2022031286A/en
Application granted granted Critical
Publication of JP7268121B2 publication Critical patent/JP7268121B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本実施形態は、情報処理装置、方法及びプログラムに関する。 The present embodiment relates to an information processing device, method, and program.

一般的に、製造現場において、作業員に必要技術を会得させるための訓練や教育、指導は、生産性を確保するために必要不可欠である。また、昨今の労働市場の流動化やグローバル化による海外工場展開や外国人の雇用等、激しい人員の入れ替わりにより、実務経験の浅い作業員をいかに早く育成し、現場に送り出せるかが重要になってきている。このため、作業員の育成を効率よく促進可能な技術が望まれている。 In general, at a manufacturing site, training, education, and instruction for workers to acquire necessary skills are essential to ensure productivity. In addition, due to the rapid turnover of personnel, such as the expansion of overseas factories and the employment of foreigners due to the recent fluidity and globalization of the labor market, it has become important how quickly workers with little practical experience can be trained and sent to the site. is coming. Therefore, there is a demand for a technology that can efficiently promote the training of workers.

特開2001-166681号公報Japanese Patent Application Laid-Open No. 2001-166681 特開2017-64095号公報JP 2017-64095 A

本発明の実施形態が解決しようとする課題は、作業員の育成を促進可能な情報処理装置、方法及びプログラムを提供することである。 A problem to be solved by the embodiments of the present invention is to provide an information processing apparatus, method, and program capable of promoting training of workers.

実施形態に係る情報処理装置は、複数種別のセンサ装置と通信する。前記情報処理装置は、第1取得手段、第2取得手段、第3取得手段、推定手段、判定手段、提示手段、選択手段及び第2記憶手段を備える。前記第1取得手段は、第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得する。前記第2取得手段は、前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得する。前記第3取得手段は、前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得する。前記推定手段は、前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加する。前記判定手段は、前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定する。前記提示手段は、前記判定手段による判定の結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示する。前記選択手段は、前記判定手段による判定結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択する。前記第2記憶手段は、前記付随データと前記第2動作データと前記習熟度データとを関連付けて記憶する。前記判定手段は、前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとする。 An information processing device according to an embodiment communicates with multiple types of sensor devices. The information processing apparatus includes first acquisition means, second acquisition means, third acquisition means, estimation means, determination means, presentation means, selection means, and second storage means. The first acquisition means acquires, from each of the sensor devices, first motion data indicating a motion when the first worker performs a predetermined work, and also acquires the type of the sensor device, the measurement site, and the predetermined work. Accompanying data indicating at least the contents of the work are respectively obtained. The second acquisition means acquires, from each of the sensor devices, second motion data representing motions of a second worker who is more proficient than the first worker when performing the predetermined work, and obtains second motion data from each of the sensor devices. Get the data respectively. The third acquisition means acquires proficiency level data indicating a proficiency level of the first worker for the predetermined work. The estimating means analyzes each of the first motion data and each of the second motion data, and determines one or more types of motions by the first worker and the second worker indicated by the motion data. Estimation is performed, and estimation result data capable of identifying the type of the estimated motion is added to each motion data. The determination means compares each of the first motion data and each of the second motion data to determine similarity. The presenting means presents to the first worker instruction data indicating points to be improved regarding actions in performing a predetermined work according to the result of determination by the determining means. The selection means selects instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to a determination result by the determination means. The second storage means associates and stores the accompanying data, the second action data, and the proficiency level data. The determination means determines the second action data associated with the acquired proficiency level data and the accompanying data acquired together with the first action data based on the accompanying data and the proficiency level data. Acquired from the second storage means as a comparison target of the first motion data, and extracting from each of the first motion data and the second motion data, portions added with estimation result data indicating the same type of motion , comparing the motion data, detecting a difference between the first motion data and the second motion data, and a matching portion of the first motion data and the second motion data to determine the similarity of the motion data; The result of the determination is used as determination result data.

図1は、第1の実施形態に係る情報処理装置を含む動作改善促進システムの概略構成例を示す図である。FIG. 1 is a diagram showing a schematic configuration example of a motion improvement promotion system including an information processing device according to the first embodiment. 図2は、同実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing apparatus according to the embodiment; 図3は、同実施形態に係る情報処理装置によって実行される動作改善促進プログラムの機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the functional configuration of an operation improvement promotion program executed by the information processing apparatus according to the embodiment; 図4は、同実施形態に係る被験者動作データの一例を示す図である。FIG. 4 is a diagram showing an example of subject motion data according to the embodiment. 図5は、同実施形態に係る熟練者動作データの一例を示す図である。FIG. 5 is a diagram showing an example of expert motion data according to the embodiment. 図6は、同実施形態に係る被験者動作データと熟練者動作データとを重ね合わせて比較する場合を例示する図である。FIG. 6 is a diagram exemplifying a case where subject motion data and expert motion data are superimposed and compared according to the embodiment. 図7は、同実施形態に係る動作改善指示データのデータ構造の一例を示す図である。FIG. 7 is a diagram showing an example of the data structure of performance improvement instruction data according to the embodiment. 図8は、同実施形態に係る動作改善促進処理の一例を示すフローチャートである。FIG. 8 is a flowchart showing an example of an operation improvement promotion process according to the embodiment; 図9は、図3とは異なる動作改善促進プログラムの機能構成の一例を示すブロック図である。FIG. 9 is a block diagram showing an example of a functional configuration of an operation improvement promotion program different from that shown in FIG. 図10は、同実施形態に係る動作データのデータ構造の一例を示す図である。FIG. 10 is a diagram showing an example of the data structure of motion data according to the embodiment. 図11は、図10とは異なる動作データのデータ構造の一例を示す図である。FIG. 11 is a diagram showing an example of a data structure of motion data different from that in FIG. 図12は、図9とは異なる動作改善促進プログラムの機能構成の一例を示すブロック図である。FIG. 12 is a block diagram showing an example of a functional configuration of an operation improvement promotion program different from that shown in FIG. 図13は、第2の実施形態に係る動作改善促進プログラムの機能構成の一例を示すブロック図である。FIG. 13 is a block diagram showing an example of the functional configuration of an operation improvement promotion program according to the second embodiment. 図14は、同実施形態に係る被験者動作データの一例を示す図である。FIG. 14 is a diagram showing an example of subject motion data according to the embodiment. 図15は、同実施形態に係る被験者動作データと熟練者動作データとを重ね合わせて比較する場合を例示する図である。FIG. 15 is a diagram exemplifying a case where subject motion data and expert motion data are superimposed and compared according to the embodiment. 図16は、図13とは異なる動作改善促進プログラムの機能構成の一例を示す図である。FIG. 16 is a diagram showing an example of a functional configuration of an operation improvement promoting program different from that shown in FIG. 図17は、同実施形態に係る副詞表現データのデータ構造の一例を示す図である。FIG. 17 is a diagram showing an example of the data structure of adverb expression data according to the embodiment. 図18は、同実施形態に係る動作改善指示の生成について説明するための図である。FIG. 18 is a diagram for explaining generation of an operation improvement instruction according to the embodiment;

以下、図面を参照して実施形態を説明する。 Embodiments will be described below with reference to the drawings.

図1は、第1の実施形態に係る情報処理装置を含む動作改善促進システムの概略構成例を示す図である。図1に示す動作改善促進システムは、複数のセンサ装置11~14と、データ送受信機15と、情報処理装置16とを含んでいる。 FIG. 1 is a diagram showing a schematic configuration example of a motion improvement promotion system including an information processing device according to the first embodiment. The performance improvement promotion system shown in FIG. 1 includes a plurality of sensor devices 11 to 14, a data transmitter/receiver 15, and an information processing device 16.

複数のセンサ装置11~14は、人(ユーザ)が所定の作業を行うときの動作に関する動作データを測定可能なセンサであり、例えば、加速度センサ、ジャイロセンサ、地磁気センサ及び筋電センサ等が一体化されたウェアラブルセンサ11~13や、圧力センサ14等が一例として挙げられる。これらセンサ装置11~14は、所定の作業を行う人や、その人が当該所定の作業を行うにあたって使用する工具等に取り付けられる。各センサ装置11~14によって測定される各種動作データは、動作データを測定したセンサの種別(センサ種別)とそのセンサが装着された部位(装着部位、測定部位)とを示す付随データと共に、データ送受信機15を介して、情報処理装置16に送信される。なお、付随データは、センサ装置11~14の装着時に、例えば装着者(ユーザ)によって設定される。 The plurality of sensor devices 11 to 14 are sensors capable of measuring motion data related to the motion of a person (user) when performing a predetermined task. Examples include the wearable sensors 11 to 13, the pressure sensor 14, and the like. These sensor devices 11 to 14 are attached to a person who performs a predetermined work or to a tool or the like used by the person to perform the predetermined work. Various motion data measured by each of the sensor devices 11 to 14 are data together with accompanying data indicating the type of sensor that measured the motion data (sensor type) and the site where the sensor was attached (mounted site, measurement site). It is transmitted to the information processing device 16 via the transceiver 15 . Incidentally, the accompanying data is set by, for example, the wearer (user) when the sensor devices 11 to 14 are worn.

なお、センサ装置は、上記したウェアラブルセンサ11~13や圧力センサ14に限定されず、所定の作業を行う人の動作に関する動作データを測定可能なものであれば、任意の各種センサがセンサ装置として使用されても良い。例えば、所定の作業を行う人の動作の遷移を連続的に撮影可能な撮像装置(カメラ)が、さらなるセンサ装置として、又はセンサ装置11~14に代わるセンサ装置として使用されても良い。 In addition, the sensor device is not limited to the wearable sensors 11 to 13 and the pressure sensor 14 described above, and any various sensors can be used as the sensor device as long as they can measure motion data related to the motion of a person performing a predetermined work. May be used. For example, an imaging device (camera) capable of continuously photographing the transition of the motion of a person performing a predetermined task may be used as an additional sensor device or as a sensor device in place of the sensor devices 11-14.

本実施形態においては、各センサ装置11~14が、図1に示すように、所定の作業に対する習熟度が低い人(以下、「被験者」と表記する)Uと、当該所定の作業に対する習熟度が高い人(以下、「熟練者」と表記する)Uとの、右手(右腕)、左手(左腕)、腹部、被験者U及び熟練者Uが使用する工具に取り付けられている場合を想定する。また、本実施形態においては、上記した所定の作業が「ネジ締め」である場合を想定する。但し、各センサ装置11~14の装着部位や所定の作業の内容は、上記した事項に限定されるものでない。 In this embodiment, as shown in FIG. 1, each of the sensor devices 11 to 14 is composed of a person UL who has a low proficiency level for a predetermined task (hereinafter referred to as a "subject") and a person UL who is proficient in the predetermined task. Right hand (right arm), left hand (left arm) , abdomen, test subject UL and expert UH with a highly skilled person (hereinafter referred to as "expert") UH assume. Further, in this embodiment, it is assumed that the above-described predetermined work is "screw tightening". However, the attachment sites of the sensor devices 11 to 14 and the contents of the predetermined work are not limited to those described above.

情報処理装置16は、データ送受信機15を介して、各センサ装置11~14によって測定された被験者の動作データ(以下、「被験者動作データ」と表記する)と、熟練者の動作データ(以下、「熟練者動作データ」と表記する)とを取得すると、被験者動作データ及び熟練者動作データに基づいて、所定の作業の習熟度を高めるためにすべき事項を判定・選択し、その結果を動作改善指示として被験者Uに提示する動作改善促進処理を実行する。なお、被験者動作データ及び熟練者動作データは、各センサ装置11~14によって測定された生の動作データであっても良いし、生の動作データに対して加工が施された動作データであっても良い。 The information processing device 16 transmits, via the data transmitter/receiver 15, motion data of the subject measured by the sensor devices 11 to 14 (hereinafter referred to as "subject motion data") and expert motion data (hereinafter referred to as "expert operation data") is acquired, based on the subject operation data and the expert operation data, items to be determined and selected in order to increase the proficiency of the predetermined work, and the results are used in the operation. A motion improvement prompting process to be presented to the subject UL as an improvement instruction is executed. The motion data of the subject and the motion data of the expert may be raw motion data measured by the sensor devices 11 to 14, or may be motion data obtained by processing the raw motion data. Also good.

図2は、情報処理装置16のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of the hardware configuration of the information processing device 16. As shown in FIG.

情報処理装置16は、図2に示すように、CPU21、システムコントローラ22、主メモリ23、グラフィクスコントローラ24、BIOS-ROM25、不揮発性メモリ26、無線通信デバイス27、エンベデッドコントローラ(EC)28等を備え、例えば、パーソナルコンピュータ(PC)等がこれに該当する。なお、本実施形態では、情報処理装置16がPCである場合を想定して説明するが、これに限定されず、情報処理装置16は、タブレットコンピュータやスマートフォン、各種ウェアラブルデバイス等であっても良い。 As shown in FIG. 2, the information processing device 16 includes a CPU 21, a system controller 22, a main memory 23, a graphics controller 24, a BIOS-ROM 25, a nonvolatile memory 26, a wireless communication device 27, an embedded controller (EC) 28, and the like. , for example, a personal computer (PC). In this embodiment, the information processing device 16 is assumed to be a PC, but is not limited to this, and the information processing device 16 may be a tablet computer, a smart phone, various wearable devices, or the like. .

CPU21は、情報処理装置16内の各種モジュールの動作を制御するプロセッサである。CPU21は、不揮発性メモリ26から主メモリ23にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)や各種アプリケーションプログラムが含まれる。アプリケーションプログラムには、動作改善促進プログラムが含まれ、この動作改善促進プログラムが、CPU21によって実行されることで、上記した動作改善促進処理は実現される。 The CPU 21 is a processor that controls operations of various modules in the information processing device 16 . The CPU 21 executes various software loaded from the nonvolatile memory 26 to the main memory 23 . These software include an operating system (OS) and various application programs. The application programs include an operation improvement promotion program, and the operation improvement promotion process is realized by the CPU 21 executing the operation improvement promotion program.

CPU21は、BIOS-ROM25に記憶された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。 CPU 21 also executes a basic input/output system (BIOS) stored in BIOS-ROM 25 . BIOS is a program for hardware control.

システムコントローラ22は、CPU21のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ22には、主メモリ23をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ22は、PCI EXPRESS規格のシリアルバス等を介してグラフィクスコントローラ24との通信を行う機能も有している。 The system controller 22 is a device that connects between the local bus of the CPU 21 and various components. The system controller 22 also incorporates a memory controller for controlling access to the main memory 23 . The system controller 22 also has a function of communicating with the graphics controller 24 via a PCI EXPRESS standard serial bus or the like.

グラフィクスコントローラ24は、情報処理装置16に設けられるディスプレイモニタ(LCD)や、情報処理装置16に接続されるディスプレイモニタを制御する表示コントローラである。 The graphics controller 24 is a display controller that controls a display monitor (LCD) provided in the information processing device 16 and a display monitor connected to the information processing device 16 .

無線通信デバイス27は、無線LANまたは3G・4G移動通信等の無線通信を実行するように構成されたデバイスである。EC28は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータであり、ユーザの操作に応じて情報処理装置16のパワーオン・パワーオフを行う機能を有している。 The wireless communication device 27 is a device configured to perform wireless communication such as wireless LAN or 3G/4G mobile communication. The EC 28 is a one-chip microcomputer including an embedded controller for power management, and has a function of powering on/powering off the information processing device 16 according to user's operation.

図3は、動作改善促進プログラムの機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the functional configuration of the performance improvement promotion program.

動作改善促進プログラムは、機能部として、被験者データ取得部101、熟練者データ取得部102、類似性判定部103、動作改善指示選択部104及び提示部105等を備える。以下では、各機能部101~105について詳しく説明すると共に、動作改善指示データベース201についても詳しく説明する。動作改善指示データベース201は、情報処理装置16内のストレージデバイス、情報処理装置16に外付けされたストレージデバイスまたはストレージサービス等を提供するクラウド上のサーバ装置、等によって構成される。 The motion improvement promotion program includes, as functional units, a subject data acquisition unit 101, an expert data acquisition unit 102, a similarity determination unit 103, a motion improvement instruction selection unit 104, a presentation unit 105, and the like. The functional units 101 to 105 will be described in detail below, and the operation improvement instruction database 201 will also be described in detail. The operation improvement instruction database 201 is configured by a storage device within the information processing apparatus 16, a storage device externally attached to the information processing apparatus 16, or a cloud server apparatus that provides storage services or the like.

被験者データ取得部101は、被験者Uに装着されたセンサ装置11a~14aから被験者動作データと当該被験者動作データに付随する付随データとを取得する。より詳しくは、被験者データ取得部101は、被験者Uに装着されたセンサ装置11a~14aであることを示す識別データが付された被験者動作データと、当該被験者動作データに付随する付随データとを取得する。例えば、被験者Uの右手に筋電センサが装着されている場合、被験者データ取得部101は、被験者Uの右手に装着された筋電センサから、図4に示すような、右手の筋肉の活動量(筋電相対出力)の時系列データを被験者動作データとして取得する。 The subject data acquisition unit 101 acquires subject movement data and associated data associated with the subject movement data from the sensor devices 11a to 14a attached to the subject UL . More specifically, the subject data acquisition unit 101 acquires subject movement data attached with identification data indicating that the sensor devices 11a to 14a are attached to the subject UL , and accompanying data attached to the subject movement data. get. For example, when a myoelectric sensor is worn on the right hand of the subject UL , the subject data acquisition unit 101 acquires the muscle strength of the right hand as shown in FIG. Time-series data of the amount of activity (relative myoelectric output) is acquired as subject motion data.

なお、ここでは、被験者Uの右手に筋電センサが装着されており、その筋電センサから被験者動作データと付随データが取得される場合について説明したが、被験者Uが装着しているその他のセンサ装置(例えば、左手及び腹部に装着された筋電センサや、被験者Uが使用する工具に取り付けられた圧力センサ等)からも同様に、被験者動作データと付随データは取得される。このとき、被験者データ取得部101は、各センサ装置11a~14aから被験者動作データを取得するタイミングを同期した上で、各センサ装置11a~14aから被験者動作データを取得する方が好ましい。 It should be noted that, here, a case where a myoelectric sensor is worn on the right hand of the subject UL , and the subject movement data and accompanying data are acquired from the myoelectric sensor, is described. (For example, myoelectric sensors attached to the left hand and abdomen, pressure sensors attached to tools used by the subject UL , etc.) similarly acquire subject movement data and associated data. At this time, it is preferable that the subject data acquiring unit 101 acquires the subject motion data from each of the sensor devices 11a to 14a after synchronizing the timing of acquiring the subject motion data from each of the sensor devices 11a to 14a.

熟練者データ取得部102は、被験者データ取得部101と同様に、熟練者Uに装着されるセンサ装置11b~14bから熟練者動作データ(換言すると、上記した識別データが付されていない熟練者動作データ)とその付随データを取得する。なお、熟練者データ取得部102もまた、各センサ装置11b~14bから熟練者動作データを取得するタイミングを同期した上で、各センサ装置11b~14bから熟練者動作データを取得する方が好ましい。図5は、熟練者Uの右手に装着された筋電センサから取得される右手の筋肉の活動量の時系列データの一例を示している。 Similarly to the subject data acquisition unit 101, the expert data acquisition unit 102 acquires expert operation data (in other words, expert operation data to which the above identification data is not attached) from the sensor devices 11b to 14b attached to the expert UH . motion data) and its accompanying data. It is preferable that the expert data acquisition unit 102 also acquires the expert action data from each of the sensor devices 11b to 14b after synchronizing the timing of acquiring the expert action data from each of the sensor devices 11b to 14b. FIG. 5 shows an example of time-series data of the amount of muscle activity of the right hand acquired from the myoelectric sensor worn on the right hand of the expert UH .

被験者データ取得部101及び熟練者データ取得部102によって取得された動作データ及びその動作データに付随する付随データは、類似性判定部103に出力される。 The motion data acquired by the subject data acquisition unit 101 and the expert data acquisition unit 102 and the accompanying data associated with the motion data are output to the similarity determination unit 103 .

類似性判定部103は、被験者データ取得部101から出力される被験者動作データと、熟練者データ取得部102から出力される熟練者動作データとの入力を受けると、これら動作データと共に入力された付随データによって示されるセンサ種別及び装着部位が共に同一の被験者動作データと熟練者動作データとを比較して、これら動作データの類似性を判定する。 When the similarity determination unit 103 receives the input of the subject motion data output from the subject data acquisition unit 101 and the expert motion data output from the expert data acquisition unit 102, the similarity determination unit 103 determines the accompanying data input together with the motion data. The motion data of the subject and the motion data of the expert having the same sensor type and wearing site indicated by the data are compared to determine the similarity of the motion data.

より詳しくは、類似性判定部103は、動作データが図4及び図5に示したような時系列データの場合、図6に示すように被験者動作データと熟練者動作データとを重ね合わせて比較し、振幅、周波数、位相、変位といった各種項目に順に着目して、動作データの類似性を判定する。例えば、振幅に着目した場合、類似性判定部103は、被験者動作データの最大ピークの振幅と、熟練者動作データの最大ピークの振幅とに所定値以上の差分が検出されたか否かを判定する。なお、所定値は、項目毎に予め設定されているものとし、類似性判定部103は、同様な処理を項目毎に実行する。 More specifically, when the motion data is time-series data as shown in FIGS. 4 and 5, the similarity determination unit 103 superimposes the motion data of the subject and the motion data of the expert as shown in FIG. Then, focusing on various items such as amplitude, frequency, phase, and displacement in order, the similarity of motion data is determined. For example, when focusing on the amplitude, the similarity determination unit 103 determines whether or not a difference equal to or larger than a predetermined value is detected between the amplitude of the maximum peak of the motion data of the subject and the amplitude of the maximum peak of the motion data of the expert. . Note that the predetermined value is set in advance for each item, and the similarity determination unit 103 performs similar processing for each item.

なお、類似性判定部103において、被験者動作データと熟練者動作データとを正確に重ね合わせるためには、被験者動作データと熟練者動作データとを同期させる必要がある。同期方法としては、2つの動作データに共通する急激なデータの立ち上がりを検出し、立ち上がり時刻の位置を合わせる方法がある。例えば、センサ装置の1つが、3種類のセンサ信号(x軸、y軸、z軸方向の時系列信号)を取得可能な3軸加速度センサの場合、単位時間の信号の2乗で計算可能なパワーを3つのセンサ信号で加算した値が、一定の閾値以上だけ増加した時刻を立ち上がり時刻とみなして、2つの動作データを同期させる。これによれば、別時刻に測定された被験者動作データと熟練者動作データとを正確に重ね合わせることができる。 In the similarity determination unit 103, in order to accurately superimpose the motion data of the subject and the motion data of the expert, it is necessary to synchronize the motion data of the subject and the motion data of the expert. As a synchronization method, there is a method of detecting an abrupt rise in data common to two motion data and aligning the positions of the rise times. For example, if one of the sensor devices is a 3-axis acceleration sensor that can acquire three types of sensor signals (time-series signals in the x-axis, y-axis, and z-axis directions), the square of the signal per unit time can be used for calculation. The time when the value obtained by adding the power of the three sensor signals increases by a certain threshold value or more is regarded as the rise time, and the two operation data are synchronized. According to this, the motion data of the subject and the motion data of the expert measured at different times can be accurately superimposed.

上記した判定の結果、所定値以上の差分が検出された項目がある場合、類似性判定部103は、被験者Uには改善対象となり得る動作があると判定し、所定値以上の差分が検出された項目と、当該差分が熟練者Uを基準としたときにどのような差分であるかとを示す判定結果データ(例えば、[項目]振幅が[どのような差分か]小さい、[項目]タイミング(位相)が[どのような差分か]早い、等)を動作改善指示選択部104に出力する。なお、類似性判定部103は、判定結果データに加えて、当該判定時に使用した動作データに付随する付随データ(換言すると、比較対象となった動作データと共に取得された付随データ)も共に動作改善指示選択部104に出力する。 As a result of the above determination, if there is an item for which a difference equal to or greater than a predetermined value is detected, the similarity determination unit 103 determines that subject UL has a motion that can be improved, and detects a difference equal to or greater than the predetermined value. and determination result data indicating what kind of difference the difference is when the difference is based on the expert UH (for example, [item] amplitude is [what kind of difference] is small, [item] The timing (phase) [what kind of difference] is early, etc.) is output to the operation improvement instruction selection unit 104 . Note that, in addition to the determination result data, the similarity determination unit 103 also uses accompanying data (in other words, accompanying data acquired together with the action data to be compared) that accompanies the action data used for the decision to improve the action. Output to instruction selection unit 104 .

なお、上記した判定の結果、複数の項目について所定値以上の差分が検出された場合、類似性判定部103は、最も差分の大きな項目に関する判定結果データだけを、または最も差分の大きな項目に関する判定結果データから順に複数の判定結果データを動作改善指示選択部104に出力しても良い。これによれば、早急に改善すべき動作を対象にして、動作改善指示を被験者Uに提示することができるようになる。一方で、類似性判定部103は、最も差分の小さな項目に関する判定結果データだけを、または最も差分の小さな項目に関する判定結果データから順に複数の判定結果データを動作改善指示選択部104に出力しても良い。これによれば、改善しやすい動作を対象にして、動作改善指示を被験者Uに提示することができるようになる。 Note that, as a result of the determination described above, when a difference equal to or greater than a predetermined value is detected for a plurality of items, the similarity determination unit 103 only determines the determination result data regarding the item with the largest difference, or the determination result data regarding the item with the largest difference. A plurality of determination result data may be output to the operation improvement instruction selection unit 104 in order from the result data. According to this, it becomes possible to present a motion improvement instruction to the subject UL targeting a motion that should be improved immediately. On the other hand, similarity determination section 103 outputs only the determination result data regarding the item with the smallest difference, or a plurality of determination result data regarding the item with the smallest difference to operation improvement instruction selection section 104. Also good. According to this, it becomes possible to present a motion improvement instruction to the subject UL targeting motions that are easy to improve.

また、ここでは、動作データが時系列データである場合を想定して説明したが、動作データが時系列データではなく、1つの測定値である場合、その測定値が所定値以上であるか否かを判定することで、被験者Uに改善対象となり得る動作があるか否かを判定する。 Further, here, the description has been made on the assumption that the motion data is time-series data. It is determined whether or not the subject UL has a motion that can be improved.

さらに、本実施形態では、類似性判定部103は、被験者Uに改善対象となり得る動作を提示するために、被験者動作データと熟練者動作データとにおける所定値以上の差分を検出するとしたが、これに限定されず、例えば、被験者Uに改善する必要のない動作、つまり、このまま続けるべき動作を提示するために、被験者動作データと熟練者動作データとにおいて一致する部分をさらに検出するとしても良い。 Furthermore, in the present embodiment, the similarity determination unit 103 detects a difference equal to or larger than a predetermined value between the motion data of the subject and the motion data of the expert in order to present motions that can be improved to the subject UL . Not limited to this, for example, in order to present the subject UL with a motion that does not need to be improved, that is, a motion that should be continued, even if a matching portion is further detected between the subject motion data and the expert motion data. good.

これによれば、改善対象となり得る動作に加えて、このまま続けるべき動作もまた被験者Uに提示することができるので、被験者Uは、自身の悪い部分だけでなく良い部分も合わせて知ることができ、被験者Uの動作改善へのモチベーション維持ないしは向上の効果を期待することができる。 According to this, in addition to motions that can be improved, motions that should be continued can also be presented to the subject UL , so that the subject UL can know not only the bad parts of himself but also the good parts. Therefore, it is possible to expect the effect of maintaining or improving the motivation of the subject UL to improve the movement.

ここで、動作改善指示選択部104について説明する前に、動作改善指示データベース201について説明する。 Here, before explaining the action improvement instruction selection unit 104, the action improvement instruction database 201 will be explained.

動作改善指示データベース201は、図7に示すように、動作改善指示選択部104から出力される文字列データを、動作改善指示選択部104に入力される付随データ及び判定結果データに関連づけた動作改善指示データを記憶している。 7, the action improvement instruction database 201 associates the character string data output from the action improvement instruction selection unit 104 with the accompanying data and the determination result data input to the action improvement instruction selection unit 104. It stores instruction data.

例えば、図7の動作改善指示データa1によれば、動作改善指示選択部104に入力される付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、動作改善指示選択部104に入力される判定結果データによって「振幅が小さい」ことが示される場合、「右手に力を入れてください」という表現の文字列データが、動作改善指示選択部104から出力される文字列データとして好適であることが示される。 For example, according to the motion improvement instruction data a1 in FIG. 7, the sensor type indicated by the accompanying data input to the action improvement instruction selection unit 104 is the "myoelectric sensor", and the attachment site indicated by the accompanying data is " right hand” and the determination result data input to the motion improvement instruction selection unit 104 indicates that the “amplitude is small”, the character string data of the expression “please apply force to the right hand” is the motion improvement instruction. It is indicated that it is suitable as character string data output from the selection unit 104 .

なお、ここでは、図7の動作改善指示データa1のみを例にとって説明したが、図7に示すその他の動作改善指示データa2~a4においても同様であるため、ここではその詳しい説明は省略する。 Here, only the operation improvement instruction data a1 in FIG. 7 has been described as an example, but since the other operation improvement instruction data a2 to a4 shown in FIG. 7 are the same, detailed explanation thereof will be omitted here.

また、本実施形態では、動作改善指示選択部104からの出力として、動作改善指示データに文字列データが含まれている場合を例示したが、これに限定されず、文字列データの代わりに、例えば音声データや画像(映像)データ等が、動作改善指示選択部104からの出力として、動作改善指示データに含まれても良い。さらには、電気や音波、機械的な力を利用した触覚フィードバックのための動作信号が、動作改善指示選択部104からの出力として動作改善指示データに含まれても良い。 Further, in this embodiment, the case where character string data is included in the operation improvement instruction data as an output from the operation improvement instruction selection unit 104 has been exemplified, but the present invention is not limited to this. For example, audio data, image (video) data, or the like may be included in the operation improvement instruction data as an output from the operation improvement instruction selection unit 104 . Furthermore, an action signal for tactile feedback using electricity, sound waves, or mechanical force may be included in the action improvement instruction data as an output from the action improvement instruction selection unit 104 .

動作改善指示選択部104は、類似性判定部103から出力された判定結果データと付随データとの入力を受けると、当該入力された判定結果データ及び付随データに基づいて、動作改善指示データベース201から好適な動作改善指示データを選択し、当該選択された動作改善指示データに含まれる文字列データを取得する。取得された文字列データは、提示部105に出力される。 Upon receiving the input of the determination result data and the accompanying data output from the similarity determining unit 103, the action improvement instruction selection unit 104 selects from the action improvement instruction database 201 based on the inputted judgment result data and accompanying data. Suitable operation improvement instruction data is selected, and character string data included in the selected operation improvement instruction data is obtained. The acquired character string data is output to presentation unit 105 .

提示部105は、動作改善指示選択部104から出力された文字列データの入力を受けると、当該入力された文字列データによって示される文字列を情報処理装置16に設けられたディスプレイモニタまたは情報処理装置16に接続されたディスプレイモニタに表示出力し、当該文字列を、つまり、動作改善指示を被験者Uに提示する。 When the character string data output from the operation improvement instruction selection unit 104 is input, the presentation unit 105 displays the character string indicated by the input character string data on a display monitor provided in the information processing device 16 or an information processing device. The character string is displayed on a display monitor connected to the device 16, and the subject UL is presented with the movement improvement instruction.

なお、提示部105は、動作改善指示選択部104から文字列データの入力を受ける度に、動作改善指示を被験者Uに提示する、つまり、リアルタイムに動作改善指示を被験者Uに提示しても良いし、入力された文字列データを図示しない一時メモリに記憶しておき、所定のタイミングで、当該一時メモリに記憶された文字列データに基づいた動作改善指示を被験者Uに一括して提示するとしても良い。 The presenting unit 105 presents the motion improvement instruction to the subject UL each time the character string data is input from the motion improvement instruction selection unit 104, that is, presents the motion improvement instruction to the subject UL in real time. Alternatively, the input character string data is stored in a temporary memory (not shown), and at a predetermined timing, the subject UL is collectively instructed to improve movement based on the character string data stored in the temporary memory. You may present it.

次に、図8のフローチャートを参照して、以上のような機能構成を有した動作改善促進プログラムによって実現される動作改善促進処理の一例について説明する。 Next, an example of the motion improvement promoting process realized by the motion improvement promoting program having the functional configuration as described above will be described with reference to the flowchart of FIG.

まず、被験者データ取得部101は、被験者Uに装着された各センサ装置11a~14aから被験者動作データ及びこれに付随する付随データを各々取得する(ステップS1)。ステップS1の処理と並行して、熟練者データ取得部102は、熟練者Uに装着された各センサ装置11b~14bから熟練者動作データ及びこれに付随する付随データを各々取得する(ステップS2)。 First, the subject data acquisition unit 101 acquires subject motion data and accompanying data from the sensor devices 11a to 14a attached to the subject UL (step S1). In parallel with the processing of step S1, the expert data acquisition unit 102 acquires the expert operation data and accompanying data from each of the sensor devices 11b to 14b attached to the expert UH (step S2). ).

なお、取得された動作データ及び付随データは、共に類似性判定部103に出力される。 Note that both the acquired motion data and accompanying data are output to the similarity determination unit 103 .

続いて、類似性判定部103は、被験者データ取得部101及び熟練者データ取得部102から出力された動作データ及び付随データの入力を受け付ける。そして、類似性判定部103は、入力された付随データによって示されるセンサ種別及び装着部位が同一の被験者動作データと熟練者動作データとを順に比較し、被験者Uに改善対象となり得る動作があるか否かを判定する(ステップS3)。 Subsequently, the similarity determination unit 103 receives input of the motion data and accompanying data output from the subject data acquisition unit 101 and the expert data acquisition unit 102 . Then, the similarity determination unit 103 sequentially compares the motion data of the subject and the motion data of the expert whose sensor type and wearing site indicated by the input accompanying data are the same, and determines that the subject UL has a motion that can be improved. It is determined whether or not (step S3).

ステップS3の判定の結果、いずれの被験者動作データと熟練者動作データとの間にも所定値以上の差分がなく、被験者Uに改善対象となり得る動作がないと判定された場合(ステップS3のNO)、ここでの処理は終了する。 As a result of the determination in step S3, it is determined that there is no difference equal to or greater than a predetermined value between any of the motion data of the subject and the motion data of the expert, and that the subject UL has no motion that can be improved (step S3). NO), the process ends here.

一方、ステップS3の判定の結果、被験者動作データと熟練者動作データとの間に所定値以上の差分があり、被験者Uに改善対象となり得る動作があると判定された場合(ステップS3のYES)、類似性判定部103は、所定値以上の差分が検出された項目と当該差分が熟練者Uを基準にしたときにどのような差分であるかとを示す判定結果データと、当該被験者動作データ及び当該熟練者動作データに付随した付随データとを動作改善指示選択部104に出力する(ステップS4)。 On the other hand, as a result of the determination in step S3, if there is a difference of a predetermined value or more between the motion data of the subject and the motion data of the expert, and it is determined that the subject UL has a motion that can be improved (YES in step S3). ), the similarity determination unit 103 generates determination result data indicating items in which a difference equal to or greater than a predetermined value is detected and what kind of difference the difference is based on the expert UH , and the motion of the subject. The data and accompanying data attached to the expert action data are output to the action improvement instruction selection unit 104 (step S4).

次に、動作改善指示選択部104は、類似性判定部103から出力された判定結果データ及び付随データの入力を受け付ける。そして、動作改善指示選択部104は、入力された付随データ及び判定結果データの内容を含む動作改善指示データを、好適な動作改善指示データとして、動作改善指示データベース201から選択・取得し、選択・取得された動作改善指示データに含まれる文字列データを提示部105に出力する(ステップS5)。 Next, the operation improvement instruction selection unit 104 receives input of the determination result data and the accompanying data output from the similarity determination unit 103 . Then, the action improvement instruction selection unit 104 selects/acquires the action improvement instruction data including the contents of the input accompanying data and the determination result data from the action improvement instruction database 201 as suitable action improvement instruction data, and selects/acquires the action improvement instruction data. Character string data included in the acquired action improvement instruction data is output to presentation unit 105 (step S5).

しかる後、提示部105は、動作改善指示選択部104から出力された文字列データの入力を受けると、当該文字列データをディスプレイモニタに表示出力し(ステップS6)、ここでの処理は終了する。 After that, when the presentation unit 105 receives the input of the character string data output from the operation improvement instruction selection unit 104, the presentation unit 105 displays and outputs the character string data on the display monitor (step S6), and the processing here ends. .

なお、本実施形態では、被験者Uと熟練者Uとが同時刻に同じ所定の作業を行う場合を想定して説明したが、被験者Uと熟練者Uとが必ずしも同時刻に同じ所定の作業を行えるとは限らない。被験者Uが所定の作業を行ったとしても、同時刻に同じ所定の作業を行う熟練者Uがいないと、熟練者データ取得部102への入力がないことになるため、被験者動作データと比較する対象が得られず、被験者Uに対して動作改善指示を提示することができないという不都合が生じてしまう。 In this embodiment , the subject UL and the expert UH performed the same predetermined work at the same time. It is not always possible to perform the prescribed work. Even if the subject UL performs a predetermined task, if there is no expert UH who performs the same predetermined task at the same time, there will be no input to the expert data acquisition unit 102. An object to be compared cannot be obtained, and an inconvenience arises in that a movement improvement instruction cannot be presented to the subject UL .

このため、図9に示すように、熟練者データ取得部102の代わりに、熟練者動作データを予め記憶しておく動作データベース202が別途設けられても良い。 For this reason, as shown in FIG. 9, instead of the expert data acquisition unit 102, a motion database 202 that stores expert motion data in advance may be separately provided.

動作データベース202には、図10に示すように、熟練者動作データと、付随データとを関連づけた動作データが記憶される。なお、この場合における付随データは、上記したセンサ種別及び装着部位に加えて、所定の作業の内容(作業内容)を示すものとする。例えば、図10の動作データb1は、熟練者Uが「筋電センサ」を「右手」に装着して「ネジ締め」を行った場合の熟練者動作データである「熟練者動作データ1」を含む。 As shown in FIG. 10, the action database 202 stores action data in which expert action data and accompanying data are associated with each other. Note that the accompanying data in this case indicates the content of a predetermined work (work content) in addition to the sensor type and mounting site described above. For example, the motion data b1 in FIG. 10 is "expert motion data 1" which is the expert motion data when the expert UH attaches the "myoelectric sensor" to the "right hand" and performs "screw tightening". including.

なお、ここでは、図10の動作データb1のみを例にとって説明したが、図10に示すその他の動作データb2~b4においても同様であるため、ここではその詳しい説明は省略する。 Here, only the motion data b1 in FIG. 10 has been described as an example, but the other motion data b2 to b4 shown in FIG. 10 are also the same, so detailed description thereof is omitted here.

図9に示すように、熟練者データ取得部102の代わりに動作データベース202が別途設けられる場合、熟練者動作データは、類似性判定部103により動作データベース202から取得される。以下に、動作データベース202が設けられる場合の類似性判定部103の機能について説明する。 As shown in FIG. 9 , when a motion database 202 is separately provided instead of the expert data acquisition unit 102 , the expert motion data is acquired from the motion database 202 by the similarity determination unit 103 . The function of the similarity determination unit 103 when the action database 202 is provided will be described below.

類似性判定部103は、被験者データ取得部101から出力される被験者動作データ及びその付随データの入力を受けると、入力された付随データに基づいて、熟練者動作データを動作データベース202から取得する。具体的には、類似性判定部103は、入力された付随データによって示されるセンサ種別、装着部位及び作業内容に関連づけられた熟練者動作データを動作データベース202から取得する。 The similarity determination unit 103 receives the input of subject motion data and its associated data output from the subject data acquisition unit 101, and acquires expert motion data from the motion database 202 based on the input associated data. Specifically, the similarity determination unit 103 acquires from the motion database 202 the expert motion data associated with the sensor type, attachment site, and work content indicated by the input accompanying data.

以上のように、動作データベース202が熟練者データ取得部102の代わりに別途設けられ、類似性判定部103が動作データベース202から熟練者動作データを取得可能な構成とすることで、被験者Uが所定の作業を行う際に熟練者Uがいなかったとしても、被験者Uに対して好適な動作改善指示を提示することができる。 As described above, the motion database 202 is provided separately instead of the expert data acquisition unit 102, and the similarity determination unit 103 is configured to be able to acquire the expert motion data from the motion database 202 . Even if the expert UH is not present when performing a predetermined task, it is possible to present a suitable motion improvement instruction to the subject UL .

一方で、上記のように動作データベース202が別途設けられ、この動作データベース202に、センサ種別、装着部位及び作業内容に関連づけて、模範とすべき1つの熟練者動作データが記憶される場合、次のような不都合が生じる可能性がある。 On the other hand, when the motion database 202 is separately provided as described above, and in this motion database 202, one expert motion data to be taken as a model is stored in association with the sensor type, the mounting site, and the work content. Inconveniences such as

例えば、被験者Uが所定の作業への習熟度が非常に低い初心者である場合、上記した動作データベース202に記憶された熟練者動作データでは、習熟度に大きな乖離があり、改善対象となり得る動作が多数検出されてしまうことが考えられる。この場合、被験者Uに対して提示する動作改善指示が多岐にわたってしまい、被験者Uをかえって混乱させてしまうという不都合が生じ得る。 For example, if the subject UL is a beginner whose proficiency level for a given task is very low, there is a large discrepancy in the proficiency level in the expert motion data stored in the motion database 202 described above, and a motion that can be improved. are likely to be detected. In this case, a wide variety of motion improvement instructions are presented to the subject UL , which may confuse the subject UL .

この不都合を解消するために、動作データベース202に記憶される動作データを、図11に示すようなデータ構造とし、動作改善促進プログラムによって実現される機能部に、図12に示す習熟度取得部106を追加しても良い。 In order to solve this problem, the motion data stored in the motion database 202 has a data structure as shown in FIG. may be added.

図11は、動作データベース202に記憶される動作データのデータ構造の一例を示す図である。図11に示す動作データは、図10に示した動作データとは異なり、熟練者動作データ及び付随データに加えて、習熟度データがさらに関連づけられている。習熟度データは、関連づけられた付随データによって示される作業内容への被験者Uの習熟度を示す。なお、ここでは、習熟度は、1~NのN段階評価であり、値が大きい程、習熟度が高いことを示すものとする。 FIG. 11 is a diagram showing an example of the data structure of motion data stored in the motion database 202. As shown in FIG. The motion data shown in FIG. 11 is different from the motion data shown in FIG. 10 in that proficiency level data is further associated in addition to the expert motion data and accompanying data. The proficiency level data indicates the proficiency level of the subject UL for the work content indicated by the associated accompanying data. Here, the proficiency level is an N-level evaluation from 1 to N, and the higher the value, the higher the proficiency level.

例えば、図11の動作データc1は、熟練者Uが「筋電センサ」を「右手」に装着して「ネジ締め」を行った場合の熟練者動作データであり、習熟度が「3」の被験者U向けの「熟練者動作データ1a」である。一方で、図10の動作データc2は、動作データc1と同様に、熟練者Uが「筋電センサ」を「右手」に装着して「ネジ締め」を行った場合の熟練者動作データではあるが、習熟度が「2」の被験者U向けの「熟練者動作データ1b」である。 For example, the operation data c1 in FIG. 11 is the expert operation data when the expert UH attaches the "myoelectric sensor" to the "right hand" and performs "screw tightening", and the proficiency level is "3". This is the "expert motion data 1a" for the test subject UL . On the other hand, the motion data c2 in FIG. 10 is similar to the motion data c1 when the expert UH attaches the "myoelectric sensor" to the "right hand" and performs "screw tightening". However, it is "expert motion data 1b" for subject UL whose proficiency level is "2".

なお、ここでは、図11の動作データc1,c2のみを例にとって説明したが、図11に示すその他の動作データc3,c4においても同様であるため、ここではその詳しい説明は省略する。 Although only the motion data c1 and c2 shown in FIG. 11 have been described here as an example, the other motion data c3 and c4 shown in FIG.

習熟度取得部106は、被験者Uの習熟度を示す習熟度データを取得し、これを類似性判定部103に出力する機能を有する。なお、習熟度データは、被験者Uが作業を行う現場の監督者が所持する外部装置から取得(入力)されても良いし、被験者データ取得部101によって取得された被験者動作データを解析し、その解析結果として生成されても良い。 The proficiency level acquisition unit 106 has a function of acquiring proficiency level data indicating the proficiency level of the subject UL and outputting it to the similarity determination unit 103 . The proficiency level data may be acquired (input) from an external device possessed by a supervisor at the site where the subject UL works, or the subject movement data acquired by the subject data acquisition unit 101 may be analyzed, It may be generated as the analysis result.

この場合、類似性判定部103は、被験者データ取得部101から出力される被験者動作データ及びその付随データと、習熟度取得部106から出力される習熟度データとの入力を受けると、入力された付随データ及び習熟度データに基づいて、好適な熟練者動作データを動作データベース202から取得する。具体的には、類似性判定部103は、付随データによって示されるセンサ種別、装着部位及び作業内容と、習熟度データによって示される習熟度とを含む動作データ内の熟練者動作データを動作データベース202から取得する。 In this case, when the similarity determination unit 103 receives input of the subject motion data and its associated data output from the subject data acquisition unit 101 and the proficiency level data output from the proficiency level acquisition unit 106, the input Suitable expert motion data is obtained from the motion database 202 based on the accompanying data and the proficiency data. Specifically, the similarity determination unit 103 extracts the expert action data in the action data including the sensor type, attachment part, and work content indicated by the accompanying data, and the proficiency level indicated by the proficiency level data, into the action database 202 . Get from

なお、ここでは、類似性判定部103が、取得された習熟度データによって示される習熟度を含む動作データ内の熟練者動作データを取得するとしたが、これに限定されず、類似性判定部103は、取得された習熟度データによって示される習熟度よりも1段階上の習熟度を含む動作データ内の熟練者動作データを取得するとしても良い。 Here, it is assumed that the similarity determination unit 103 acquires the expert motion data in the motion data including the proficiency level indicated by the acquired proficiency level data. may acquire the expert action data in the action data including the proficiency level one level higher than the proficiency level indicated by the acquired proficiency level data.

また、提示部105は、動作改善指示選択部104からの文字列データに加えて、当該文字列データによって示される動作改善指示を実行することにより「習熟度が1段階向上する」旨の文字列データを提示しても良いし、当該文字列データによって示される動作改善指示を実行することにより「所定の作業の作業時間がM秒短くなる」旨の文字列データを提示しても良い。なお、上記したMの値は、類似性判定部103に入力された習熟度データにより示される習熟度よりも1段階上の習熟度の熟練者動作データを解析することで得られる熟練者Uが所定の作業に要する時間と、類似性判定部103に入力された被験者動作データを解析することで得られる被験者Uが所定の作業に要する時間との差分に相当する。 In addition to the character string data from the action improvement instruction selection unit 104, the presentation unit 105 executes the action improvement instruction indicated by the character string data, thereby generating a character string stating that the proficiency level is improved by one level. Data may be presented, or character string data may be presented to the effect that "working time of a predetermined work will be shortened by M seconds" by executing the operation improvement instruction indicated by the character string data. It should be noted that the value of M described above is obtained by analyzing the expert action data of the expert whose proficiency level is one level higher than the proficiency level indicated by the proficiency level data input to the similarity determination unit 103 . corresponds to the difference between the time required for the predetermined task and the time required for the subject UL to perform the predetermined task obtained by analyzing the subject motion data input to the similarity determination unit 103 .

以上のように、同じ作業内容であっても、習熟度毎に段階分けされた熟練者動作データを記憶する動作データベース202が設けられ、類似性判定部103が動作データベース202から被験者Uの習熟度に適した熟練者動作データを取得可能な構成とすることで、習熟度の大きく乖離した熟練者動作データが被験者動作データの比較対象となることを防ぐことができ、被験者Uの段階的な習熟度向上を実現することができる。 As described above, the motion database 202 is provided to store expert motion data classified according to proficiency level even for the same work content. By adopting a configuration capable of acquiring motion data of an expert suitable for the level of proficiency, it is possible to prevent the motion data of an expert whose proficiency level is greatly deviated from being compared with the motion data of the subject . It is possible to improve proficiency.

なお、ここでは、被験者Uにとって好適な熟練者動作データが習熟度に応じて選択される場合を例示したが、これに限定されず、例えば、性別や年齢、身長、体重、作業従事年数等に応じて好適な熟練者動作データが選択されても良い。 Here, the case where the expert motion data suitable for the subject UL is selected according to the proficiency level is exemplified, but the present invention is not limited to this. Appropriate expert motion data may be selected according to.

以上説明した第1の実施形態によれば、情報処理装置16は、所定の作業時の動作に関し、被験者Uと熟練者Uとの類似性を判定し、被験者Uに対し、好適な動作改善指示を提示可能な構成を備えているので、動作訓練の効率化や必要な技術会得の短縮化を期待することができる。<第2の実施形態>
次に、第2の実施形態について説明する。本実施形態では、図3に示す動作改善促進プログラムに、図13に示す動作推定部107がさらに備えられている場合について説明する。なお、以下の説明においては、主に第1の実施形態との相違点に着目し、同一の構成については同一の符号を付して説明を省略することがある。また、本実施形態において、付随データは、センサ種別、装着部位及び作業内容を示すものとする。
According to the first embodiment described above, the information processing device 16 determines the similarity between the subject UL and the expert UH regarding the motions during a predetermined work, and gives the subject UL a suitable Since it has a configuration capable of presenting motion improvement instructions, it can be expected to improve the efficiency of motion training and shorten the required skill acquisition. <Second embodiment>
Next, a second embodiment will be described. In this embodiment, a case will be described in which the motion improvement promoting program shown in FIG. 3 is further provided with a motion estimation unit 107 shown in FIG. Note that, in the following description, focusing mainly on the differences from the first embodiment, the same reference numerals are given to the same configurations, and the description may be omitted. Also, in this embodiment, the accompanying data indicates the type of sensor, the site where the sensor is attached, and the content of work.

図13は、第2の実施形態に係る動作改善促進プログラムの機能構成の一例を示すブロック図である。 FIG. 13 is a block diagram showing an example of the functional configuration of an operation improvement promotion program according to the second embodiment.

動作推定部107は、被験者データ取得部101から出力される被験者動作データ及び付随データの入力を受けると、当該被験者動作データから特徴量を抽出し、この特徴量を基に、事前に学習させておいた学習結果を用いて、公知のニューラルネットワーク、SVM(Support Vector Machine)、ランダムフォレスト等の機械学習・判別分析により、被験者Uの動作を推定する。 The motion estimating unit 107 receives the input of the subject motion data and the accompanying data output from the subject data acquisition unit 101, extracts feature amounts from the subject motion data, and performs pre-learning based on the feature amounts. The motion of the subject UL is estimated by machine learning and discriminant analysis such as a known neural network, SVM (Support Vector Machine), random forest, etc., using the obtained learning results.

例えば、入力された付随データにより示されるセンサ種別が「筋電センサ」であり、装着部位が「右手」であり、作業内容が「ネジ締め」である場合、動作推定部107は、入力された被験者動作データから特徴量を抽出し、この特徴量を基に、事前に学習させておいた学習辞書を用いて、被験者Uの動作が「握る」、「放す」、「捻る」のいずれに該当するかを判定することで、被験者Uの動作を推定する。 For example, when the sensor type indicated by the input accompanying data is "myoelectric sensor", the wearing part is "right hand", and the work content is "screw tightening", motion estimation unit 107 A feature amount is extracted from the motion data of the subject, and based on this feature amount, a learning dictionary that has been learned in advance is used to determine whether the motion of the subject UL is "grip", "release", or "twist". The motion of the subject UL is estimated by determining whether it is applicable.

動作推定部107は、被験者Uの動作種別を示す推定結果データを、入力された被験者動作データに付加した(ラベル付けした)上で、類似性判定部103に出力する。例えば、動作推定部107は、図14に示す被験者動作データの区間Aにおける被験者Uの動作が「捻る」であると推定した場合、当該区間Aにおける被験者Uの動作が「捻る」であることが分かるようなラベル付けをした上で、被験者動作データを類似性判定部103に出力する。 The motion estimating unit 107 adds (labels) the input subject motion data with estimation result data indicating the motion type of the subject UL , and outputs the data to the similarity determining unit 103 . For example, when the motion estimating unit 107 estimates that the motion of the subject UL in the section A of the subject motion data shown in FIG. The motion data of the subject is output to the similarity determination unit 103 after being labeled so that the data can be understood.

なお、動作推定部107は、熟練者データ取得部102から出力される熟練者動作データに対しても同様な処理を実行し、熟練者Uの動作種別を示す推定結果データを、入力される熟練者動作データにラベル付けした上で、類似性判定部103に出力する。 The motion estimating unit 107 also performs similar processing on the expert motion data output from the expert data acquisition unit 102, and receives estimation result data indicating the type of motion of the expert UH . After labeling the expert action data, the label is output to the similarity determination unit 103 .

動作推定部107によって被験者動作データ及び熟練者動作データに被験者U及び熟練者Uの動作種別を示すラベル付けが行われることにより、次のような利点を得ることができる。 The following advantages can be obtained by labeling the motion data of the subject and the motion data of the expert by the motion estimating unit 107 to indicate the type of motion of the subject UL and the expert UH .

類似性判定部103は、被験者動作データ及び熟練者動作データが時系列データである場合、これら動作データを重ね合わせて比較し、これら動作データの類似性を判定する。しかしながら、被験者動作データと熟練者動作データとでは、比較したい動作の発生時間にズレが生じ得るため、これら動作データをそのまま重ね合わせて比較することができないという不都合がある。このため、被験者データ取得部101が被験者動作データを取得するタイミングと、熟練者データ取得部102が熟練者動作データを取得するタイミングとを予め同期させておいたり、取得された被験者動作データ及び熟練者動作データの頭を揃えたりする処理が必要になってくる。 When the motion data of the subject and the motion data of the expert are time-series data, the similarity determination unit 103 superimposes and compares the motion data to determine the similarity of the motion data. However, since there may be a time lag between the motion data of the subject and the motion data of the expert, the motion data cannot be directly superimposed for comparison. For this reason, the timing at which the subject data acquisition unit 101 acquires the subject motion data and the timing at which the expert data acquisition unit 102 acquires the expert motion data may be synchronized in advance, or the acquired subject motion data and the skill level may be adjusted. It becomes necessary to perform processing such as aligning the heads of the user motion data.

これに対し、動作推定部107によって被験者動作データ及び熟練者動作データに被験者U及び熟練者Uの動作種別を示すラベル付けが行われることにより、例えば図15に示すように、比較したい動作の発生時間にズレが生じていたとしても、比較したい区間のみを抽出して容易に比較することが可能になる。 On the other hand, the motion estimating unit 107 labels the motion data of the subject and the motion data of the expert to indicate the motion types of the subject UL and the expert UH . Even if there is a deviation in the occurrence time of , it is possible to easily compare by extracting only the section to be compared.

また、上記した第1の実施形態では、動作改善指示選択部104により好適な動作改善指示データが動作改善指示データベース201から選択・取得され、被験者Uへの動作改善指示が一意に決定される場合を例示したが、動作推定部107による推定結果データを使用することで、より細やかな動作改善指示を被験者Uに対して提示することも可能になる。 In the above-described first embodiment, the movement improvement instruction selection unit 104 selects and acquires suitable movement improvement instruction data from the movement improvement instruction database 201, and uniquely determines the movement improvement instruction to the subject UL . Although the case has been exemplified, by using the estimation result data from the motion estimation unit 107, it is also possible to present a more detailed motion improvement instruction to the subject UL .

この場合、図16に示すように、図13に示す動作改善指示データベース201に代えて、副詞表現データベース203が設けられると共に、動作改善指示選択部104に代えて、動作改善指示生成部108が機能部として設けられる。 In this case, as shown in FIG. 16, an adverbial expression database 203 is provided instead of the action improvement instruction database 201 shown in FIG. provided as part of

副詞表現データベース203は、図17に示すように、付随データ(の一部)と、判定結果データと、推定結果データと、副詞表現とを関連づけた副詞表現データが記憶される。例えば図17の副詞表現データd1によれば、付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、判定結果データが「振幅が小さい」旨を示し、推定結果データによって示される動作種別が「握る」である場合の副詞表現は「強く」であることが示される。また、図17の副詞表現データd2によれば、付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、判定結果データが「タイミングが早い」旨を示し、推定結果データによって示される動作種別が「捻る」である場合の副詞表現は「ゆっくり」であることが示される。 As shown in FIG. 17, the adverbial expression database 203 stores adverbial expression data in which (part of) accompanying data, determination result data, estimation result data, and adverbial expressions are associated with each other. For example, according to the adverb expression data d1 in FIG. 17, the sensor type indicated by the accompanying data is "myoelectric sensor", the mounting site indicated by the accompanying data is "right hand", and the determination result data is "amplitude When the action type indicated by the estimation result data is "grasp", the adverb expression is "strongly". Further, according to the adverb expression data d2 of FIG. 17, the sensor type indicated by the accompanying data is "myoelectric sensor", the mounting site indicated by the accompanying data is "right hand", and the determination result data is "timing sensor". is fast", and the adverb expression is "slowly" when the action type indicated by the estimation result data is "twist".

図16に示す動作改善指示生成部108は、類似性判定部103から出力される判定結果データ及び付随データと、類似性判定部103によって判定時に使用された動作データに付加された推定結果データ(換言すると、比較対象となった動作データに付加された推定結果データ)との入力を受けると、入力された各データと副詞表現データベース203とに基づいて、動作改善指示を生成する。 The motion improvement instruction generation unit 108 shown in FIG. 16 includes the determination result data and accompanying data output from the similarity determination unit 103, and the estimation result data ( In other words, upon receiving the input of the estimation result data added to the motion data to be compared, the motion improvement instruction is generated based on each of the input data and the adverb expression database 203 .

より詳しくは、動作改善指示生成部108は、図18(a)に示すように、入力された付随データによって示される装着部位を改善対象となる部位として認識する。また、動作改善指示生成部108は、図18(b)に示すように、入力された推定結果データによって示される動作種別を改善対象となる動作として認識する。さらに、動作改善指示生成部108は、図18(c)に示すように、入力された付随データ、判定結果データ及び推定結果データに基づいて、副詞表現データベース203から好適な副詞表現データを選択・取得し、被験者Uに対して提示する動作改善指示に付加する副詞表現を決定する。 More specifically, as shown in FIG. 18(a), the action improvement instruction generation unit 108 recognizes the attachment site indicated by the input accompanying data as the site to be improved. Further, as shown in FIG. 18B, the motion improvement instruction generation unit 108 recognizes the motion type indicated by the input estimation result data as a motion to be improved. Furthermore, as shown in FIG. 18C, the action improvement instruction generating unit 108 selects and selects suitable adverbial expression data from the adverbial expression database 203 based on the input accompanying data, determination result data, and estimation result data. An adverbial expression to be acquired and added to the motion improvement instruction to be presented to the subject UL is determined.

動作改善指示生成部108は、予め設定された論理にしたがって、認識・決定された改善対象となる部位、改善対象となる動作、及び副詞表現を組み合わせて、動作改善指示を生成する。詳しくは、動作改善指示生成部108は、「[部位]を(に)[副詞表現][動作]して下さい」といった論理にしたがって、動作改善指示を生成する。 The action improvement instruction generation unit 108 generates an action improvement instruction by combining the recognized/determined site to be improved, the action to be improved, and the adverbial expression according to a preset logic. More specifically, the action improvement instruction generating unit 108 generates the action improvement instruction according to the logic "Please do [adverb expression] [movement] on [site]."

例えば、入力された付随データによって示されるセンサ種別が「筋電センサ」であり、同付随データによって示される装着部位が「右手」であり、入力された判定結果データが「振幅が小さい」旨を示し、推定結果データによって示される動作種別が「握る」であって、この場合に好適な副詞表現が「強く」である場合、動作改善指示生成部108は、「[右手]を(に)[強く][握って]下さい」という動作改善指示を生成する。生成された動作改善指示を示す動作改善指示データは、提示部105に出力され、提示部105により被験者Uに対して提示される。 For example, the sensor type indicated by the input accompanying data is a "myoelectric sensor", the attachment site indicated by the accompanying data is "right hand", and the input determination result data is "small amplitude". , and if the action type indicated by the estimation result data is "grasp" and the suitable adverb expression in this case is "strongly", the action improvement instruction generation unit 108 generates "[right hand] to (to) [ It generates an action improvement instruction of "please hold tightly". The motion improvement instruction data indicating the generated motion improvement instruction is output to the presentation unit 105 and presented to the subject UL by the presentation unit 105 .

なお、動作改善指示生成部108によって生成される動作改善指示には、段階的な副詞表現が使用されても良い。具体的には、「強く」という副詞表現だけでなく、「非常に強く」や「やや強く」といった段階的な副詞表現が使用されても良い。 Note that step-by-step adverb expressions may be used for the action improvement instruction generated by the action improvement instruction generation unit 108 . Specifically, in addition to the adverbial expression "strongly", graded adverbial expressions such as "very strongly" and "somewhat strongly" may be used.

この場合、類似性判定部103は、被験者動作データと熟練者動作データとの間に単に所定値以上の差分があるか否かを判定するのではなく、段階的に設定された閾値に基づいた判定を行う。例えば段階的な閾値として第1閾値及び第2閾値(但し、第1閾値<第2閾値である)が設定されている場合、類似性判定部103は、被験者動作データと熟練者動作データとの間に第1閾値以上、第2閾値未満の差分があるか否か、あるいは、第2閾値以上の差分があるか否かを判定する。例えば、被験者動作データが熟練者動作データに比べて振幅が小さく、この差分が、第1閾値以上、第2閾値未満である場合、類似性判定部103は、「振幅が小さい」旨の判定結果データを出力し、上記差分が、第2閾値以上である場合、類似性判定部103は、「振幅が非常に小さい」旨の判定結果データを出力する。 In this case, the similarity determination unit 103 does not merely determine whether or not there is a difference equal to or greater than a predetermined value between the motion data of the subject and the motion data of the expert, but rather based on thresholds set stepwise. make a judgment. For example, when a first threshold value and a second threshold value (where the first threshold value is less than the second threshold value) are set as stepwise threshold values, the similarity determination unit 103 determines the difference between the motion data of the subject and the motion data of the expert. It is determined whether or not there is a difference greater than or equal to the first threshold and less than the second threshold, or whether or not there is a difference greater than or equal to the second threshold. For example, when the motion data of the subject has a smaller amplitude than the motion data of the expert, and the difference is greater than or equal to the first threshold and less than the second threshold, the similarity determination unit 103 determines that the amplitude is small. When the data is output and the difference is equal to or greater than the second threshold, the similarity determination unit 103 outputs determination result data indicating that "amplitude is very small".

このように判定結果データが細やかになることで、副詞表現データベース203に記憶される副詞表現データも細分化することが可能になるため(例えば、判定結果データ「振幅が小さい」には「強く」の副詞表現が関連づけられ、判定結果データ「振幅が非常に小さい」には「非常に強く」の副詞表現が関連づけられる等)、結果的に、動作改善指示生成部108は、段階的な副詞表現を使用した動作改善指示を生成することが可能になる。 Since the judgment result data becomes finer in this way, the adverb expression data stored in the adverb expression database 203 can also be subdivided (for example, the judgment result data "small amplitude" has "strong"). , and the determination result data “very small amplitude” is associated with the adverb “very strong”, etc.). to generate performance improvement instructions using

以上説明した第2の実施形態によれば、情報処理装置16は、被験者U及び熟練者Uの動作種別を推定し、推定された動作種別を示す推定結果データを被験者動作データ及び熟練者動作データにラベル付け可能な動作推定部107をさらに備えているので、被験者動作データと熟練者動作データとの比較を容易に行うことができると共に、被験者Uに対してより細やかな動作改善指示を提示することが可能となる。 According to the second embodiment described above, the information processing device 16 estimates the motion types of the subject UL and the expert UH , and transmits estimation result data indicating the estimated motion types to the subject motion data and the expert. Since the motion estimator 107 capable of labeling the motion data is further provided, the motion data of the subject and the motion data of the expert can be easily compared, and the subject UL can be given more detailed motion improvement instructions. can be presented.

以上説明した少なくとも1つの実施形態によれば、作業員(被験者U)の育成を促進可能な情報処理装置、方法及びプログラムを提供することができる。 According to at least one embodiment described above, it is possible to provide an information processing apparatus, method, and program capable of promoting training of workers (subjects U L ).

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 It should be noted that although several embodiments of the invention have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

11~14…センサ装置、15…データ送受信機、16…情報処理装置、101…被験者データ取得部、102…熟練者データ取得部、103…類似性判定部、104…動作改善指示選択部、105…提示部、106…習熟度取得部、107…動作推定部、108…動作改善指示生成部、201…動作改善指示データベース、202…動作データベース、203…副詞表現データベース、U…被験者、U…熟練者。 Reference numerals 11 to 14: sensor device, 15: data transceiver, 16: information processing device, 101: subject data acquisition unit, 102: expert data acquisition unit, 103: similarity determination unit, 104: action improvement instruction selection unit, 105 Presentation unit 106 Proficiency level acquisition unit 107 Action estimation unit 108 Action improvement instruction generation unit 201 Action improvement instruction database 202 Action database 203 Adverb expression database U L Test subject UH …expert.

Claims (8)

複数種別のセンサ装置と通信する情報処理装置であって、
第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得する第1取得手段と、
前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得する第2取得手段と、
前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得する第3取得手段と、
前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加する推定手段と、
前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定する判定手段と、
前記判定手段による判定結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示する提示手段と、
前記判定手段による判定結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択する選択手段と、
前記付随データと前記第2動作データと前記習熟度データとを関連付けて記憶する第2記憶手段と、
を具備し、
前記判定手段は、
前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとする、情報処理装置。
An information processing device that communicates with multiple types of sensor devices,
Acquiring first motion data indicating motions of the first worker when performing a predetermined work from each of the sensor devices, and indicating at least the type of the sensor device, the measurement site, and the content of the predetermined work. a first acquisition means for acquiring each associated data;
A second operation data indicating an operation when a second operator having higher proficiency than the first operator performs the predetermined work is acquired from each of the sensor devices, and a second operation data is acquired from each of the accompanying data. acquisition means;
a third acquisition means for acquiring proficiency level data indicating the proficiency level of the first worker for the predetermined work;
analyzing each of the first motion data and each of the second motion data, and estimating one or more motion types by the first worker and the second worker indicated by the motion data; an estimating means for adding estimation result data capable of identifying the type of motion to each motion data;
determining means for comparing each of the first motion data and each of the second motion data to determine similarity;
presenting means for presenting to the first worker instruction data indicating points to be improved regarding actions in performing a predetermined work according to a determination result by the determining means;
selection means for selecting instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to a determination result by the determination means;
a second storage means for storing the associated data, the second action data, and the proficiency level data in association with each other;
and
The determination means is
Accompanying data acquired together with the first action data, and second action data associated with the acquired proficiency level data, based on the accompanying data and the proficiency level data, the first action data Parts to which estimation result data indicating the same type of motion are added are extracted from the first motion data and the second motion data obtained from the second storage means as objects for comparison, and these motion data are extracted from the first motion data and the second motion data. comparing and detecting a difference between the first motion data and the second motion data and a matching portion between the first motion data and the second motion data to determine the similarity of the motion data; as determination result data.
前記第1記憶手段を更に具備する請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, further comprising said first storage means. 前記第1記憶手段は、
前記付随データと、前記判定結果データと、前記第1作業者に対する動作改善指示とが少なくとも関連づけられた指示データを記憶し、
前記選択手段は、
前記検出された差分が所定値以上の場合に、当該差分に関する判定結果データと、当該差分を検出する際に比較対象となった第1動作データと共に取得された付随データとを含む指示データを、前記第1作業者に対して提示する指示データとして選択する
請求項1に記載の情報処理装置。
The first storage means is
storing instruction data in which at least the accompanying data, the determination result data, and an operation improvement instruction to the first worker are associated;
The selection means is
when the detected difference is equal to or greater than a predetermined value, instruction data including determination result data regarding the difference and accompanying data obtained together with the first motion data to be compared when the difference is detected; The information processing apparatus according to claim 1, wherein the instruction data is selected as the instruction data to be presented to the first operator.
前記判定手段による判定の結果に応じて、前記第1作業者に対する動作改善指示を生成し、これを指示データとする生成手段と、
前記生成される動作改善指示に含まれる副詞表現と、前記判定結果データと、前記付随データと、前記推定結果データとが関連づけられた複数の副詞表現データを記憶する第3記憶手段と、
を更に具備する請求項1に記載の情報処理装置。
generating means for generating a motion improvement instruction for the first worker according to the result of determination by the determining means and using this as instruction data;
a third storage means for storing a plurality of adverbial expression data in which the adverbial expression included in the generated action improvement instruction, the determination result data, the accompanying data, and the estimation result data are associated;
The information processing apparatus according to claim 1, further comprising:
前記生成手段は、
前記検出された差分に関する判定結果データと、当該差分を検出する際に比較対象となった第1動作データと共に取得された付随データと、当該比較対象となった第1動作データに付加された推定結果データとを含む副詞表現データを取得し、
当該付随データによって示される装着部位と、当該推定結果データによって示される動作の種別と、前記取得された副詞表現データによって示される副詞表現とを組み合わせて動作改善指示を生成する
請求項4に記載の情報処理装置。
The generating means is
determination result data relating to the detected difference; accompanying data acquired together with the first motion data to be compared when detecting the difference; and estimation added to the first motion data to be compared Get the adverb expression data containing the result data and
5. The action improvement instruction is generated by combining the wearing part indicated by the accompanying data, the type of action indicated by the estimation result data, and the adverbial expression indicated by the acquired adverbial expression data. Information processing equipment.
前記指示データを表示するディスプレイを更に具備する請求項1乃至請求項5の何れか一項に記載の情報処理装置。 6. The information processing apparatus according to any one of claims 1 to 5, further comprising a display for displaying said instruction data. 複数種別のセンサ装置と通信する情報処理装置によって実行される方法であって、
第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得することと、
前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得することと、
前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得することと、
前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加することと、
前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定することと、
前記判定の結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示することと、
前記判定の結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択することと、
前記付随データと前記第2動作データと前記習熟度データとを関連付けて第2記憶手段に記憶することと、
を具備し、
前記類似性を判定することは、
前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとすることを含む、方法。
A method executed by an information processing device that communicates with multiple types of sensor devices,
Acquiring first motion data indicating motions of the first worker when performing a predetermined work from each of the sensor devices, and indicating at least the type of the sensor device, the measurement site, and the content of the predetermined work. respectively obtaining ancillary data;
Acquiring from each of the sensor devices second motion data indicating motions of a second worker who is more proficient than the first worker when performing the predetermined work, and acquiring each of the accompanying data. ,
Acquiring proficiency level data indicating the proficiency level of the first worker for the predetermined work;
analyzing each of the first motion data and each of the second motion data, and estimating one or more motion types by the first worker and the second worker indicated by the motion data; adding estimation result data capable of identifying the type of motion to each motion data;
comparing each of the first motion data and each of the second motion data to determine similarity;
presenting to the first worker, according to the result of the determination, instruction data indicating points to be improved regarding actions when performing a predetermined work;
Selecting instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to the result of the determination;
associating the accompanying data, the second action data, and the proficiency level data and storing them in a second storage means;
and
Determining the similarity includes:
Accompanying data acquired together with the first action data, and second action data associated with the acquired proficiency level data, based on the accompanying data and the proficiency level data, the first action data Parts to which estimation result data indicating the same type of motion are added are extracted from the first motion data and the second motion data obtained from the second storage means as objects for comparison, and these motion data are extracted from the first motion data and the second motion data. comparing and detecting a difference between the first motion data and the second motion data and a matching portion between the first motion data and the second motion data to determine the similarity of the motion data; as determination result data.
複数種別のセンサ装置と通信する情報処理装置のコンピュータによって実行されるプログラムであって、前記プログラムは前記コンピュータを、
第1作業者が所定の作業を行う際の動作を示す第1動作データを前記各センサ装置から各々取得すると共に、前記センサ装置の種別と測定部位と、前記所定の作業の内容とを少なくとも示す付随データを各々取得する第1取得手段と、
前記第1作業者より習熟度の高い第2作業者が前記所定の作業を行う際の動作を示す第2動作データを前記各センサ装置から各々取得すると共に、前記付随データを各々取得する第2取得手段と、
前記所定の作業に対する前記第1作業者の習熟度を示す習熟度データを取得する第3取得手段と、
前記各第1動作データ及び前記各第2動作データを各々解析して、これら動作データによって示される前記第1作業者及び前記第2作業者による1以上の動作の種別を各々推定し、推定された動作の種別を識別可能な推定結果データを各動作データに付加する推定手段と、
前記各第1動作データ及び前記各第2動作データを比較し、類似性を判定する判定手段と、
前記判定手段による判定の結果に応じて、所定の作業を行う際の動作に関する改善点を示す指示データを、前記第1作業者に対して提示する提示手段と、
前記判定手段による判定結果に応じて、複数の指示データを記憶する第1記憶手段から、前記第1作業者に対して提示する指示データを選択する選択手段と、
前記付随データと前記第2動作データと前記習熟度データとを関連付けて第2記憶手段に記憶する記憶手段として動作させ、
前記判定手段は、
前記第1動作データと共に取得された付随データと、前記取得された習熟度データとに関連づけられた第2動作データを、当該付随データと当該習熟度データとに基づいて、当該第1動作データの比較対象として前記第2記憶手段から取得し、当該第1動作データ及び当該第2動作データから、同一の動作の種別を示す推定結果データが付加された部分を各々抽出して、これら動作データを比較し、当該第1動作データ及び当該第2動作データの差分と、当該第1動作データ及び当該第2動作データの一致する部分とを検出してこれら動作データの類似性を判定し、当該判定の結果を判定結果データとする、プログラム。
A program executed by a computer of an information processing device that communicates with multiple types of sensor devices, the program causing the computer to:
Acquiring first motion data indicating motions of the first worker when performing a predetermined work from each of the sensor devices, and indicating at least the type of the sensor device, the measurement site, and the content of the predetermined work. a first acquisition means for acquiring each associated data;
A second operation data indicating an operation when a second operator having higher proficiency than the first operator performs the predetermined work is acquired from each of the sensor devices, and a second operation data is acquired from each of the accompanying data. acquisition means;
a third acquisition means for acquiring proficiency level data indicating the proficiency level of the first worker for the predetermined work;
analyzing each of the first motion data and each of the second motion data, and estimating one or more motion types by the first worker and the second worker indicated by the motion data; an estimating means for adding estimation result data capable of identifying the type of motion to each motion data;
determining means for comparing each of the first motion data and each of the second motion data to determine similarity;
presenting means for presenting to the first worker, according to the result of the determination by the determining means, instruction data indicating points to be improved regarding actions in performing a predetermined work;
selection means for selecting instruction data to be presented to the first worker from a first storage means for storing a plurality of instruction data according to a determination result by the determination means;
Operate as storage means for associating the accompanying data, the second action data, and the proficiency level data and storing them in a second storage means;
The determination means is
Accompanying data acquired together with the first action data, and second action data associated with the acquired proficiency level data, based on the accompanying data and the proficiency level data, the first action data Parts to which estimation result data indicating the same type of motion are added are extracted from the first motion data and the second motion data obtained from the second storage means as objects for comparison, and these motion data are extracted from the first motion data and the second motion data. comparing and detecting a difference between the first motion data and the second motion data and a matching portion between the first motion data and the second motion data to determine the similarity of the motion data; A program that uses the result of as judgment result data.
JP2021190320A 2017-07-13 2021-11-24 Information processing device, method and program Active JP7268121B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021190320A JP7268121B2 (en) 2017-07-13 2021-11-24 Information processing device, method and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017137258A JP2019020913A (en) 2017-07-13 2017-07-13 Information processing apparatus, method and program
JP2021190320A JP7268121B2 (en) 2017-07-13 2021-11-24 Information processing device, method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017137258A Division JP2019020913A (en) 2017-07-13 2017-07-13 Information processing apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2022031286A JP2022031286A (en) 2022-02-18
JP7268121B2 true JP7268121B2 (en) 2023-05-02

Family

ID=87888399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021190320A Active JP7268121B2 (en) 2017-07-13 2021-11-24 Information processing device, method and program

Country Status (1)

Country Link
JP (1) JP7268121B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123411A (en) 2009-12-14 2011-06-23 Emprie Technology Development LLC Motion analyzer and motion analyzing method
JP2011164694A (en) 2010-02-04 2011-08-25 Nec Corp Device and method for support of standard operation execution
JP2012185695A (en) 2011-03-07 2012-09-27 Univ Of Tsukuba Work management system and work management method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011123411A (en) 2009-12-14 2011-06-23 Emprie Technology Development LLC Motion analyzer and motion analyzing method
JP2011164694A (en) 2010-02-04 2011-08-25 Nec Corp Device and method for support of standard operation execution
JP2012185695A (en) 2011-03-07 2012-09-27 Univ Of Tsukuba Work management system and work management method

Also Published As

Publication number Publication date
JP2022031286A (en) 2022-02-18

Similar Documents

Publication Publication Date Title
US10971029B2 (en) Information processing device, method, and storage medium
MassirisFernández et al. Ergonomic risk assessment based on computer vision and machine learning
KR102097190B1 (en) Method for analyzing and displaying a realtime exercise motion using a smart mirror and smart mirror for the same
US20180178061A1 (en) Rehabilitation compliance devices
JP6710644B2 (en) Motion analysis device, motion analysis method and program
US20160166880A1 (en) Exercise information display system, exercise information display method and computer-readable recording medium
US8113843B2 (en) Apparatus for analyzing operations and method for analyzing operations
US20210286983A1 (en) Estimation method, and computer-readable recording medium recording estimation program
US20200279205A1 (en) Techniques for tailoring fabrication environments based on user, task, and expertise
WO2017150073A1 (en) Work operation analysis system, work operation analysis method, and work operation analysis program
US20240104456A1 (en) Work action recognition system and work action recognition method
KR20140043174A (en) Simulator for horse riding and method for simulation of horse riding
JP7268121B2 (en) Information processing device, method and program
JP2017068430A (en) Adaptability evaluation device, and adaptability evaluation method
JP6999543B2 (en) Interactive Skills Frameworks and methods configured to enable analysis of physically performed skills, including application to distribution of training content.
US10748320B2 (en) Animation simulation of biomechanics
Coruzzolo et al. Comparing semiautomatic rapid upper limb assessments (rula): Azure kinect versus rgb-based machine vision algorithm
JP2022055736A (en) Situation estimation apparatus, server apparatus, situation estimation system, and situation estimation method
US20190005842A1 (en) Information processing apparatus, information processing method, and program
US20200149985A1 (en) Multiple sensor false positive detection
CN104076926B (en) Set up the method and wearable electronic equipment of data transmission link
Negi et al. Real-Time Human Pose Estimation: A MediaPipe and Python Approach for 3D Detection and Classification
EP4331691A1 (en) Movement improvement device, movement improvement method, movement improvement program, and movement improvement system
US20210335114A1 (en) Motion Evaluation System, Motion Evaluation Device, and Motion Evaluation Method
KR20140104158A (en) Stretching coaching system and method for preventing pmusculoskeletal diseases

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230420

R151 Written notification of patent or utility model registration

Ref document number: 7268121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151