JP2018005789A - Work estimation device, work estimation method and work estimation program - Google Patents
Work estimation device, work estimation method and work estimation program Download PDFInfo
- Publication number
- JP2018005789A JP2018005789A JP2016135361A JP2016135361A JP2018005789A JP 2018005789 A JP2018005789 A JP 2018005789A JP 2016135361 A JP2016135361 A JP 2016135361A JP 2016135361 A JP2016135361 A JP 2016135361A JP 2018005789 A JP2018005789 A JP 2018005789A
- Authority
- JP
- Japan
- Prior art keywords
- work
- worker
- estimation
- data
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000013139 quantization Methods 0.000 claims abstract description 34
- 238000003860 storage Methods 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 230000008569 process Effects 0.000 claims description 53
- 230000033001 locomotion Effects 0.000 claims description 18
- 238000009826 distribution Methods 0.000 claims description 15
- 230000002123 temporal effect Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 50
- 238000007726 management method Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 23
- 230000001133 acceleration Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 21
- 238000013500 data storage Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000036544 posture Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 210000000481 breast Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- General Factory Administration (AREA)
Abstract
Description
本発明は、作業推定装置、作業推定方法、および作業推定プログラムに関する。 The present invention relates to a work estimation device, a work estimation method, and a work estimation program.
従来、例えば物流過程や工場、洋上などにおける作業者の作業効率を向上させるための技術が知られている。これに関連して、特許文献1には、主にビニールハウスで作業している作業員の作業履歴を自動的に記録するための技術が記載されている。具体的には、複数のビニールハウスの各出入口に設置されたセンサにより人に反応した入退室時刻に基づいて入退室した作業員を特定し、作業者の入室時刻から退室時刻までの位置情報に基づいて、施設領域内における作業者の作業を記録している。
2. Description of the Related Art Conventionally, techniques for improving the work efficiency of workers in, for example, logistics processes, factories, and offshore are known. In this connection,
特許文献2には、複数の工程を含む生産ラインにおける各工程に関する作業時間の測定開始および測定終了の指示に従って、各工程の作業時間を繰り返して測定し、測定した各工程の作業時間に基づいて生産ラインに含まれる各工程別に平均作業時間を算出して、表示することが記載されている。
According to
特許文献3には、薬局業務の監視システムにおいて、薬局内に設定されたワークエリア毎における業務の様子を撮影することで、業務を行っている作業者および作業者が扱うマーク表示物を撮像し、画像内のマークを認識した場合に、マークの撮影時間、ワークエリアIDを含むインデックスを作成し、画像データをインデックスと関連づけて記憶することが記載されている。 In Patent Document 3, in the pharmacy business monitoring system, the work in each work area set in the pharmacy is photographed to capture the worker performing the business and the mark display object handled by the worker. Further, it is described that when a mark in an image is recognized, an index including a shooting time of the mark and a work area ID is created and image data is stored in association with the index.
特許文献4には、所定のセンサ値の出力値が所定の出力条件に該当するか否かを判定することで、時間と共にイベントデータを抽出し、一連の作業手順である正規作業手順について状態と遷移で示される作業グラフと、実際のイベントデータの時系列情報とから、作業内容を推定することが記載されている。
In
非特許文献1には、工場でのピッキング作業について、専用端末(時計型)を用いて、地磁気または加速度を収集し、作業員による癖など動きの違いを吸収してピッキング作業員の動きをトレースし、ピッキング作業の精度を判断するための手法が記載されている。
Non-Patent
非特許文献2には、胸ポケットに入れたスマートフォンを用いて、棚から荷を取り出すという作業をした際における上体の動かし方(上体の角度)と取りにくさ(アンケート結果)を数値から推定することが記載されている。
しかしながら、上述した特許文献1〜4、および非特許文献1〜2に記載された技術は、一つの作業に含まれる一連の作業要素のそれぞれを推定することをしていない。
However, the techniques described in
さらに、出荷作業には、例えば、台車と移動する、荷をとる、荷を台車に載せる、台車と移動する、荷を台車から下ろす、という一連の作業要素が含まれる。一連の作業要素のそれぞれは、例えば、物品をつかむ、はなす、移動する、止まる等の作業者の基本の動作要素を含む。これらの動作要素は、実際の作業現場の状況に応じて大きく異なる場合が多い。具体的には、動作要素は、作業の場所、物品が載置されている棚までの距離、棚の高さ、作業者の体格等により大きく異なる可能性が高い。そのため、加速度や角度の経時的なデータから動作要素の内容を推定しようとすると、個人差による誤差が大きく、精度よく作業を推定することは困難であった。 Further, the shipping operation includes a series of work elements such as moving with a cart, taking a load, placing a load on the cart, moving with the cart, and unloading the load from the cart. Each of the series of work elements includes, for example, the basic operation elements of the worker such as grabbing, releasing, moving, and stopping the article. These operating elements often vary greatly depending on the actual situation at the work site. Specifically, there is a high possibility that the motion elements greatly differ depending on the place of work, the distance to the shelf on which the article is placed, the height of the shelf, the physique of the worker, and the like. For this reason, when trying to estimate the contents of the motion element from the time-dependent data of acceleration and angle, there is a large error due to individual differences, and it is difficult to accurately estimate the work.
本発明は、このような事情を考慮してなされたものであり、作業に含まれる一連の作業要素を高精度に推定することができる作業推定装置、作業推定方法、および作業推定プログラムを提供することを目的の一つとする。 The present invention has been made in view of such circumstances, and provides a work estimation device, a work estimation method, and a work estimation program capable of accurately estimating a series of work elements included in a work. One of the purposes.
本発明の一態様は、作業に含まれる作業要素であって、複数の動作要素を含みうる作業要素のそれぞれに対応付けて、前記作業要素を行った作業者から検出された挙動の時系列データに対して所定の量子化処理を施した参照データを記憶する記憶部と、作業者が作業を行った際に前記作業者に取り付けられた検出部により検出された時系列データに対して前記所定の量子化処理を施す信号処理部と、前記記憶部に記憶された参照データと前記信号処理部により処理が施されたデータとの比較に基づいて、前記時系列データにおいて順次出現する作業要素を推定する推定部と、を備える作業推定装置である。 One aspect of the present invention is a work element included in a work, and is associated with each of the work elements that can include a plurality of motion elements, and time-series data of behavior detected from the worker who performed the work element A storage unit that stores reference data subjected to a predetermined quantization process, and time-series data detected by a detection unit attached to the worker when the worker performs work. A processing element that sequentially appears in the time-series data based on a comparison between the signal processing unit that performs the quantization processing of the reference data and the reference data stored in the storage unit and the data processed by the signal processing unit. And an estimation unit for estimation.
本発明の一態様によれば、作業に含まれる一連の作業要素を高精度に推定することができる。 According to one aspect of the present invention, a series of work elements included in a work can be estimated with high accuracy.
以下、図面を参照し、本発明の作業推定装置、作業推定方法、および作業推定プログラムの実施形態について説明する。本発明を適用した作業推定システムは、物流現場や工場、洋上等の作業現場において作業の効率化を図るために、作業者が保持する端末を利用して、作業者の作業に含まれる作業要素のそれぞれを推定するためのシステムである。「作業」とは、作業者が作業現場において繰り返し行う行動であって、一連の作業要素を含む行動である。「作業要素」とは、作業を完了させるための、複数の動作要素を含みうる作業者の一連の行動である。「動作要素」とは、作業者が各作業要素を完了させるための、作業者の単位行動、例えば、手を上げる、しゃがむ、歩く、荷をつかむ、荷を下ろすといった行動であり、挙動の時系列データにおいて特徴が一様になりやすい行動をいう。 Hereinafter, embodiments of a work estimation device, a work estimation method, and a work estimation program according to the present invention will be described with reference to the drawings. The work estimation system to which the present invention is applied is a work element included in a worker's work using a terminal held by the worker in order to improve work efficiency at a work site such as a distribution site, a factory, or offshore. Is a system for estimating each of the above. “Work” is an action repeatedly performed by a worker at a work site, and includes a series of work elements. The “work element” is a series of actions of an operator that can include a plurality of operation elements for completing the work. “Operation element” is a unit action of the worker for the worker to complete each work element, for example, raising a hand, squatting, walking, grabbing a load, or unloading a load. An action that tends to have uniform characteristics in series data.
以下、「作業」が物流対象物を仕分けして発送する集荷作業である場合について説明する。図1は、集荷作業の流れの一例を示す図である。作業者P1は、例えば倉庫に設置された棚12から荷10(物流対象物の一例)を探索し、探索した荷10を取り出し、取り出した荷10を台車14に載置する。次に作業者P1は、荷10を載せた台車14を集荷場所まで移動させ、集荷場所において荷10を車両20に載せる。次に作業者P1は、次の荷10がある棚12へ向けて荷10を載せていない台車14を移動させる。
Hereinafter, a case where the “work” is a collection work for sorting and shipping physical distribution objects will be described. FIG. 1 is a diagram illustrating an example of a flow of a collection work. For example, the worker P1 searches for a load 10 (an example of a physical distribution object) from a
上述した集荷作業において、「作業」には、台車と共に荷に向けて移動する、および台車と共に荷を搬送する、荷を探索する、荷を取り出す、という3種の「作業要素」が含まれる。すなわち、3種の作業要素とは、「移動」、「探索」、「取り出し」である。「移動」という作業要素には、例えば、台車を掴む、歩行する、という「動作要素」が含まれる。また、「探索」という作業要素には、例えば、頭部を左右に動かす、体を捻る、歩行する、という「動作要素」が含まれる。「取り出し」という作業要素には、荷に向けて手を伸ばす、荷を掴む、荷を降ろす、という「動作要素」が含まれる。 In the above-described collection work, the “work” includes three types of “work elements” that move toward the load together with the cart, and transport the load with the cart, search for the load, and pick up the load. That is, the three types of work elements are “move”, “search”, and “take out”. The work element “movement” includes, for example, an “operation element” of grabbing a cart or walking. The work element “search” includes, for example, “motion elements” such as moving the head left and right, twisting the body, and walking. The work element “removal” includes “motion elements” such as reaching for the load, grasping the load, and unloading the load.
[第1の実施形態]
(作業推定システム1の構成)
以下、第1の実施形態について説明する。図2は、第1の実施形態の作業推定システム1の一例を示す構成図である。作業推定システム1は、例えば、携帯端末100と、作業推定装置300と、管理端末400とを備える。携帯端末100と、管理端末400と作業推定装置300とは、ネットワーク(不図示)を介して接続されている。ネットワークは、例えば、無線基地局、Wi−Fiアクセスポイント、通信回線、プロバイダ、インターネットなどを含む。なお、これらの構成要素の全ての組み合わせが相互に通信可能である必要はなく、ネットワークは、一部にローカルなネットワークを含んでもよい。
[First Embodiment]
(Configuration of work estimation system 1)
The first embodiment will be described below. FIG. 2 is a configuration diagram illustrating an example of the
携帯端末100は、作業者P1に携帯されるスマートフォンや携帯電話などの携帯型の端末装置である。携帯端末100は、例えば作業者P1の胸ポケットに収容される。携帯端末100は、作業者P1の挙動に関連した挙動データを作業推定装置300に送信する。なお、本実施形態は、挙動データを送信する装置が携帯端末100であるが、これに限らず、ヘルメットや時計などの装着物に内蔵されたコンピュータであってよい。
The
作業推定装置300は、挙動データに対して処理を行うサーバ装置である。作業推定装置300は、処理結果として作業要素の推定結果に関連する情報を管理端末400に送信する。管理端末400は、倉庫や荷物の管理者P2により操作されるパーソナルコンピュータなどの端末装置である。管理端末400は、作業要素の推定結果に関連する情報に基づいて、情報を管理者P2に提示する。
The
図3は、携帯端末100および作業推定装置300の一例を示す内部構成図である。携帯端末100は、例えば、端末側通信部110と、センサ部120と、ユーザインターフェース部130と、制御部140とを備える。
FIG. 3 is an internal configuration diagram illustrating an example of the
端末側通信部110は、NIC(Network Interface Card)や無線通信モジュールなどの通信インターフェースである。センサ部120は、例えば、加速度センサ122と、角度センサ124とを含む。加速度センサ122は、例えば、平面方向のX軸およびY軸それぞれの加速度と、鉛直方向のZ方向の加速度を検出する。角度センサ124は、ピッチ角、ロール角、およびヨー角を検出する。なお、センサ部120は、GNSS(Global Navigation Satellite System)を利用した位置情報(緯度および経度)を取得してもよい。ユーザインターフェース部130は、作業者P1の操作を受け付け、画像を表示するタッチパネルや、スピーカなどの各種の機器を含む。
The terminal-
制御部140は、例えばCPU(Central Processing Unit)等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、制御部140のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。制御部140は、端末側通信部110を用いて、X軸およびY軸、およびZ方向の加速度データと、ピッチ角、ロール角、およびヨー角の角度データとを含む挙動データを作業推定装置300に送信する。挙動データは、作業要素を行った作業者P1から検出された挙動の時系列データの一例に相当する。
The
作業推定装置300は、例えば、通信部310と、参照データ記憶部320と、参照データ生成部330と、信号処理部340と、推定部350と、提供情報生成部360とを備える。通信部310は、NICや無線通信モジュールなどの通信インターフェースである。
The
参照データ記憶部320は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)、或いはこれらを複数用いたハイブリッド型記憶装置により実現される。また、記憶部には、ファームウェアやアプリケーションプログラム等の各種プログラム、各種機能部による処理結果などが記憶される。なお、参照データ記憶部320の一部または全部は、作業推定装置300が各種ネットワークを介してアクセス可能な外部記憶装置によって実現されてもよい。外部記憶装置の一例として、NAS(Network Attached Storage)装置が挙げられる。参照データ記憶部320には、作業者P1の作業要素を推定するためのデータである参照データが記憶される。また、参照データ記憶部320には、作業推定装置300における処理結果などの他の情報が記憶されていてもよい。
The reference
参照データ生成部330、信号処理部340、推定部350、および提供情報生成部360は、例えばCPU等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現される。また、これらの機能部のうち一部または全部は、LSI、ASIC、またはFPGA等のハードウェアにより実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。
The reference
参照データ生成部330は、参照データを生成する。信号処理部340は、通信部310により受信した挙動データに対して所定の量子化処理を行う。推定部350は、参照データと信号処理部340により所定の量子化処理が施されたデータとの比較に基づいて、挙動データにおいて順次出現する作業要素を推定する。提供情報生成部360は、推定部350の推定結果に基づいて、管理者P2に提供する提供情報を生成する。
The reference
(参照データ生成処理)
図4は、参照データを生成する処理の流れの一例を示すフローチャートである。参照データを生成する処理は、作業推定装置300に登録する作業要素ごとに実行される。具体的には、参照データを生成する処理は、「移動」、「探索」、「取り出し」、という3種の「作業要素」ごとに、実行される。
(Reference data generation process)
FIG. 4 is a flowchart illustrating an example of a flow of processing for generating reference data. The process of generating the reference data is executed for each work element registered in the
まず携帯端末100は、加速度センサ122および角度センサ124により検出されている加速度および方位に基づいて作業者P1が静止しているか否かを判定する(ステップS100)。携帯端末100は、作業者P1が静止している場合、音声アナウンスを出力する(ステップS102)。携帯端末100は、ユーザインターフェース部130を用いて、例えば、「登録する作業要素を言ってください。」という音声を出力する。携帯端末100は、音声認識処理を開始する(ステップS104)。
First, the
携帯端末100は、音声認識処理により認識した文字列が作業要素であるか否かを判定する(ステップS106)。携帯端末100は、文字列が作業要素である場合、挙動データを取得する(ステップS108)。携帯端末100は、挙動データの取得が終了したか否かを判定する(ステップS110)。携帯端末100は、例えば、音声認識処理により「終了」という音声を取得した場合に、挙動データの取得が終了したと判定する。なお、携帯端末100は、ステップS106において音声が作業要素ではない場合、処理を終了する。
The
次に作業推定装置300は、携帯端末100により取得された挙動データを取り込む(ステップS112)。作業推定装置300は、通信部310を用いて携帯端末100から送信された端末側通信部110を受信することで、挙動データを取り込む。図5は、挙動データの一例を示す図である。図6は、挙動データのうちのY軸加速度の挙動データを示す図である。例えば、時刻t1およびt4において音声認識処理が行われ、Y軸加速度の挙動データ取得の開始時刻と終了時刻が記録され、挙動データの取得が検出される。また、作業推定装置300は、時刻t1〜t2およびt3〜t4において作業者P1の静止した状態を検出することで、取得した挙動データから時刻t2〜t3の期間の必要な挙動データを切り出して、参照データ記憶部320に記録することができる。
Next, the
次に作業推定装置300は、参照データ生成部330により所定の量子化処理を行う(ステップS114)。所定の量子化処理は、例えば、X軸、Y軸、およびZ軸の加速度のそれぞれの加速度データ、ピッチ角、ロール角、およびヨー角の角度のそれぞれのデータを平準化する処理である。平準化する処理は、例えば、所定の範囲に含まれる値を「1」所定の範囲を超える値を「2」、所定の範囲未満の値を「0」に分類する処理である。作業推定装置300は、所定の量子化処理により、例えば、挙動データを0、1、2の3値間で変化するデータに変換する。図7は、Y軸加速度の挙動データを所定の量子化処理により変換した参照データの一例を示す図である。図7に示した参照データは、挙動データが取得された時刻t2からt3までの期間において量子化したデータである。
Next, the
次に作業推定装置300は、所定の量子化処理が施されたデータ(参照データ)を参照データ記憶部320に記憶する(ステップS116)。
Next, the
なお、作業推定装置300は、例えば集荷作業を行う荷10の種類、棚12や台車14の種類、倉庫毎に、参照データをカスタマイズしてもよく、荷10の種類、棚12や台車14の種類、倉庫を指定して、カスタマイズした参照データを選択することができるようにしてもよい。
The
(作業要素の推定処理、および情報提供処理)
図8は、作業要素を推定する処理、および情報を管理端末400に提供する処理の流れの一例を示すフローチャートである。作業要素を推定する処理、および情報を管理端末400に提供する処理は、所定の期間毎に繰り返して実行されるが、これに限らず、挙動データを取得したタイミングで開始されてもよい。
(Work element estimation processing and information provision processing)
FIG. 8 is a flowchart illustrating an example of the flow of processing for estimating work elements and processing for providing information to the
まず、作業推定装置300は、通信部310を用いて、携帯端末100から時系列の挙動データを取得する(ステップS200)。次に作業推定装置300は、信号処理部340を用いて、取得した挙動データに対して所定の量子化処理を行う(ステップS202)。信号処理部340における所定の量子化処理は、参照データ生成部330における所定の量子化処理と同じ処理である。
First, the
次に作業推定装置300は、参照データ記憶部320に記憶されている参照データを一つ選択する(ステップS204)。次に作業推定装置300は、推定部350を用いて、量子化処理が施されたデータと参照データとを比較する(ステップS206)。作業推定装置300は、例えばDPマッチングと称される手法を用いて、参照データの時間軸を伸長または圧縮して、双方のデータを比較する。また、作業推定装置300は、量子化処理が施されたデータの時間軸を圧縮または伸長してもよく、双方の時間軸を伸長または圧縮をしてもよい。これにより、作業推定装置300は、参照データと実際の集荷作業に要した時間の差を小さくして双方のデータを比較することができる。
Next, the
次に作業推定装置300は、比較された結果としてスコアを算出する(ステップS208)。作業推定装置300は、例えば、ある時刻において比較している双方のデータの値が一致している場合にはスコアを高くし、ある時刻において比較している双方のデータの値が一致していない場合にはスコアを低くする。なお、作業推定装置300は、スコアに限らず、双方のデータが一致していない割合を表すコストを算出してもよく、さらには双方のデータが一致している割合を表す類似度を算出してもよい。
Next, the
次に作業推定装置300は、所定の量子化処理が施されたデータについて、全ての参照データを選択したか否かを判定する(ステップS210)。作業推定装置300は、全ての参照データを選択していない場合、ステップS204に処理を戻す。
Next, the
作業推定装置300は、全ての参照データを選択した場合、スコアが最も高い作業要素が、取得した挙動データにおいて出現した作業要素であることを推定する(ステップS212)。
When all the reference data is selected, the
次に作業推定装置300は、推定した作業要素に基づいて作業全体を推定する(ステップS214)。作業推定装置300は、移動、探索、取り出し、という3種の作業要素が順次出現した場合、作業全体が集荷作業であることを推定する。
Next, the
次に作業推定装置300は、推定結果の送信タイミングが到来したか否かを判定する(ステップS216)。作業推定装置300は、例えば、管理端末400から推定結果を要求するコマンドを受信した場合、推定結果の送信タイミングが到来したと判定する。作業推定装置300は、コマンドを受信したタイミングに限らず、所定の繰り返し期間が到来したことに応じて推定結果の送信タイミングが到来したと判定してもよい。
Next, the
作業推定装置300は、推定結果の送信タイミングが到来した場合、提供情報生成部360により提供情報を生成する(ステップS218)。次に作業推定装置300は、生成した提供情報を管理端末400に送信する(ステップS220)。
When the transmission timing of the estimation result has arrived, the
(作業要素の推定処理)
図9は、挙動データのうちY軸加速度の一例を示す図である。作業推定装置300は、上述したステップS200において図9に示すような挙動データを取得したものとする。図10は、挙動データのうちY軸加速度に対して量子化処理を施したデータの一例を示す図である。作業推定装置300は、図9に示した挙動データに対して、略静止期間に時間的に挟まれる期間を切り出し、所定の量子化処理を施すことで、図10に示すようなデータを取得する。
(Work element estimation process)
FIG. 9 is a diagram illustrating an example of the Y-axis acceleration in the behavior data. It is assumed that the
図11は、比較処理の一例を示す図である。推定部350は、図11(a)に示す量子化処理が施されたデータD1のうち所定期間の枠に含まれるデータD1−1と、図11(b)に示す参照データD11、図11(c)に示す参照データD12、および図11(d)に示す参照データD13のそれぞれとを比較する。推定部350は、データD1−1からオフセット期間だけずらしたデータD1−2と、図11(b)に示す参照データD11、図11(c)に示す参照データD12、および図11(d)に示す参照データD13のそれぞれとを比較する。さらに、推定部350は、データD1−2からオフセット期間だけずらしたデータD1−3と、図11(b)に示す参照データD11、図11(c)に示す参照データD12、および図11(d)に示す参照データD13のそれぞれとを比較する。このように、推定部350は、オフセット期間だけずらしたデータと、参照データのそれぞれとを比較する処理を繰り返す。
FIG. 11 is a diagram illustrating an example of the comparison process. The
推定部350は、所定期間の枠に含まれるデータと参照データとを比較する際に、参照データを時間軸において圧縮または伸長する処理(スケーリング処理)を行って、スケーリング処理が施された参照データと所定期間の枠に含まれるデータとを比較する。推定部350は、例えば、参照データを時間軸において、1.1倍、1.2倍、或いは0.9倍、0.8倍といったスケーリング処理を行ってから比較する。その場合、推定部350は、一つの作業要素に対応する参照データに対して当てはめた倍率を、他の作業要素に対応する参照データに援用してもよい。
When the
そして、推定部350は、比較した結果として所定期間の枠に含まれるデータ毎にスコアを算出し、所定期間の枠に含まれるデータ毎に最も高いスコアに対応する作業要素を推定する。これにより、推定部350は、作業に含まれる作業要素の出現順で、作業要素を推定することができる。
Then, the
また、推定部350は、作業要素が連続して出現する場合、それを合算することで、作業要素のそれぞれの開始時刻から終了時刻までの所要時間として推定することができる。
In addition, when work elements appear continuously, the
(作業全体の推定処理)
図12は、第1の集荷作業における、実際の作業要素の時間的な変化、および作業推定装置300により作業要素を推定した実験結果を示す図である。図12の真値は、実際の作業者の作業に対応した作業要素の変化を表す。作業要素IDは、作業要素を特定する情報である。
(Overall work estimation process)
FIG. 12 is a diagram showing temporal changes in actual work elements in the first collection work, and experimental results of estimating work elements by the
第1の集荷作業は、台車14と共に荷10に向けて移動する(ID=1)、荷10を探索する(ID=2)、荷10を取り出す(ID=0)、荷10を載せた台車と共に移動する(ID=1)という順で作業要素が出現する。作業推定装置300は、順次出現する作業要素をそれぞれ推定することで、1、2、0、1の順序で作業要素が推定できていることが分かる。また、図12(a)に示す作業要素IDの変化と、図12(b)に示す作業要素IDの変化とは、作業者が異なるため、各作業要素に要する時間が異なっている。この場合であっても、作業推定装置300によれば、真値に近い作業要素の推定結果を得ることができることが分かる。
In the first collection work, the vehicle moves toward the
作業推定装置300は、第1の集荷作業の真値に対応する作業要素IDの時系列パターンを表す情報を、例えば、参照データ記憶部320に記憶する。推定部350は、推定した作業要素に対応した作業要素IDの配列が、1、2、0、1の順序であるかを、類似度から判定する。なお、推定部350は、推定した結果と、予め設定した順序とを比較し、上述した比較処理と同様に、類似度(またはコスト)を算出すればよい。推定部350は、推定した作業要素に対応した作業要素IDの配列が、予め設定した1、2、0、1の順序に類似する場合、作業者P1が行った作業が第1の集荷作業であることを判定する。推定部350は、推定した作業要素に対応した作業要素IDの配列が、予め設定した1、2、0、1の順序に類似しない場合、作業者P1が行った作業が第1の集荷作業ではないことを判定する。これにより、作業推定装置300は、作業全体を推定することができる。
The
図13は、第2の集荷作業における、実際の作業要素の時間的な変化、および作業推定装置300により作業要素を推定した実験結果を示す図である。第2の集荷作業は、台車14と共に荷10に向けて移動する(ID=1)、荷10を取り出す(ID=0)、台車14と共に荷10を移動する(ID=1)という順で作業要素が出現する。作業推定装置300は、順次出現する作業要素をそれぞれ推定することで、1、0、1の順序で作業要素が推定できていることが分かる。また、図13(a)に示す作業要素IDの変化と、図13(b)に示す作業要素IDの変化とは、作業者が異なるため、各作業要素に要する時間が異なっている。この場合であっても、作業推定装置300によれば、真値に近い作業要素の推定結果を得ることができることが分かる。
FIG. 13 is a diagram illustrating a temporal change of an actual work element and a result of an experiment in which the work element is estimated by the
作業推定装置300は、第1の集荷作業の真値に対応する作業要素IDの時系列パターンを表す情報を、例えば、参照データ記憶部320に記憶する。推定部350は、推定した作業要素に対応した作業要素IDの配列が、1、0、1の順序であるかを、類似度から判定する。推定部350は、推定した作業要素に対応した作業要素IDの配列が、予め設定した1、0、1の順序に類似する場合、作業者P1が行った作業が第2の集荷作業であることを判定する。推定部350は、推定した作業要素に対応した作業要素IDの配列が、予め設定した1、0、1の順序に類似しない場合、作業者P1が行った作業が第2の集荷作業ではないことを判定する。これにより、作業推定装置300は、作業全体を推定することができる。
The
(提供情報の生成処理)
図14は、管理端末400に提供される提供情報360Aおよび360Bの一例を示す図である。提供情報360Aおよび360Bは、推定部350により推定された作業要素ごとの所要時間の割合を円グラフ化した画像を表示させるための情報である。提供情報生成部360は、作業者P1の作業時間における推定部350により推定された作業要素ごとの所要時間の割合を算出する。提供情報生成部360は、算出した作業要素ごとの所要時間の割合に基づいて、円グラフを表示させるための情報を生成する。
(Providing information generation process)
FIG. 14 is a diagram illustrating an example of
作業推定装置300は、推定結果の送信タイミングにおいて提供情報360Aを管理端末400に送信し、管理端末400によりグラフ化した画像を表示させる。これにより、作業推定装置300は、提供情報360Aに対応した円グラフを表示させることができる。この結果、管理者P2は、集荷作業における探索の割合が多いことを直感的に認識することができ、荷10や棚12の配置などの改善作業を行うことができる。
The
荷10や棚12の配置を変更した後の推定結果の送信タイミングが到来したことに応じ、作業推定装置300は、提供情報360Bを管理端末400に送信し、管理端末400によりグラフ化した画像を表示させる。これにより、作業推定装置300は、提供情報360Bに対応した円グラフを表示させることができる。この結果、管理者P2は、探索の割合が少なくなったことを直感的に認識することができ、荷10や棚12の配置などの改善作業が効果的に実施できたことを認識することができる。
In response to the arrival of the estimation result transmission timing after the arrangement of the
(姿勢の抽出処理)
なお、提供情報の生成処理には、作業を行っている最中における姿勢のうち作業者P1にとって負担が大きい姿勢を抽出する処理を含めてもよい。図15は、第1の実施形態の作業推定システム1の変形例を示す構成図である。この場合、作業推定装置300は、倉庫内の空間を撮像するカメラ装置200をさらに備え、撮像した結果としての動画データを取得し、通信部310に送る。通信部310により取得した動画データから作業者P1の姿勢のうち、負担が大きい姿勢を抽出する。負担が大きい姿勢とは、例えば、床面の荷10を取るため、作業者P1が腰を大きく曲げる姿勢である。作業推定装置300は、負担が大きい姿勢を抽出した動画データの時刻に推定された作業要素を特定し、特定した作業要素における作業者P1の負荷が高いことを推定する。
(Attitude extraction process)
The provided information generation process may include a process of extracting a posture with a heavy burden on the worker P1 from postures during the work. FIG. 15 is a configuration diagram illustrating a modification of the
(第1の実施形態の効果)
第1の実施形態の作業推定システム1によれば、作業者から検出された挙動の時系列データに対して所定の量子化処理を施した参照データを記憶しておき、参照データと、挙動データに対して量子化処理が施されたデータとの比較に基づいて、挙動データにおいて順次出現する作業要素を推定することにより、作業に含まれる一連の作業要素を高精度に推定することができる。前述したように、動作要素は、作業者P1の行動から検出される挙動において出現する特徴が一様であり、また作業者の体格、作業場所の条件等により変動するため、これを単体で推定するには複雑かつ高度な情報処理が必要となる。一方、動作要素間では、検出される特徴が大きく異なるため、動作要素全体として捉えた場合の特徴の変化は、個人差や条件の差に余り依存せず、判別しやすいものとなる。すなわち、作業要素においては、各動作要素の特徴の差が順次現れるため、一般化してコンピュータにより判別するのが比較的容易である。
(Effects of the first embodiment)
According to the
また、第1の実施形態の作業推定システム1によれば、作業に対応付けた複数の作業要素の出現順を示す情報と、推定した複数の作業要素の出現順との比較に基づいて作業を推定することができる。これにより、作業推定システム1によれば、予め設定された作業を作業者P1が行っているか否かを監視することができる。
Further, according to the
さらに、第1の実施形態の作業推定システム1によれば、順次出現する作業要素のそれぞれを開始時刻から終了時刻までの所要時間を推定することができるので、所要時間に基づいて荷10や棚12の配置を変更するなどの改善を行うことができる。例えば、作業要素の「探索」の所要時間の割合を少なくするように、荷10や棚12の配置を変更することができる。
Furthermore, according to the
さらに、第1の実施形態の作業推定システム1によれば、推定された作業要素ごとの所要時間の割合をグラフ化した画像を表示させるための情報を生成することにより、管理者P2にグラフ化した画像を提示することができる。これにより、作業推定システム1によれば、作業要素をわかりやすく認識させることができ、利便性を向上させることができる。
Furthermore, according to the
さらに、第1の実施形態の作業推定システム1によれば、動画データから抽出した作業者P1の姿勢と、推定した作業要素との時間的な関係に基づいて、推定した作業要素における作業者P1の負荷を推定するので、作業者P1の負荷を抑制するような改善を行うことができる。
Furthermore, according to the
[第2の実施形態]
以下、第2の実施形態について説明する。図16は、第2の実施形態の作業推定システム1Aの一例を示す構成図である。第2の実施形態の作業推定システム1Aは、荷10ごと、または棚12毎、または倉庫毎に、推定部350により推定された作業要素ごとの所要時間の割合をグラフ化した画像を表示させるための情報を生成する点で、第1の実施形態とは異なる。棚12、または倉庫は、荷10をグループ化したグループの一例である。以下、この相違点を中心に説明する。
[Second Embodiment]
Hereinafter, the second embodiment will be described. FIG. 16 is a configuration diagram illustrating an example of a work estimation system 1A according to the second embodiment. The work estimation system 1A of the second embodiment displays an image in which the ratio of the required time for each work element estimated by the
第2の実施形態の作業推定システム1Aは、第1の実施形態の作業推定システム1に加えて、例えば、物流管理サーバ600と、ハンディターミナル500とを備える。物流管理サーバ600は、例えばCPU等のプロセッサがプログラムメモリに格納されたプログラムを実行することにより実現されるサーバ装置である。物流管理サーバ600は、荷10を管理するための物流管理データベース記憶部610に対して情報を登録する。図17は、物流管理データベース612の一例を示す図である。物流管理データベース612は、例えば、荷IDに対応付けて、倉庫ID、棚ID、および集荷時刻を記憶する。
The work estimation system 1A of the second embodiment includes, for example, a physical distribution management server 600 and a
ハンディターミナル500は、例えば、コード読み取り装置、無線通信用のNIC、CPU等の処理部を備える端末装置である。ハンディターミナル500は、作業者P1が荷10を集荷する際に、例えば、コード読取装置により荷10に貼付されたコードを読み取ることで、荷IDを取得する。ハンディターミナル500は、NICにより、荷10のIDに、集荷時刻としての時刻情報および作業者IDを付加して、物流管理サーバ600および作業推定装置300Aに送信する。
The
作業推定装置300Aは、ハンディターミナル500から荷ID、利用者IDおよび集荷時刻を受信した場合、荷ID、利用者IDおよび集荷時刻を記憶する。作業推定装置300Aは、受信した作業者IDに基づいて、作業者IDに対応する作業者P1の作業要素を取得する。作業推定装置300Aは、例えば、携帯端末100の識別情報に対応付けられた作業者IDに、作業者P1から検出された挙動データに基づいて推定した作業要素を対応付けて予め記憶しておくことで、ハンディターミナル500から受信した作業者IDに対応する作業者P1の作業要素を取得する。また、作業推定装置300Aは、取得した作業者P1の作業要素からハンディターミナル500から受信した集荷時刻に対応する作業要素を抽出し、抽出した作業要素を含む作業を取得する。これにより、作業推定装置300Aは、荷IDに対応する荷10の集荷作業について、作業要素ごとの所要時間、および所要時間の割合を算出することができる。
When the work estimation device 300A receives the load ID, the user ID, and the pickup time from the
また、作業推定装置300Aは、物流管理サーバ600から荷IDに対応付けられた、倉庫IDまたは棚IDを取得してもよい。作業推定装置300Aは、荷IDに対応付けられた倉庫IDごとに、作業要素ごとの所要時間、および所要時間の割合を算出することができる。また、作業推定装置300Aは、荷IDに対応付けられた棚IDごとに、作業要素ごとの所要時間、および所要時間の割合を算出することができる。 Further, the work estimation device 300A may acquire a warehouse ID or a shelf ID associated with the load ID from the physical distribution management server 600. The work estimation device 300A can calculate the required time for each work element and the ratio of the required time for each warehouse ID associated with the load ID. Moreover, the work estimation device 300A can calculate the required time for each work element and the ratio of the required time for each shelf ID associated with the load ID.
図18は、第2の実施形態における提供情報360Cの一例を示す図である。作業推定装置300Aは、荷ID、棚ID、または倉庫IDと、移動時間、探索時間、または取り出し時間との関係を棒グラフにした提供情報360Cを作成して、管理端末400に提供することができる。これにより、管理者P2は、長い作業時間を要する荷10、棚12または倉庫を認識することができる。
FIG. 18 is a diagram illustrating an example of
図19は、第2の実施形態における提供情報360Dの一例を示す図である。作業推定装置300Aは、荷10ごと、倉庫ごと、または棚ごとに、作業要素間における所要時間の割合を表す提供情報360Cを作成して、管理端末400に提供することができる。これにより、管理者P2は、移動時間、探索時間、取り出し時間のうちどの作業要素に長い作業時間を要するかを認識することができる。
FIG. 19 is a diagram illustrating an example of the
[変形例]
以下、第1の実施形態および第2の実施形態の変形例について説明する。図20は、変形例の作業推定システム1Bの構成図である。変形例の作業推定システム1Bは、倉庫W−1、・・・W−Nごとに、倉庫で集荷作業を行う作業者の携帯端末100から挙動データを収集する中継装置700−1、・・・700−Nを備える。中継装置700−1、・・・700−Nは、無線通信、または有線通信を利用して複数の携帯端末100から挙動データを取得して蓄積する。中継装置700−1、・・・700−Nは、例えば、集荷作業を行っている最中には挙動データを収集せず、集荷作業をしていない終業時間などに有線ケーブルにより携帯端末100から挙動データを収集する。中継装置700−1、・・・700−Nは、例えば1日に1回、複数の携帯端末100から収集した挙動データを作業推定装置300Bに送信する。作業推定装置300Bは、例えば、作業者毎、荷10毎、棚12毎、または倉庫W毎に、荷IDに対応する荷10の集荷作業について、作業要素ごとの所要時間の割合を算出することができる。
[Modification]
Hereinafter, modifications of the first embodiment and the second embodiment will be described. FIG. 20 is a configuration diagram of a
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
1、1A、1B…作業推定システム、10…荷、12…棚、14…台車、100…携帯端末、110…端末側通信部、120…センサ部、122…加速度センサ、124…角度センサ、130…ユーザインターフェース部、140…制御部、200…カメラ装置、300、300A、300B…作業推定装置、310…通信部、320…参照データ記憶部、330…参照データ生成部、340…信号処理部、350…推定部、360…提供情報生成部、360A、360B、360C…提供情報、400…管理端末、500…ハンディターミナル、600…物流管理サーバ、610…物流管理データベース記憶部、612…物流管理データベース、700−1、700−N…中継装置
DESCRIPTION OF
Claims (12)
作業者が作業を行った際に前記作業者に取り付けられた検出部により検出された時系列データに対して前記所定の量子化処理を施す信号処理部と、
前記記憶部に記憶された参照データと前記信号処理部により処理が施されたデータとの比較に基づいて、前記時系列データにおいて順次出現する作業要素を推定する推定部と、
を備える、作業推定装置。 Predetermined quantization on time-series data of behavior detected from the worker who performed the work element in association with each work element that is included in the work and can include a plurality of motion elements A storage unit for storing the processed reference data;
A signal processing unit that performs the predetermined quantization processing on the time-series data detected by the detection unit attached to the worker when the worker performs the work;
Based on a comparison between the reference data stored in the storage unit and the data processed by the signal processing unit, an estimation unit that estimates work elements that appear sequentially in the time series data;
A work estimation device comprising:
前記推定部は、推定した前記複数の作業要素の出現順と前記情報との比較に基づいて、前記作業を推定する、
請求項1に記載の作業推定装置。 The storage unit stores information indicating an appearance order of a plurality of work elements in association with the work,
The estimation unit estimates the work based on a comparison between the estimated appearance order of the plurality of work elements and the information.
The work estimation apparatus according to claim 1.
請求項1または2に記載の作業推定装置。 The estimation unit estimates a required time from a start time to an end time for each of the work elements.
The work estimation apparatus according to claim 1 or 2.
請求項1から3のうちいずれか1項に記載の作業推定装置。 An information generation unit that generates information for displaying an image in which the ratio of the required time for each work element estimated by the estimation unit is graphed;
The work estimation device according to any one of claims 1 to 3.
前記推定部は、前記画像取得部により取得された画像に含まれる作業者の姿勢と、推定した作業要素との時間的な関係に基づいて、推定した作業要素における作業者の負荷を推定する、
請求項1から4のうちいずれか1項に記載の作業推定装置。 An image acquisition unit that acquires an image of the worker;
The estimation unit estimates a worker's load on the estimated work element based on a temporal relationship between the posture of the worker included in the image acquired by the image acquisition unit and the estimated work element.
The work estimation apparatus according to any one of claims 1 to 4.
請求項1から5のうちいずれか1項に記載の作業推定装置。 After the voice received by the portable terminal carried by the worker in a state where the worker is stationary, the work element recognized based on the voice received by the portable terminal, and after the voice is received by the portable terminal A reference data generation unit configured to generate reference data associated with each of the work elements based on time-series data of behavior detected from the worker who performed the work elements;
The work estimation apparatus according to any one of claims 1 to 5.
請求項1から6のうちいずれか1項に記載の作業推定装置。 The work elements include movements for taking out and transporting physical distribution objects, searching for physical distribution objects, and taking out physical distribution objects.
The work estimation apparatus according to any one of claims 1 to 6.
請求項7に記載の作業推定装置。 For each of the logistics objects or the grouping of the logistics objects, the movement for taking out and transporting the logistics objects estimated by the estimation unit, searching for the logistics objects, and requirements for taking out the logistics objects An information generation unit that generates information for displaying an image in which a time or a ratio of the required time is graphed;
The work estimation apparatus according to claim 7.
作業者が作業を行った際に前記作業者に取り付けられた検出部により検出された時系列データに対して前記所定の量子化処理を施し、
前記参照データと前記量子化処理が施されたデータとの比較に基づいて、前記時系列データにおいて順次出現する作業要素を推定する、
作業推定方法。 Predetermined quantization on time-series data of behavior detected from the worker who performed the work element in association with each work element that is included in the work and can include a plurality of motion elements Store the processed reference data,
Applying the predetermined quantization process to the time-series data detected by the detection unit attached to the worker when the worker performs the work,
Based on a comparison between the reference data and the data subjected to the quantization process, a work element that sequentially appears in the time series data is estimated.
Work estimation method.
作業者が静止した状態で作業者が携帯する携帯端末から音声を受け付け、
前記携帯端末から受け付けた音声に基づいて作業要素を認識し、
前記携帯端末により音声が受け付けられた後において作業要素を行った作業者から挙動の時系列データを検出し、
検出した時系列データに対して前記所定の量子化処理を施し、
認識した作業要素に、前記所定の量子化処理を施したデータを記憶する、
請求項9に記載の作業推定方法。 When storing the reference data,
Accept voice from a mobile device carried by the worker while the worker is stationary,
Recognizing work elements based on the voice received from the mobile terminal;
Detecting time-series data of behavior from the worker who performed the work element after the voice was received by the mobile terminal;
Applying the predetermined quantization process to the detected time series data,
Storing the data subjected to the predetermined quantization processing in the recognized work element;
The work estimation method according to claim 9.
作業に含まれる作業要素であって、複数の動作要素を含みうる作業要素のそれぞれに対応付けて、前記作業要素を行った作業者から検出された挙動の時系列データに対して所定の量子化処理を施した参照データを記憶部に記憶させ、
作業者が作業を行った際に前記作業者に取り付けられた検出部により検出された時系列データに対して前記所定の量子化処理を施させ、
前記参照データと前記量子化処理が施されたデータとの比較に基づいて、前記時系列データにおいて順次出現する作業要素を推定させる、
作業推定プログラム。 On the computer,
Predetermined quantization on time-series data of behavior detected from the worker who performed the work element in association with each work element that is included in the work and can include a plurality of motion elements Store the processed reference data in the storage unit,
When the worker performs work, the predetermined quantization processing is performed on the time series data detected by the detection unit attached to the worker,
Based on the comparison between the reference data and the quantized data, work elements that appear sequentially in the time series data are estimated.
Work estimation program.
コンピュータに、
作業者が静止した状態で作業者が携帯する携帯端末から音声を受け付けさせ、
前記携帯端末から受け付けた音声に基づいて作業要素を認識させ、
前記携帯端末により音声が受け付けられた後において作業要素を行った作業者から挙動の時系列データを検出させ、
検出した時系列データに対して前記所定の量子化処理を施させ、
認識した作業要素に、前記所定の量子化処理を施したデータを記憶させる、
請求項11に記載の作業推定プログラム。 When storing the reference data,
On the computer,
Receive voice from the mobile device carried by the worker while the worker is stationary,
Recognize work elements based on the voice received from the mobile terminal,
After the voice is received by the portable terminal, the time series data of the behavior is detected from the worker who performed the work element,
The predetermined time-series data is subjected to the predetermined quantization process,
Storing the data subjected to the predetermined quantization processing in the recognized work element;
The work estimation program according to claim 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135361A JP6738084B2 (en) | 2016-07-07 | 2016-07-07 | Work estimation device, work estimation method, and work estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016135361A JP6738084B2 (en) | 2016-07-07 | 2016-07-07 | Work estimation device, work estimation method, and work estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018005789A true JP2018005789A (en) | 2018-01-11 |
JP6738084B2 JP6738084B2 (en) | 2020-08-12 |
Family
ID=60946526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016135361A Active JP6738084B2 (en) | 2016-07-07 | 2016-07-07 | Work estimation device, work estimation method, and work estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6738084B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001327472A (en) * | 2000-03-14 | 2001-11-27 | Toshiba Corp | Device and method for supporting wearable life |
JP2006202255A (en) * | 2004-12-24 | 2006-08-03 | Omron Corp | Process improvement support system |
JP2007229488A (en) * | 2007-03-29 | 2007-09-13 | Osaka Gas Co Ltd | Motion analyzing system and motion analyzing method of observation object person |
JP2010146223A (en) * | 2008-12-18 | 2010-07-01 | Hitachi Ltd | Behavior extraction system, behavior extraction method, and server |
US20110022432A1 (en) * | 2007-11-14 | 2011-01-27 | Tomotoshi Ishida | Work information processing apparatus, program, and work information processing method |
WO2011114620A1 (en) * | 2010-03-16 | 2011-09-22 | 日本電気株式会社 | Interest level measurement system |
JP2014180335A (en) * | 2013-03-18 | 2014-09-29 | Fujitsu Ltd | Eating motion detector, eating motion detection method, and program |
-
2016
- 2016-07-07 JP JP2016135361A patent/JP6738084B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001327472A (en) * | 2000-03-14 | 2001-11-27 | Toshiba Corp | Device and method for supporting wearable life |
JP2006202255A (en) * | 2004-12-24 | 2006-08-03 | Omron Corp | Process improvement support system |
JP2007229488A (en) * | 2007-03-29 | 2007-09-13 | Osaka Gas Co Ltd | Motion analyzing system and motion analyzing method of observation object person |
US20110022432A1 (en) * | 2007-11-14 | 2011-01-27 | Tomotoshi Ishida | Work information processing apparatus, program, and work information processing method |
JP2010146223A (en) * | 2008-12-18 | 2010-07-01 | Hitachi Ltd | Behavior extraction system, behavior extraction method, and server |
WO2011114620A1 (en) * | 2010-03-16 | 2011-09-22 | 日本電気株式会社 | Interest level measurement system |
US20120317066A1 (en) * | 2010-03-16 | 2012-12-13 | Nec Corporation | Interest level measurement system, interest level measurement device, interest level measurement method, and interest level measurement program |
JP2014180335A (en) * | 2013-03-18 | 2014-09-29 | Fujitsu Ltd | Eating motion detector, eating motion detection method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6738084B2 (en) | 2020-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5166316B2 (en) | Situation recognition device and situation recognition method | |
CN107172590B (en) | Mobile terminal and activity state information processing method and device based on same | |
Chen et al. | Probabilistic multimodal map matching with rich smartphone data | |
US9436816B2 (en) | Supplementing biometric identification with device identification | |
US20180314991A1 (en) | Route optimization methods and devices | |
US20160260046A1 (en) | Tracking worker activity | |
EP3510571A1 (en) | Order information determination method and apparatus | |
US9898539B2 (en) | Device management apparatus and device search method | |
JP6464737B2 (en) | Prospective customer location information detection system, method and program | |
JP6807268B2 (en) | Image recognition engine linkage device and program | |
CN109961074A (en) | Method for searching article, robot and computer readable storage medium | |
JP5915731B2 (en) | Flow line data analysis apparatus, system, program and method | |
JPWO2013145632A1 (en) | Flow line data analysis apparatus, system, program and method | |
JP2020086659A (en) | Information processing system, program, and information processing method | |
KR20210087181A (en) | An electronic device detecting a location and a method thereof | |
Minh et al. | Evaluation of smartphone and smartwatch accelerometer data in activity classification | |
EP2829938B1 (en) | Route verification from wireless networks | |
CN106462628A (en) | System and method for automatically pushing location-specific content to users | |
JP6738084B2 (en) | Work estimation device, work estimation method, and work estimation program | |
US10578640B2 (en) | Determination of a mobility context for a user carrying a device fitted with inertial sensors | |
EP3783565B1 (en) | Moving state analysis device, moving state analysis method, and program | |
JP6457346B2 (en) | Road surface understanding system, road surface understanding method, road surface understanding program | |
JP2011150425A (en) | Research device and research method | |
JP2014119995A (en) | Information processor and information processing program | |
WO2023152825A1 (en) | Movement evaluation system, movement evaluation method, and non-transitory computer-readable medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200414 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6738084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |