JP2017068432A - 工程編成支援装置、工程編成支援方法 - Google Patents
工程編成支援装置、工程編成支援方法 Download PDFInfo
- Publication number
- JP2017068432A JP2017068432A JP2015191297A JP2015191297A JP2017068432A JP 2017068432 A JP2017068432 A JP 2017068432A JP 2015191297 A JP2015191297 A JP 2015191297A JP 2015191297 A JP2015191297 A JP 2015191297A JP 2017068432 A JP2017068432 A JP 2017068432A
- Authority
- JP
- Japan
- Prior art keywords
- work
- worker
- information
- organization
- evaluation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008520 organization Effects 0.000 title claims abstract description 104
- 238000000034 method Methods 0.000 title claims description 439
- 238000001514 detection method Methods 0.000 claims abstract description 124
- 238000011156 evaluation Methods 0.000 claims abstract description 94
- 238000004088 simulation Methods 0.000 claims abstract description 53
- 230000008569 process Effects 0.000 claims description 415
- 238000004364 calculation method Methods 0.000 claims description 82
- 238000009940 knitting Methods 0.000 claims description 73
- 230000033001 locomotion Effects 0.000 claims description 53
- 230000003044 adaptive effect Effects 0.000 claims description 34
- 238000003384 imaging method Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 5
- 230000010365 information processing Effects 0.000 claims description 5
- 238000009795 derivation Methods 0.000 abstract description 4
- 230000036544 posture Effects 0.000 description 44
- 239000000203 mixture Substances 0.000 description 43
- 238000005259 measurement Methods 0.000 description 19
- 238000004519 manufacturing process Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000010191 image analysis Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 7
- 238000005755 formation reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 5
- 210000002683 foot Anatomy 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000011112 process operation Methods 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000011158 quantitative evaluation Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- General Factory Administration (AREA)
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】一又は複数の作業を含む工程の編成について支援を行う工程編成支援装置として、測定対象の作業を実行する作業者について、複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、各時点での作業者の身体状態の情報を取得する検出情報取得部と、検出情報取得部で得た情報に基づき、作業者の作業に対する評価値を算出する評価値算出部と、編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの評価値に基づいて、前記複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行う出力制御部とを備える。
【選択図】図6
Description
特許文献2には、作業姿勢等について、客観的評価と主観的評価とに基づいて姿勢の評価を行う技術が開示されている。
この作業負担は、作業者の感覚的な声として取り上げられることが通常である。また、作業者の得手不得手の影響によって工程に対する感想や疲労具合も異なる。特に作業者は個人毎に、得意な作業や苦手な作業が異なるため、各工程についての向き・不向きもある。
ところが、これらの負担感や、向き・不向きというようなことは、あくまで作業者本人が主観的に感じることであって、これらを客観的に判断することが困難であった。
即ち作業者の身体状態を簡易モデルにより検出し、各身体部位、例えば関節部などについての検出点や線の位置や変化(移動ベクトル)により、作業者の動作を把握できるようにする。そして検出点又は線についての情報、つまり身体の各部位(腕、腰、足)などの個別のデータに基づき、作業者の作業に対する評価値を算出し、編成内容を異ならせた複数の工程編成ごとに得られる評価値に基づき、該複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行っている。このとき、評価値としては、作業者の身体状態についての実測データに基づき算出するため、客観的かつ定量的な値を得ることが可能である。また、編成シミュレーションにより複数の工程編成ごとの評価値を得ているため、想定され得る複数の工程編成について作業者に実際に作業を行わせるという負担は不要となる。
これにより、編成シミュレーションでは編成内容の異なる工程編成ごとの作業負担値が得られ、該作業負担値に基づいて一又は複数の工程編成が選択される。
これにより、編成シミュレーションでは編成内容の異なる工程編成ごとの適応値が得られ、該適応値に基づいて一又は複数の工程編成が選択される。
これにより、作業者としての人員の編成も含めて、効率的となる工程編成を導出することが可能となる。
これにより、作業所要時間の長さも考慮して工程編成の導出が可能となる。
作業者を撮像して撮像画像を解析すれば、その作業者の検出点の三次元位置を特定することができる。
これにより、情報処理装置を用いて上記した本発明に係る工程編成支援装置を実現できる。
以下、本発明に係る工程編成支援装置の実施形態を説明する。なお、図1に示す演算部1が、本発明に係る工程編成支援装置の実施形態となる。図1は演算部1を含む工程編成支援システムの例を示している。
これら1又は複数の撮像部10は、動画として撮像した各フレームの撮像画像データを演算部1に供給する。
なお、撮像部10はステレオ撮像を行うものとされ、ステレオ撮像された撮像画像信号は、画像解析において三角測量の原理を用いて奥行き方向の情報も得ることができる。
駆動部11は、撮像部10の撮像方向を変位させる装置で、例えばパン・チルト機構及びその駆動モータを有する。
各センサ20の検出信号は、有線又は無線で受信部21に供給され、受信部で受信した検出信号は、検出値生成部22で検出値にデコードされて演算部1に供給される。
なお演算部1としての情報処理装置は、1つのコンピュータ装置で実現されてもよいし、複数のコンピュータ装置が連携して実現されてもよい。
この演算部1は、本システムのための処理機能として、画像解析部1a、カメラ制御部1b、検出情報取得部1c、動作判定部1d、評価値算出部1e、出力制御部1fが設けられる。これらの各部はソフトウエアにより実行される処理機能を仮想的にブロック化して示したものである。
本例の場合、作業者を主に関節等の検出点と、検出点を結ぶ線の情報で簡易化した簡易モデルとして検出する。
図2に簡易モデルの例を示す。人体の各所について検出点Pを設定する。図では検出点P0〜P20を一例として示している。例えば腰部、頭部、首、手足の関節部分など、主に姿勢に応じて変位する箇所を検出点Pとする。
各検出点Pは、それぞれ特定の他の検出点Pと線で結ばれる。
例えば検出点P1は検出点P2,P3,P6とそれぞれ線で結ばれている。
検出点P2は検出点P1とのみ線で結ばれている。
検出点P3は検出点P1、P4と線で結ばれている。
これらのように、各検出点P1〜P20は、それぞれ線で結ばれている検出点が規定されていることで、点と線により人体を表現する簡易モデルが形成される。
なお、撮像画像データから作業者の身体を的確に検出するために作業服(ユニフォーム)や帽子の色を予め登録しておき、工場設備や製品の色と明確に区別できるようにすることが好適である。
或いはパターンマッチングにより、人体構成部分における各検出点Pを判定することも考えられる。
さらに作業者がセンサ20を手首、足首等に装着して、それらの位置情報が検出できるようにした場合、撮像画像データから抽出した検出点Pの三次元位置情報を、センサ20による位置情報で補正するようなことも考えられる。
具体的には画像解析部1aによって認識された作業者の位置の移動(各フレームでの作業者位置の変化)に応じて、駆動部11を駆動させる。
例えば画像解析部1aが、撮像画像データの所定のフレーム間隔となるサンプルタイミングt(t0、t1、t2・・・)で各検出点P0〜P(n)(図2の例ではn=20)の三次元位置情報を検出するとする。検出情報取得部1cは、サンプルタイミングt毎に、検出点P0〜P(n)の三次元座標値を取得し、これを記憶する。この図4Aのような情報は、例えば1つの工程毎、作業者毎に取得し、記憶管理していく。
ここで、一つの工程には、一又は複数の作業が含まれる。サンプルタイミングt毎の作業者の三次元位置情報は、図4Aに示すように工程毎に記憶するのではなく、さらに作業単位まで細分化して記憶してもよい。
いま、工程Aが図4Bのように5つの作業a1〜a5があるとすると、担当する作業者WM1は、ライン上の車体に対して、この工程A(作業a1〜a5)を繰り返し行うことになる。
図4Aのような各検出点P0〜P20の三次元位置情報は、サンプルタイミングt毎に取得・記憶していくことで、繰り返し行われる工程における検出点P0〜P20の三次元位置情報が時系列上で収集されていくことになる。
なお、図4Bではサンプルタイミングt0〜t99、t100〜t199で、それぞれ工程Aの1回が完了するものとして示しているが、これは説明上の一例に過ぎない。例えば同じ工程を同じ作業者が行う場合であっても、毎回同じ時間で完了するとは限らないためである。工程A内の各作業a1〜a5としての情報が、どのサンプルタイミングtの情報であるかは、各三次元座標値によって判定される姿勢や姿勢の変化、動きの変化等により判定できる。
人の姿勢や動作に対しては、人間工学的にそれぞれ負担値を予め算出しておくことができる。例えば両手を上げている姿勢の負担、しゃがんだ姿勢の負担、腰をかがめた姿勢、或いは横への移動動作、体をひねる動作などについての負担値は、予め計算できる。また各姿勢や動作の継続時間によって負担も異なるが、その継続時間に応じた負担の値も予め設定できる。例えば両手を上げる姿勢は、一瞬であればさほど負担はないが、継続して上げている状態はかなり負担が大きくなる。
これら姿勢や動作、さらにはその時間に応じた負担値は、予め人間工学に沿って算出し、体系化してデータベース部2に登録しておく。
そして評価値算出部1eは、動作判定部1dで判定した工程や各作業における作業者の一連の動作、姿勢や、その継続時間に基づいて、工程或いは工程内の各作業についての作業負担値を算出する。例えば検出点Pまたは線の移動量から判定された動作や姿勢やその継続時間等についての負担値を求め、これらを加算、或いは重み付け加算等を行い、作業や工程における一連の動作(姿勢)としての作業負担値を算出する。具体的には、判定された作業中の姿勢、腕等の関節の角度、移動量等の個々について上記のデータベース部2における登録情報から対応する負担値をあてはめ、これらを用いて1つの作業や工程の作業負担値を算出する。
また例えば作業終了時まで通して作業負担値を算出し、疲労のピークや、作業延長時の影響度(疲労予測)を求めることもできる。
なお算出値は、多様に想定される。例えば工程Aについての算出値MA1は、工程Aにおける作業負荷の総合負担値、MA2は作業者の肩に対する負担値、図示しないMA3は脚部に対する負担値、などとしてもよい。
また各作業に対しての算出値(例えば作業a1についての算出値Ma1−1、Ma2−2・・・)も、総合負担値、各部の負担値などとしてもよい。
工程や作業についての負担値(作業負荷)の計算例を示す。
Disは(数2)で求められる。
Posは例えば(数3)で求められる。
なお、以上の負担値(作業負荷)の計算例は一例に過ぎない。
また、特に本実施の形態における出力制御部1fは、編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの作業負担値(評価値)に基づいて、複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行うが、この点については後に改めて説明する。
記憶部3は、図4Aのような検出情報や、図5のような算出値の情報が記憶される。また演算部1が上記各機能を実行するためのプログラムが記憶される。
表示部4は、演算部1に接続された表示デバイスとされ、各種のユーザインターフェース画像や、作業負担評価情報を示す画像の表示を行う。
通信部5は、有線、無線で外部機器との通信を行ったり、LAN(Local Area Network)等の通信経路を介した通信を行う。演算部1は通信部5により例えば作業負担評価情報を他の情報処理装置等に提供できる。
印刷部6は、演算部1に接続されたプリンター等であり、演算部1の指示に応じて印刷動作を行う。
図6を参照しながら演算部1の処理手順を説明する。演算部1は図1に示した各機能(1a〜1f)により、以下の処理を実行する。
図6Aは、一人の作業者が実行する一つの工程を対象として作業負荷の測定を行う処理を示している。演算部1は、後述する本例の編成シミュレーションを行う場合には、図6Aの処理を編成対象の一群の工程(製造ラインを構成する一群の工程)における各工程ごとに行う。具体的に、本例の編成シミュレーションを前提とした場合、複数の作業者の個々人にそれぞれ編成対象の一群の工程を実行させるが、この場合、図6Aに示す処理は、このように個々人の作業者が実行する一群の工程における各工程を対象として実行することになる。例えば、作業者A、Bの二人にそれぞれ一群の工程を実行させる場合においては、作業者Aが実行する一群の工程について図6Aに示す処理を工程ごとに実行すると共に、作業者Bが実行する一群の工程について図6Aに示す処理を工程ごとに実行する。なお、このように複数の作業者に工程を実行させる場合は、作業者ごとに設けた複数のコンピュータ装置がそれぞれ並行して図6Aに示す処理を行ってもよい。
ステップS103で演算部1は、作業者認識を行う。即ち取り込みを開始した撮像画像データの画像解析により、作業者を認識する。例えば特定の色の作業服を着た人物を作業者として認識し、その作業者の身体位置を把握する。
ステップS104で演算部1は、作業者追尾を開始する。即ち画像上で認識した作業者がフレームアウトしないように駆動部11を制御する追尾制御を開始する。
測定開始トリガに応じて演算部1はステップS106に進む。
ステップS107で演算部1は、姿勢データモデル化を行う。つまり動作判定部1dの機能により、ステップS106で取得した各検出点Pの三次元座標値によって表現される作業者の簡易モデルから、作業者の姿勢、動作を判定する。
ステップS108で演算部1は、作業負担数値化を行う。即ち演算部1は評価値算出部1eの機能により、各種作業負担の計算を行い、その計算値を記憶する。
以上のステップS106〜S108の処理を、ステップS109で測定終了と判断されるまで繰り返す。
この間、ステップS108での計算値は、それぞれ各時点における図5のようなデータとして保存してもよいし、毎サンプルタイミングtの計算値の積算値として図5のようなデータを更新していくようにしてもよい。
これにより、或る作業者が実行する或る工程について、作業者の負担に関する負担評価情報が生成され、表示されることになる。
ここで、例えば製造ラインの各工程について、1日のスパンで図6Aの測定処理(S109までの処理)を行うと、1日の作業者の負担に関する負担評価情報を生成可能となる。
ここでは、作業負担評価情報の具体例について説明しておく。
1つの工程については、ステップS106で例えば図4Aのように各サンプルタイミングtでの作業者の身体状況が取得でき、さらにステップS107,S108の処理で単位期間毎に負担値が算出される。この負担値が測定終了まで積算されて保持されるようにすれば、各工程において図5のように保持した算出値(例えばMA1、MA2・・・)は、測定開始から終了までの工程の負担値となる。例えば1日の勤務における工程の負担値となる。従って、そのように得た積算値を工程毎に集めて負担評価情報とすることで、図7Aのように表示を行うことができる。
1つの工程において各作業の負担度合いをみることができる。
工程内の各作業については、予め各作業による動作パターン等を登録しておけば、画像解析により、各サンプルタイミングtの期間の動作が、それぞれどの作業の実行中であるかが判別できる。従ってステップS108での負担値の算出を、各作業単位で分けて実行することが可能で、その各作業についての算出値を積算していけば、保持した算出値は測定開始から終了までの工程の負担値となる。例えば図5の算出値Ma1−1、Ma2−1・・・Ma5−1)は、測定開始から終了までの工程Aにおける各作業a1〜a5の負担値となる。例えば1日の勤務における各作業の負担値となる。従って、そのように得た積算値を工程毎に集めて負担評価情報とすることで、図7Bのような表示を行うことができる。
身体の各部に係る負担値自体は、例えば姿勢や動きを判定することで例えばデータベース部2から取得するような処理が可能である。例えばステップS107で或る姿勢を判定したときに、その姿勢における右手の負担値、左手の負担値、腰の負担値、右足の負担値、左足の負担値などをデータベース部2から取得する。ステップS108では、各部の負担値を測定開始から終了までの期間中に積算していけばよい。すると、測定終了時点で身体各部の負担値が求められていることになる。そのような積算値を集めて負担評価情報とすることで、図7Cのような表示を行うことができる。
このような情報により管理者やライン技術者等は、当該工程又は作業では、作業者のどこに負荷がかかるかをより詳細に知ることができる。
そこで同一の工程や作業について作業者毎の負担値を比較できるような負担評価情報を生成し、図示のように表示させる。これによって管理者は、各工程や作業について、作業者毎の負担値を指標とした特性、例えば習熟度や向き/不向きなどの特性を判断することができる。
次に図6Bに示す編成シミュレーション及び最適工程編成の選択のための処理について説明する。
前述のように本例の編成シミュレーションを行う場合は、複数の作業者の個々人にそれぞれ編成対象の一群の工程を実行させ、それら個々人の作業者が実行する一群の工程における各工程を対象として図6Aに示す処理を実行することで、作業者ごとに一群の工程における各工程ごとの作業負担値を得る。
演算部1は、図9に示すようにして得られた作業者及び工程ごとの作業負担値の情報を例えば記憶部3に記憶させる。
図10は、このように一群の工程をそれぞれ実行した作業者ごとに算出された作業所要時間の例を示している。本例では、作業所要時間としては作業単位での所要時間を算出する。また本例では、作業所要時間としても工程単位での総合的な作業所要時間を算出している。演算部1は、図10に示すように作業者及び工程ごとに算出した作業所要時間の情報を記憶部3に記憶させる。
演算部1はステップS201で、工程編成シミュレーション処理を実行する。具体的に本例では、作業者WM1〜WMnとしての複数の作業者がそれぞれ実行した一群の工程間で作業の組み替えを行い、編成内容の異なる複数の工程編成を得る。例えば、組み替えの手法としては、作業者MW1が実行した一群の工程をベースとして、工程Bの作業を作業者WM2による工程Bの作業と組み替え、工程Dの作業を作業者WM3による工程Dの作業と組み替えるなどである。なおこの点からも理解されるように、本例の編成シミュレーションによっては、作業の組み替えに伴い人員の組み替えも生じるものである。
この際、作業の組み替えは、予め定められた作業順序条件に従って行う。製造ラインにおける一連の工程においては、例えば或る作業と或る作業は同一人が順番に行うことが適切であるとか、或る作業は次の工程に組み入れてもよいとか、作業毎の特性がある。これらを予め条件化しておき、データベース部2に格納しておく。演算部1は各作業について、このような作業順序条件を確認し、該作業順序条件を満たす範囲内で作業組み替えのシミュレーションを行う。
また、最適工程編成の選択において、作業所要時間を選択の基準として用いることは必須ではない。
何れにしても、この場合における最適工程編成の選択処理としては、少なくとも作業負担の小さい工程編成が優先的に選択されるようにして行われればよい。
図示するように最適工程編成の情報としては、一群の工程についての工程順序と、各工程における作業順序と、各作業を実行する作業者の情報とを少なくとも表示する。換言すれば、工程編成を特定するための情報を少なくとも表示する。本例では、これらの情報に加えて、作業単位での作業者の割り当て情報、作業単位での作業負担値及び作業所要時間の情報や、工程単位での作業負担値(図中「工程負担値」)及び作業所要時間(図中「工程所要時間」)の情報、さらには一群の工程におけるトータルの作業負担値(図中「トータル負担値」)及び同トータルの作業所要時間(図中「トータル所要時間」)の情報も表示するものとしている。
ここで、上記では最適工程編成の選択にあたり指標とする評価値として、作業負担値を用いる場合を例に挙げたが、作業者ごとに作業に対する適応値を算出し、該適応値を指標として最適工程編成の選択を行うこともできる。
例えば、1つの工程の各作業において、例えば理想的な姿勢や動作を基準とし、その基準となる姿勢や動作における各検出点P(P0〜P20)の位置や時系列上の変化を予め数値化してデータベース部2に格納しておく。例えば熟練者の工程作業を撮像して、各検出点P1〜P20の各時点の位置や変化を図4Aと同様に取得して、基準情報として記憶しておくようにしてもよい。或いは人間工学的な分析により、該当の作業において最も人への負担が小さい姿勢や動作を設定し、その場合の各検出点P0〜P20に相当するポイントの各時点の位置や変化を基準情報として記憶してもよい。
いずれにしても、そのような基準情報と、図4Aのような検出情報を比較することで、検出対象としている作業者にとっての、当該作業に適しているか否かを示す適応値を求める。本例における適応値は、対象の作業に対象の作業者が適しているか否かを数値化した情報である。例えば「0」から「100」の数値などとして、適応性を表すものとする。
演算部1は、編成対象の一群の工程をそれぞれ実行させた作業者ごとに図13の処理を行う。
まずステップS401で演算部1は対象の作業者を選択する。本例では、複数の作業者WM1〜WMnにそれぞれ一群の工程を実行させているので、先ずは、例えば作業者WM1を選択する。
続くステップS402で演算部1は、処理対象とする作業を選択する。該ステップS402では、ステップS401で選択した作業者が実行した一群の工程における個々の作業を順次選択していく。
このため演算部1はデータベース部2から工程Aの作業a1に関する基準情報を取得する。例えば作業a1としての基準となる検出点P0〜P(n)の各時点の三次元座標値が、データベース部2に登録されている。このような基準情報と対象の作業者の身体各部の個別データを比較して差分値を求める。
そしてステップS405で演算部1は、差分値を用いて演算を行い、当該作業者の当該作業(例えば作業a1)に対する適応性を示す適応値を算出する。
差分値が小さいと言うことは、その作業者が基準情報との比較で姿勢や動きの差が小さいということであり、作業中に無駄な動きが少ないということである。逆に差分値が大きいことは無駄な動きが多いということである。
例えば各サンプルタイミングの差分値の積算、主要な検出点Pの情報の選択/重み付け、各検出点Pの変位の時間などとして、所定の演算を行って適応値を求める。この適応値は、対象の作業者の姿勢や動作が、基準となる姿勢や動作に対して類似しているか或いは乖離しているかを表す値となるようにする。
また図4Aのような情報によれば、1つの作業、1つの動作の所要時間も判定できる。従って、所要時間に応じた係数を用いて適応値を求めることも有効である。
この場合におけるステップS202の最適工程編成選択処理では、演算部1は、ステップS201のシミュレーションにより得られた複数の工程編成ごとの適応値に基づき、それら複数の工程編成のうちから最適とされる工程編成を選択する。例えば、シミュレーション処理により得られた個々の工程編成ごとに適応値の合計値を算出し、該合計値を最大とする工程編成を最適工程編成として選択する(前述のように適応性があるほど適応値が大きくなることを前提とした場合)。
なお、この場合における最適工程編成の選択処理としては、少なくとも作業に対する適応性が高いとされる工程編成が優先的に選択されるように行われればよい。
この場合も最適工程編成の選択にあたり作業所要時間を考慮することもできる。
上記では、作業負担値に基づく工程編成の選択として、作業負担値の小ささを指標として工程編成を選択することについて言及したが、該別例は、作業負担値に基づく工程編成選択の他の例を提案するものである。具体的には、編成対象の一群の工程について、工程ごとの作業負担を平準化(均等化)するということを基準に最適工程編成を選択するものである。
図15Aは、平準化の前提となる負担評価情報の一例である。まず本例の平準化を行うにあたっては、編成対象の一群の工程を構成する各作業についての作業負担値を得ることが前提となる。図15Aでは、編成対象の一群の工程が工程A〜工程Eで成る場合において、該一群の工程を構成する作業ごとの作業負担値を得た場合の例を示している。なお図中の「総合」は、この場合も工程単位での作業負担値を意味している。
このような一群の工程における各作業の作業負担値は、一人の作業者に該一群の工程を実行させることで得てもよいし、該一群の工程を構成する作業を例えば工程ごと等の所定の作業単位に分割して複数の作業者にそれぞれ分担させて実行させることで得てもよい(例えば図15Aの例において工程ごとに分担させる場合は5人の作業者にそれぞれ対応する一の工程を実行させる)。
図15Aに示すような一群の工程における工程ごとの作業負担値は、例えば該一群の工程における各工程を対象として図6Aに示す処理を実行することで得る。
平準化にあたっては、作業負担の均等範囲を設定する。例えば各工程の負担値の平均値を求め、該平均値を中心とした±αの範囲を、均等範囲とする。図15の数値例に則して言えば、工程A〜工程Eについての作業負担値の平均値は「260」である。例えばα=10として、「250」〜「270」を均等範囲とする。これは、各工程の負担値が均等範囲内にあれば、各工程は、作業者にとってほぼ平等の負荷となるものとする範囲設定である。
平準化では、最も多くの工程、望ましくは全ての工程の作業負担値が均等範囲内となることを目標とする。図15Bでは、図15Aの工程編成における作業b1を工程Aに組み入れ、かつ作業c4を工程Dに組み入れることで、工程A〜工程Eが、全て均等範囲「250」〜「270」内となる例が示されている。これにより、工程A〜工程Eの全ての負担が略均等とされる。
この場合の演算部1は、先の図6Bに示した場合と同様に、ステップS201の工程編成シミュレーション処理、ステップS202の最適工程編成選択処理、及びステップS203の表示処理を行う。この場合、ステップS201の工程編成シミュレーション処理では、前述した作業順序条件を満たす範囲内で対象の一群の工程について作業の組み替えを行って、編成内容の異なる複数の工程編成を得る。
ステップS202の最適工程編成選択処理では、ステップS201のシミュレーション処理で得られた複数の工程編成ごとに、作業負担値が前述した均等範囲内に収まっている工程の数を算出し、算出した工程の数が最も多い工程編成を最適工程編成として選択する。この場合、該当する工程編成が複数存在する場合は、それら複数の工程編成を最適工程編成として選択すればよい。
以上、実施形態としての工程編成支援装置(演算部1)は、一又は複数の作業を含む工程の編成について支援を行う工程編成支援装置であって、測定対象の作業を実行する作業者について、複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、各時点での作業者の身体状態の情報を取得する検出情報取得部(同1c)と、検出情報取得部で得た情報に基づき、作業者の作業に対する評価値を算出する評価値算出部(同1e)と、編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの評価値に基づいて、前記複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行う出力制御部(同1f)とを備えている。
従って、上記した実施形態としての工程編成支援装置によれば、効率的な工程編成の導出を正確かつ編成に係る人員負担の軽減を図りながら実現することができる。
これにより、編成シミュレーションでは編成内容の異なる工程編成ごとの作業負担値が得られ、該作業負担値に基づいて一又は複数の工程編成が選択される。
従って、作業負担の面で効率的となる工程編成を導出することができる。
これにより、編成シミュレーションでは編成内容の異なる工程編成ごとの適応値が得られ、該適応値に基づいて一又は複数の工程編成が選択される。
従って、作業者の得意不得意や向き・不向き等、作業者の作業に対する適応性の面で効率的となる工程編成を導出することができる。
これにより、作業者としての人員の編成も含めて、効率的となる工程編成を導出することができる。
これにより、作業所要時間の長さも考慮して工程編成の導出を行うことができる。
即ちカメラで作業者を撮像し、撮像対象の人間の主に関節部を模した複数の点と、それを結ぶ線とに簡略化したデータに変換する。演算部1はこのような点又は線の移動ベクトルの検出結果から人間の動きを特定するシステムとしている。
上記のように作業者を撮像して撮像画像を解析すれば、その作業者の検出点の三次元位置を特定することができる。
またこの場合、作業者はセンサ等を身体に装着する必要をなくすことができ、センサ装着による違和感や作業性悪化を生じさせないようにすることができる。
Claims (7)
- 一又は複数の作業を含む工程の編成について支援を行う工程編成支援装置であって、
測定対象の作業を実行する作業者について、複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、各時点での前記作業者の身体状態の情報を取得する検出情報取得部と、
前記検出情報取得部で得た情報に基づき、前記作業者の前記作業に対する評価値を算出する評価値算出部と、
編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの前記評価値に基づいて、前記複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行う出力制御部と、を備えた
工程編成支援装置。 - 前記検出情報取得部で得た情報における前記検出点又は線の変化により作業者の姿勢又は動作を判定する動作判定部を備え、
前記評価値算出部は、
前記動作判定部で判定した作業者の姿勢又は動作に基づき算出した作業負担値を前記評価値として得る
請求項1に記載の工程編成支援装置。 - 前記評価値算出部は、
前記検出情報取得部で得た情報における前記検出点又は線についての情報を測定対象の作業について設定された基準情報と比較して前記作業者の該作業に対する適応値を算出し、該適応値を前記評価値として得る
請求項1に記載の工程編成支援装置。 - 前記評価値算出部は、
複数の作業者にそれぞれ前記一群の工程を実行させた場合における前記作業者ごとの前記評価値を算出し、
前記出力制御部は、
前記編成シミュレーションとして、前記複数の作業者がそれぞれ実行した前記一群の工程間で作業を組み替えるシミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの前記評価値に基づいて、一又は複数の工程編成を選択する
請求項1に記載の工程編成支援装置。 - 前記作業者の作業所要時間を取得する所要時間取得部を備え、
前記出力制御部は、
前記編成シミュレーションにより得た工程編成ごとの前記評価値及び前記作業所要時間に基づいて、一又は複数の工程編成を選択する
請求項1に記載の工程編成支援装置。 - 前記検出情報取得部は、作業者を撮像した画像データの解析結果から、複数の前記検出点の三次元位置を取得する
請求項1に記載の工程編成支援装置。 - 一又は複数の作業を含む工程の編成について支援を行う工程編成支援方法であって、
測定対象の作業を実行する作業者について、複数の身体部位に対応する検出点と該検出点を結ぶ線により簡易モデル化した状態で、各時点での前記作業者の身体状態の情報を取得する検出情報取得手順と、
前記検出情報取得手順で得た情報に基づき、前記作業者の前記作業に対する評価値を算出する評価値算出手順と、
編成対象の一群の工程について編成内容を異ならせた複数の工程編成を得る編成シミュレーションを行い、該編成シミュレーションにより得た工程編成ごとの前記評価値に基づいて、前記複数の工程編成のうちから一又は複数の工程編成を選択し、選択した工程編成の情報を提示する制御を行う出力制御手順と、
を情報処理装置が実行する
工程編成支援方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015191297A JP6629556B2 (ja) | 2015-09-29 | 2015-09-29 | 工程編成支援装置、工程編成支援方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015191297A JP6629556B2 (ja) | 2015-09-29 | 2015-09-29 | 工程編成支援装置、工程編成支援方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017068432A true JP2017068432A (ja) | 2017-04-06 |
JP6629556B2 JP6629556B2 (ja) | 2020-01-15 |
Family
ID=58494909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015191297A Active JP6629556B2 (ja) | 2015-09-29 | 2015-09-29 | 工程編成支援装置、工程編成支援方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6629556B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019061521A (ja) * | 2017-09-27 | 2019-04-18 | 長崎菱電テクニカ株式会社 | 計画支援装置、計画支援方法、及び計画支援プログラム |
JP2020052706A (ja) * | 2018-09-27 | 2020-04-02 | 横河電機株式会社 | 工程管理システム、工程管理方法、および工程管理プログラム |
JP2020077388A (ja) * | 2018-09-28 | 2020-05-21 | 医療法人社団皓有会 | 運動解析装置 |
JP2021051620A (ja) * | 2019-09-26 | 2021-04-01 | 株式会社日立製作所 | 作業支援装置、作業支援システムおよび作業支援方法 |
WO2021161651A1 (ja) * | 2020-02-10 | 2021-08-19 | オムロン株式会社 | 作業負荷分析装置、作業負荷分析方法、プログラム |
DE112019007257T5 (de) | 2019-04-25 | 2022-01-13 | Mitsubishi Electric Corporation | Arbeits-assistenzeinrichtung |
WO2022138722A1 (ja) * | 2020-12-25 | 2022-06-30 | 株式会社日立製作所 | 作業行動認識システムおよび作業行動認識方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287601A (ja) * | 1989-04-27 | 1990-11-27 | Toshiba Corp | 工程編成装置 |
JPH0696087A (ja) * | 1991-10-24 | 1994-04-08 | Honda Motor Co Ltd | 生産ラインの製造方法 |
JPH06195351A (ja) * | 1992-12-25 | 1994-07-15 | Hitachi Plant Eng & Constr Co Ltd | 作業割当て計画システム |
JPH11120163A (ja) * | 1997-10-17 | 1999-04-30 | Toyota Motor Corp | 作業者の動作シミュレーション装置および生産ライン検討装置 |
JP2001101422A (ja) * | 1999-10-04 | 2001-04-13 | Hitachi Plant Eng & Constr Co Ltd | 動作解析装置 |
JP2003167613A (ja) * | 2001-11-30 | 2003-06-13 | Sharp Corp | 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体 |
JP2005134536A (ja) * | 2003-10-29 | 2005-05-26 | Omron Corp | 作業訓練支援システム |
WO2012046392A1 (ja) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US20150185731A1 (en) * | 2013-12-26 | 2015-07-02 | Hyundai Motor Company | Work-in-process inspection system using motion detection, and method thereof |
-
2015
- 2015-09-29 JP JP2015191297A patent/JP6629556B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287601A (ja) * | 1989-04-27 | 1990-11-27 | Toshiba Corp | 工程編成装置 |
JPH0696087A (ja) * | 1991-10-24 | 1994-04-08 | Honda Motor Co Ltd | 生産ラインの製造方法 |
JPH06195351A (ja) * | 1992-12-25 | 1994-07-15 | Hitachi Plant Eng & Constr Co Ltd | 作業割当て計画システム |
JPH11120163A (ja) * | 1997-10-17 | 1999-04-30 | Toyota Motor Corp | 作業者の動作シミュレーション装置および生産ライン検討装置 |
JP2001101422A (ja) * | 1999-10-04 | 2001-04-13 | Hitachi Plant Eng & Constr Co Ltd | 動作解析装置 |
JP2003167613A (ja) * | 2001-11-30 | 2003-06-13 | Sharp Corp | 作業管理システム、作業管理方法、及びその方法を実現するためのプログラムを記憶した記録媒体 |
JP2005134536A (ja) * | 2003-10-29 | 2005-05-26 | Omron Corp | 作業訓練支援システム |
WO2012046392A1 (ja) * | 2010-10-08 | 2012-04-12 | パナソニック株式会社 | 姿勢推定装置及び姿勢推定方法 |
US20150185731A1 (en) * | 2013-12-26 | 2015-07-02 | Hyundai Motor Company | Work-in-process inspection system using motion detection, and method thereof |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019061521A (ja) * | 2017-09-27 | 2019-04-18 | 長崎菱電テクニカ株式会社 | 計画支援装置、計画支援方法、及び計画支援プログラム |
JP2020052706A (ja) * | 2018-09-27 | 2020-04-02 | 横河電機株式会社 | 工程管理システム、工程管理方法、および工程管理プログラム |
JP2020077388A (ja) * | 2018-09-28 | 2020-05-21 | 医療法人社団皓有会 | 運動解析装置 |
DE112019007257T5 (de) | 2019-04-25 | 2022-01-13 | Mitsubishi Electric Corporation | Arbeits-assistenzeinrichtung |
US11803795B2 (en) | 2019-04-25 | 2023-10-31 | Mitsubishi Electric Corporation | Work assist device |
JP2021051620A (ja) * | 2019-09-26 | 2021-04-01 | 株式会社日立製作所 | 作業支援装置、作業支援システムおよび作業支援方法 |
JP7245139B2 (ja) | 2019-09-26 | 2023-03-23 | 株式会社日立製作所 | 作業支援装置、作業支援システムおよび作業支援方法 |
WO2021161651A1 (ja) * | 2020-02-10 | 2021-08-19 | オムロン株式会社 | 作業負荷分析装置、作業負荷分析方法、プログラム |
WO2022138722A1 (ja) * | 2020-12-25 | 2022-06-30 | 株式会社日立製作所 | 作業行動認識システムおよび作業行動認識方法 |
JP7520711B2 (ja) | 2020-12-25 | 2024-07-23 | 株式会社日立製作所 | 作業行動認識システムおよび作業行動認識方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6629556B2 (ja) | 2020-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6629556B2 (ja) | 工程編成支援装置、工程編成支援方法 | |
JP6676322B2 (ja) | 負担評価装置、負担評価方法 | |
JP6224873B1 (ja) | 情報処理システム、情報処理装置、情報処理方法及びプログラム | |
JP2017068429A (ja) | 作業負担評価装置、作業負担評価方法 | |
JP6676321B2 (ja) | 適応性評価装置、適応性評価方法 | |
JP7346791B2 (ja) | 手の人間工学的分析に関し、特に作業者の手の人間工学的分析用のセンサ搭載手袋及び対応する方法 | |
US9936902B2 (en) | Ergonomic data collection and analysis | |
JP7010542B2 (ja) | 作業分析装置、作業分析方法、及びプログラム | |
JP5757482B2 (ja) | 技能習得支援システム及び技能習得支援方法 | |
WO2018087853A1 (ja) | 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム | |
JP2017068428A (ja) | 作業負担評価装置、作業負担評価方法 | |
EP3637330B1 (en) | Content creation system | |
JP7561319B2 (ja) | 動作認識システム、方法及びプログラム | |
JP6669545B2 (ja) | 体調情報による生産調整システム | |
JP6509406B1 (ja) | 歩行態様表示方法、歩行態様表示システム及び歩行態様分析装置 | |
KR20160076488A (ko) | 근골격계 질환의 발생가능성의 판단 장치 및 방법 | |
KR20200073588A (ko) | 작업자 동작인식을 이용한 생산라인 모니터링 시스템 및 이를 이용하여 생산라인을 모니터링하는 방법 | |
WO2022209638A1 (ja) | 作業指示システム | |
Graichen et al. | Adaptive workplace design based on biomechanical stress curves | |
KR20160118678A (ko) | 근골격계 질환 예방을 위한 작업부하 측정 및 작업순환 순서 결정 방법 | |
JP7338282B2 (ja) | 技能比較装置および該方法 | |
JP5750488B2 (ja) | プログラムおよび表示制御装置 | |
WO2021161651A1 (ja) | 作業負荷分析装置、作業負荷分析方法、プログラム | |
JP2017000199A (ja) | 歩行評価方法および歩行評価システム | |
Bonin et al. | Digital Assessment of Anthropometric and Kinematic Parameters for the Individualization of Direct Human-Robot Collaborations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180619 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6629556 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |