JP7148938B2 - 状態判定システム、状態判定方法、及び状態判定プログラム - Google Patents
状態判定システム、状態判定方法、及び状態判定プログラム Download PDFInfo
- Publication number
- JP7148938B2 JP7148938B2 JP2021189744A JP2021189744A JP7148938B2 JP 7148938 B2 JP7148938 B2 JP 7148938B2 JP 2021189744 A JP2021189744 A JP 2021189744A JP 2021189744 A JP2021189744 A JP 2021189744A JP 7148938 B2 JP7148938 B2 JP 7148938B2
- Authority
- JP
- Japan
- Prior art keywords
- inspection object
- unit
- state determination
- determination
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Examining Or Testing Airtightness (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Description
操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御手段と、
前記動作制御手段が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物の破損に関する判定をする判定手段と、
前記判定手段の判定結果を前記ユーザに対して通知する通知手段と、
を備えることを特徴とする。
[システム構成]
図1は、本実施形態に係る状態判定システムSの全体構成を示すブロック図である。図1に示すように、状態判定システムSは、状態判定装置1、ウェアラブル端末2、及びサーバ装置3を含む。また、図中には、ユーザU、ネットワークN、及び検査対象物4も図示する。
以下では、説明のための一例として、状態判定装置1は、ユーザUによる近傍からの操作、又は遠隔からの操作(すなわち、テレオペレーション)が可能なロボットマニピュレーターで実現されることを想定する。より詳細には、状態判定装置1は、検査対象物4を把持するための把持機構を含むと共に、ユーザUが携帯して使用可能な可搬型のリーチャー(すなわち、マジックハンド)であることを想定する。このリーチャーとしての機能を実現するために、状態判定装置1は、ユーザUの操作を受け付ける操作機構55と、操作機構55をマスタ装置として動作させるためのマスタ側ユニット50と、検査対象物4を把持する把持機構65と、把持機構65をスレーブ装置として動作させるためのスレーブ側ユニット60と、これらの動作を統合的に制御する制御ユニット10とを含む。
ただし、これら操作機構55及び把持機構65の構成は例示に過ぎず、ユーザUの操作における力触覚及び把持における力触覚を、制御パラメータとしてマスタ装置とスレーブ装置間で相互に伝達可能とする構成であればよい。すなわち、これら操作機構55及び把持機構65の具体的な構成は、上述の例示には特に限定されない。
なお、ウェアラブル端末2によるこれらの処理は、ウェアラブル端末2と、状態判定装置1と、サーバ装置3と、が通信を行い、これらが協働することによって実現される。
まず、状態判定システムSは、ユーザUの操作に基づいて状態判定装置1の動作を制御(ここでは、バイラテラル制御機能による制御)することにより、状態判定装置1に検査対象物4を把持させる。また、状態判定システムSは、状態判定装置1の制御で用いた、力触覚に関する制御パラメータを取得する。さらに、状態判定システムSは、取得した力触覚に関する制御パラメータに基づいて、検査対象物の破損に関する判定をする。そして、状態判定システムSは、判定部114の判定結果をユーザに対して通知する。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
次に、上述した状態判定システムSでの具体的な処理の説明の前提として、本実施形態における、制御対象装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、操作機構55、スレーブ側ユニット60、及び把持機構65)に対する動作制御の基本的原理について説明する。
したがって、以下、本実施形態において、「動作」とは、人間の身体における部位の個別の「機能」を構成要素として実現される統合的な機能を表すものとする。例えば、状態判定装置1に対する操作を伴う動作(例えば、手によって状態判定装置1が備える操作機構55を操作させる動作)は、手の各指や手首、及びこれらに連結する腕や肩の関節等の機能を構成要素とする統合的な機能である。
本実施形態における動作の制御の基本的原理は、どのような動作も力源と速度(位置)源及び動作を表す変換の三要素で数理的に表現できることから、変換及び逆変換により定義される変数群に対し、双対関係にある理想力源及び理想速度(位置)源より制御エネルギーを制御対象のシステムに供給することで、抽出した動作を構造化し、再構築あるいは拡張増幅し動作を可逆的に自動実現(再現)する、というものである。
図2に示す基本的原理は、人間の動作を実現するために利用可能なアクチュエータ(ここでは、状態判定装置1が備える把持機構65を動作させるためのアクチュエータ)の制御則を表しており、アクチュエータの現在位置を入力として、位置(又は速度)あるいは力の少なくとも一方の領域における演算を行うことにより、アクチュエータの動作を決定するものである。
すなわち、本実施形態における制御対象装置の動作の制御の基本的原理は、制御対象システムCSと、機能別力・速度割当変換ブロックFTと、理想力源ブロックFCあるいは理想速度(位置)源ブロックPCの少なくとも1つと、逆変換ブロックIFTとを含む制御則として表される。
すなわち、本実施形態における制御対象装置の動作の制御の基本的原理では、機能別力・速度割当変換ブロックFTにおいて、アクチュエータ単体の変数(実空間上の変数)を、実現する機能を表現するシステム全体の変数群(仮想空間上の変数)に“変換”し、速度(位置)の制御エネルギーと力の制御エネルギーとに制御エネルギーを割り当てる。そのため、アクチュエータ単体の変数(実空間上の変数)のまま制御を行う場合と比較して、速度(位置)の制御エネルギーと力の制御エネルギーとを独立に与えることが可能となっている。
このような基本的原理により、制御対象システムCSのアクチュエータにおける位置の情報が機能別力・速度割当変換ブロックFTに入力されると、位置の情報に基づいて得られる速度(位置)及び力の情報を用いて、機能別力・速度割当変換ブロックFTにおいて、機能に応じた位置及び力の領域それぞれの制御則が適用される。そして、理想力源ブロックFCにおいて、機能に応じた力の演算が行われ、理想速度(位置)源ブロックPCにおいて、機能に応じた速度(位置)の演算が行われ、力及び速度(位置)それぞれに制御エネルギーが分配される。
その結果、制御対象システムCSのアクチュエータは、機能別力・速度割当変換ブロックFTによって定義された機能に従う動作を実行し、目的とするロボットの動作が実現される。
すなわち、本実施形態においては、ロボット(ここでは、状態判定装置1)によって所定の行為時の人間の動作をより適切に実現することが可能となる。
次に、機能別力・速度割当変換ブロックFTによって定義される機能の具体例について説明する。
機能別力・速度割当変換ブロックFTでは、入力されたアクチュエータの現在位置に基づいて得られる速度(位置)及び力を対象とした座標変換(実現する機能に対応した実空間から仮想空間への変換)が定義されている。
機能別力・速度割当変換ブロックFTでは、このような現在位置から速度(位置)及び力と、機能の基準値としての速度(位置)及び力とを入力として、速度(位置)及び力それぞれについての制御則が加速度次元において適用される。
すなわち、アクチュエータにおける力は質量と加速度との積で表され、アクチュエータにおける速度(位置)は加速度の積分によって表される。そのため、加速度の領域を介して、速度(位置)及び力を制御することで、アクチュエータの現在位置を取得して、目的とする機能を実現することができる。
(力・触覚伝達機能)
図3は、機能別力・速度割当変換ブロックFTにおいて力・触覚伝達機能が定義された場合の制御の概念を示す模式図である。また、図4は、力・触覚伝達機能が適用されるマスタ装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、及び操作機構55)及びスレーブ装置(ここでは、状態判定装置1が備える、状態判定装置1が備える、スレーブ側ユニット60、及び把持機構65)を含むマスタ・スレーブシステムの概念を示す模式図である。
この場合、機能別力・速度割当変換ブロックFTにおける座標変換は、次式(3)及び(4)として表される。
次に、本実施形態によって実現される人間の動作の抽出機能について詳細に説明する。
(基本原理)として上述したようにすれば、所定の機構のロボット(例えば、人間の身体の機能に対応する機構のロボット)を構成し、人間の動作をこのロボットに追従させて、その際のこのロボットの時系列の動作を検出することで、人間の動作を抽出することが可能となる。
この場合に、それぞれのアクチュエータの位置の検出結果に代えて、機能別力・速度割当変換ブロックFTにおいて座標変換結果として得られる状態値を導出するための各値(例えば、時系列で算出された式(4)の左辺の各値)を記憶装置に記憶しておくこととしてもよい。
図5(a)を参照すると、例えば、アクチュエータA1について、時刻t1では位置p1、時刻t2では位置p2、時刻t3では位置p3・・・と時系列の位置が記憶されている。
また、図5(b)を参照すると、例えば、座標変換結果x’’a1について、時刻t1では座標変換結果q1、時刻t2では座標変換結果q2、時刻t3では座標変換結果q3・・・と時系列の値が記憶されている。
これにより、人間が一度だけ実際に所定の行為における所定の動作を行えば、それ以降、この所定の動作を行わなくても、所定の動作の学習及び再現機能等の動作をロボットによって再現することができる。また、この所定の動作において用いられた力触覚に関する制御パラメータをログとして保存しておくことができる。
上述の力・触覚伝達機能において、位置、力及び時間のスケーリング機能をさらに実現することができる。
スケーリング機能とは、基準となる制御に対して、出力される位置、力あるいは時間のスケールを拡大あるいは縮小する機能である。スケーリング機能によって、例えば、マスタ装置の動きの大きさを縮小してスレーブ装置で再現したり、マスタ装置の動きの強さ(力)を強めてスレーブ装置で再現したり、あるいは、マスタ装置の動きの速度を低下させてスレーブ装置で再現したりすることができる。また、記憶装置に記憶された位置又は力の少なくとも一方の情報にスケーリング機能を用いることで、例えば、記憶された動きの大きさを縮小してスレーブ装置で再現したり、記憶された動きの強さ(力)を強めてスレーブ装置で再現したりすることができる。
以下、スケーリング機能を実現するための構成例について説明する。
スケーリングを伴う力・触覚伝達機能が実現される場合、図2における機能別力・速度割当変換ブロックFTにおける座標変換は、次式(5)及び(6)として表される。
このようなスケーリング機能によって、例えば、把持の際に、ユーザUの操作に伴う力触覚を抑制したり、強調したりすることができるため、より繊細な作業や、より力の必要な作業を行う場合に有効となる。
スケーリングによる力の制限を伴う力・触覚伝達機能が実現される場合、図2における機能別力・速度割当変換ブロックFTにおける座標変換は、例えば、次式(7)~(10)として表される。
なお、このような機能を実現する場合、以下のような条件を考慮することが適当である。
・速度次元まで連続であること(ヤコビ行列の存在条件)
・制限後の力が元の力の単調増加関数であること(安定性の条件)
・fs<aの時にはfs=fshatもしくはfs≒fshat(fshatは式(9)及び式(10)において機能別力・速度割当変換ブロックFTに含まれるパラメータ)
(安全領域での制御性能を保証する条件)
・飽和関数であること(ポジションリミットを実現する条件)
これらの条件を満たす他の関数として、atan関数を採用することも可能である。
このようなスケーリング機能によって、例えば、本実施形態による処理において、把持における力を一定とした状態で、位置の変化(すなわち、移動量)に基づいて安定した精度で判定を行うことが可能となる。また、検査対象物4の破損を回避することが可能となる。なお、上述した(7)~式(10)に示す座標変換において、例えば、スケーリングの対象を、力ではなく位置とすることで、位置の制限を伴う力・触覚伝達機能を実現することも可能である。
図6は、周波数領域におけるスケーリングを用いた力・触覚伝達機能の制御の概念を示す模式図である。
図6において、マスタ装置及びスレーブ装置の出力は、ハイパスフィルタ(HPF)及びローパスフィルタ(LPF)をそれぞれ通過した後に、機能別力・速度割当変換ブロックFTに入力される。
機能別力・速度割当変換ブロックFTでは、ハイパスフィルタを通過したマスタ装置及びスレーブ装置の出力に対して、高周波域用の座標変換を適用し、ローパスフィルタを通過したマスタ装置及びスレーブ装置の出力に対して、低周波域用の座標変換を適用する。
すなわち、機能別力・速度割当変換ブロックFTは、マスタ装置及びスレーブ装置からの入力を高周波域及び低周波域の信号に分離し、それぞれの周波数域に対応する座標変換を適用する。
このようなスケーリング機能によって、例えば、スレーブ装置が、物体を貫通したり、破断したりする際の感覚を強調してマスタ装置に伝達することが可能となる。
状態判定装置1による機能の再現において、学習して記憶されている機能を示す情報(例えば、図5に示す行為の抽出結果を表す時系列のデータ)を間引く、あるいは、補間する等して目標値とすることにより、時間のスケーリングを実現することができる。
具体的には、学習して記憶されている機能を示す情報を間引いた上で、理想力源ブロックFCあるいは理想速度(位置)源ブロックPCにおける演算の目標値として用いることにより、記憶されている機能(動作)を高速で再現することができる。同様に、学習して記憶されている機能を示す情報を補間した上で、目標値として用いることにより、記憶されている機能(動作)を低速で再現することができる。
また、記憶されている機能(動作)を低速で再現する場合、通常の速度で行われている動作を緩やかに再現できる。
次に、状態判定装置1の構成について、図7を参照して説明をする。図7は、状態判定装置1の基本的構成を示す模式図である。
なお、以下の説明において、マスタ側(ここでは、操作機構側)とスレーブ側(ここでは、把持機構側)を区別することなく説明する場合には、名称や符号の一部を省略して、単に「ユニット」、「ドライバ」、「アクチュエータ」、「位置センサ」と称する。
状態判定装置1に実装される機能は、上述したように、制御ユニット10にて実現される機能別力・速度割当変換ブロックFTによって定義される座標変換を切り替えることで、種々変更することができる。
制御ユニット10は、図2や図3における機能別力・速度割当変換ブロックFTと、理想力源ブロックFCと、理想速度(位置)源ブロックPCと、逆変換ブロックIFTとの機能を備えている。そして、制御ユニット10では、これらの機能により、マスタ装置及びスレーブ装置の一方の装置として動作するための制御を行う。
アクチュエータは、ドライバから入力された制御指令値に従って駆動され、制御対象装置の位置を制御する。
位置センサは、アクチュエータによって制御される制御対象装置の位置を検出し、検出値を制御ユニット10に出力する。
ここで、状態判定処理は、検査対象物4の破損に関する検査を補助するために、検査対象物4が破損しているか否かを判定する一連の処理である。
なお、図中において、プロセッサ11は、単一のプロセッサとして図示されているが、これは一例に過ぎない。例えば、プロセッサ11を、複数のプロセッサにより実現するようにしてもよい。この場合、例えば、上述したマスタ装置やスレーブ装置としての動作を制御する機能(図中における「動作制御部111」や「パラメータ取得部112」に相当)と、これと協働して状態判定処理を行う機能(図中における「判定基準設定部113」や「判定部114」に相当)とを、それぞれ別のプロセッサにより実現してもよい。さらに、この場合、プロセッサは、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)又はFPGA(Field-Programmable Gate Array)等の処理回路を含むものであってもよい。また、この場合、ROM12やRAM13等は、プロセッサ毎にそれぞれ設けられていてもよい。
ドライブ18には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア(図示を省略する。)が適宜装着される。ドライブ18よってリムーバブルメディアから読み出されたプログラムは、必要に応じて記憶部15にインストールされる。
また、このようなハードウェア構成において、状態判定処理を実現する場合、図8に示すように記憶部15の一領域には、パラメータ記憶部151と、判定基準記憶部152と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
また、判定部114は、判定結果をウェアラブル端末2に対して送信する。
次に、ウェアラブル端末2の構成について、図9を参照して説明をする。図9は、ウェアラブル端末2のハードウェア及び機能ブロックの一例を示すブロック図である。図9に示すように、ウェアラブル端末2は、プロセッサ21と、ROM22と、RAM23と、通信部24と、記憶部25と、入力部26と、出力部27と、カメラ28と、センサ29と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これらの内、カメラ28及びセンサ29以外の各部のハードウェアとしての機能は、図8を参照して上述した状態判定装置1が備える同名の各部と同様である。そのため、これら各部のハードウェアとしての機能については、重複する再度の説明を省略する。一方で、カメラ28及びセンサ29について、以下説明をする。
また、プロセッサ21は、このような複合現実の技術に関する表示を行うために、CPUのみならず、GPU(Graphics Processing Unit)等の画像処理用のプロセッサを含んで実現されてもよい。
また、この場合、図9に示すように記憶部25の一領域には、対象物情報記憶部251と、作業情報記憶部252と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
このように、音声からなる指示やジェスチャーからなる指示操作を受け付け可能とすることにより、ウェアラブル端末2に対する指示のための操作が、状態判定装置1に対する把持のための操作の妨げになることを防止し、ユーザUの利便性をより向上させることができる。
そして、対象物情報管理部213は、このようにして取得及び更新した対象物情報を対象物情報記憶部251に記憶させる。すなわち、対象物情報記憶部251は、対象物情報を記憶する記憶部として機能する。
通知部214による通知は、上述したように、出力部27が備える透過型のディスプレイへの表示や、出力部27が備えるスピーカからの音(音声や警告音等)の出力や、警告灯の点滅等により実現される。なお、通知部214による通知の具体例については、図15及び図16を参照して後述する。
そして、作業情報管理部215は、このようにして取得及び更新した作業情報を作業情報記憶部252に記憶させる。すなわち、作業情報記憶部252は、作業情報を記憶する記憶部として機能する。
次に、サーバ装置3の構成について、図10を参照して説明をする。図10は、サーバ装置3のハードウェア及び機能ブロックの一例を示すブロック図である。図10に示すように、サーバ装置3は、プロセッサ31と、ROM32と、RAM33と、通信部34と、記憶部35と、入力部36と、出力部37と、ドライブ38と、を備えている。これら各部は、信号線により接続されており、相互に信号を送受する。なお、これら各部のハードウェアとしての機能は、図8を参照して上述した状態判定装置1が備える同名の各部や、図9を参照して上述したウェアラブル端末2が備える同名の各部と同様である。そのため、これら各部のハードウェアとしての機能については、重複する再度の説明を省略する。
また、この場合、図10に示すように記憶部35の一領域には、対象物情報管理部351と、作業情報記憶部352と、が設定される。
以下で特に言及しない場合も含め、これら機能ブロック間では、処理を実現するために必要なデータを、適切なタイミングで適宜送受信する。
そして、対象物情報管理部311は、このようにして取得及び更新した対象物情報を対象物情報管理部351に記憶させる。すなわち、対象物情報管理部351は、対象物情報を記憶する記憶部として機能する。
そして、作業情報管理部313は、このようにして取得及び更新した作業情報を作業情報記憶部352に記憶させる。すなわち、作業情報記憶部352は、作業情報を記憶する記憶部として機能する。
本実施形態における、状態判定装置1、ウェアラブル端末2、及びサーバ装置3の構成について詳細に説明した。次に、これら各装置を含む状態判定システムSが実行する状態判定処理に含まれる各処理の処理内容について、図11、図12、図13及び図16のフローチャートを参照して説明する。図11は、状態判定処理における前処理の流れを説明するフローチャートである。図12は、状態判定処理における把持開始処理の流れを説明するフローチャートである。図13は、状態判定処理における判定処理の流れを説明するフローチャートである。図16は、状態判定処理における把持終了処理の流れを説明するフローチャートである。なお、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理や、作業情報管理部215及び作業情報管理部313による作業情報の管理は、別途行われているものとする。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3に対して送信する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。この場合に、識別部312は、識別結果のみならず、この識別結果に対応する検査対象物4の対象物情報を対象物情報管理部351から読み出し、この対象物情報もウェアラブル端末2に対して送信する。ただし、識別部312が識別結果のみを送信し、これを受信したウェアラブル端末2が対象物情報記憶部251から対象物情報を読み出すようにしてもよい。
ステップS8において、判定基準設定部113は、識別結果に対応する対象物情報に含まれる所定の閾値を、検査対象物4が破損しているか否かを判定するための基準となる閾値として設定する。なお、詳細は後述するが、本実施形態では、判定するための基準となる閾値として、第1閾値と、第2閾値の2つの閾値を設定する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
しかしながら、これに限らず、複合現実の技術を用いて、把持すべき位置の画像データと実物の包装容器の位置とが適合するように重畳表示してもよい。この場合に、さらに、「把持を開始して下さい。」といった旨のテキストを表示したり音声を出力したりするようにしてもよい。このようにすると、ユーザUが把持すべき位置や把持を開始するタイミングが容易に認識することが可能となる。
ステップS14において、ステップS13にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上であるか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態であることを確認する意図で行われる。従って、第1閾値は、把持機構65により検査対象物4を把持することが可能な力の値以上の値に設定される。なお、検査対象物4の種類により、把持することが可能な力の値は異なる。そのため、上述したように、本実施形態では、検査対象物4の種類により、第1閾値を異ならせている。
ステップS17において、判定部114は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS17においてYesと判定され、処理はステップS18に進む。一方で、到達していない場合は、ステップS17においてNoと判定され、処理はステップS13に戻り、繰り返される。これは、力が第1閾値以上の状態が所定時間継続しているということから、把持が適切に行われており次の処理に以降できることを確認する意図で行われる処理である。
ステップS20において、通知部214は、状態判定装置1の状態を示すスターテスを「判定中」として、ユーザUに対して通知する。
ステップS22において、判定部114は、ステップS21にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値以上を維持しているか否かを判定する。この判定は、把持機構65により検査対象物4が把持されている状態が、適切に継続していることを確認する意図で行われる処理である。
ステップS24において、通知部214は、状態判定装置1の状態を示すスターテスを「エラー及びリトライ」として、ユーザUに対して通知する。そして、処理はステップS10に戻り、繰り返される。
この場合に、判定の精度をより高めるには、基準となる、把持を開始する前の状態が毎回同じ状態であることが望ましい。そこで、例えば、動作制御部111による動作の制御において、力を示す値が所定値未満であり、把持が行われていないことが検出された場合には、スレーブ側アクチュエータ62を制御することにより把持機構65に含まれる把持部材が毎回同じ位置に移動するような制御を行う。例えば、把持機構65に含まれる把持部材が開閉することで把持をする機構である場合、毎回同じ広さで開くようにスレーブ側アクチュエータ62を制御する。これにより、基準となる、把持を開始する前の状態が毎回同じ状態となるので、判定の精度をより高めることが可能となる。
ステップS27において、判定部114は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、位置が第2閾値未満とならない状態が所定時間継続しており、把持が行われても検査対象物4が所定の基準以上は潰れない状態のままであるので、検査対象物4が破損していないということを確認する意図で行われる処理である。
ステップS31において、通知部214は、作業情報をユーザUに対して通知する。例えば、この作業情報は、判定結果に応じたものとし、ユーザUが次に行うべき作業を具体的に指示する内容とする。
ステップS33において、判定部114は、ステップS32にて取得した力触覚に関する制御パラメータにおける力を示す値が第1閾値未満か否かを判定する。この判定は、ユーザUが図15や図16のような通知を参照して作業を完了し(例えば、検査対象物4をコンテナに格納し)、把持機構65により検査対象物4が把持されている状態が終了したことを確認する意図で行われる。
ステップS30において、通知部214は、一連の状態判定処理が終了したことをユーザUに対して通知する。
ステップS37において、通知部214は、状態判定装置1の状態を示すスターテスを初期化する。
ステップS39において、作業情報管理部215は、更新後の作業情報をサーバ装置3に対して送信する。
また、状態判定処理によれば、検査作業を、仕分けやピッキングといった作業と並行して行うことができる、すなわち、作業工程を圧縮することができる。
以上、本発明の第1実施形態について説明した。続いて、本発明の第2実施形態について以下説明をする。以下では、第1実施形態とは相違する、第2実施形態特有の構成や処理内容について特に詳細に説明する。一方で、第1実施形態と第2実施形態とで重複する内容については、再度の説明を適宜省略する。
まず、第1実施形態と第2実施形態との相違点について簡略に説明する。第1実施形態では、状態判定処理を実施する場合に、ステップS25において、力触覚に関する制御パラメータと、第2閾値とを比較することで、検査対象物4の破損に関する判定をしていた。
そして、第2実施形態では、機械学習処理の後に、状態判定処理を実施する。この状態判定処理では、機械学習処理において構築した機械学習モデルに対して、判定対象とする検査対象物4の把持時に動作制御部111が動作制御において用いた力触覚に関する制御パラメータを入力することで破損に関する判定を行う。
これにより、第2実施形態では、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標に基づいて判定をすることとなり、より安定した精度での検査を実現することができる。
本実施形態に係る状態判定システムSの全体構成は、図1を参照して説明した第1実施形態の全体構成と同様である。また、検査対象物4として、食品(例えば、ポテトチップス等のお菓子)等を内容物として包装する包装容器であることを想定する点や、力触覚に関する制御パラメータとして位置を示す値を想定する点も第1実施形態と同様である。
さらに、本実施形態における、制御対象装置(ここでは、状態判定装置1が備える、マスタ側ユニット50、操作機構55、スレーブ側ユニット60、及び把持機構65)に対する動作制御の基本的原理についても、図2~図6を参照して説明した第1実施形態の動作制御の基本的原理と同様である。
さらに、本実施形態における、状態判定装置1の基本的構成についても、制御ユニット10以外については、図7を参照して説明した第1実施形態の状態判定装置1の基本的構成と同様である。
したがって、これらの点について、重複する説明を省略する。
また、このようなハードウェア構成において、機械学習処理や状態判定処理を実現する場合、図17に示すように記憶部15の一領域には、パラメータ記憶部151と、正解情報記憶部153と、環境情報記憶部154と、が設定される。このように、本実施形態の制御ユニット10aでは、第1実施形態の制御ユニット10との相違点として、正解情報記憶部153と、環境情報記憶部154と、が設定される一方で、判定基準記憶部152は設定されない。
そして、正解情報取得部115は、このようにして取得した正解情報を、教師データの一部として正解情報記憶部153に記憶させる。すなわち、正解情報記憶部153は、正解情報を記憶する記憶部として機能する。
上述したように、機械学習処理では、機械学習を行うための教師データを作成する目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。また、状態判定処理においても、検査対象物4の破損に関する判定をする目的で、状態判定装置1を把持装置として機能させて、検査対象物4を把持する。
環境情報は、これらの把持をした際に、センサ19が測定した、状態判定装置1の周囲の温度、湿度及び気圧である。
そこで、本実施形態では、このような環境の違いに起因する、力触覚に関する制御パラメータの値の変化への影響も考慮し、状態判定装置1の周囲の温度、湿度及び気圧といった環境情報を教師データの一部として機械学習を行う。これにより、より精度高く判定を行うことが可能な機械学習モデルを構築し、破損に関する判定を行うことができる。
そして、環境情報取得部116は、このようにして取得した環境情報を、教師データの一部や入力データの一部として環境情報記憶部154に記憶させる。すなわち、環境情報記憶部154は、環境情報を記憶する記憶部として機能する。
そして、パラメータ取得部112は、この取得した力触覚に関する制御パラメータを、教師データの一部として用いたり、状態判定処理における入力データの一部として用いたりするためにパラメータ記憶部151に記憶させる。すなわち、パラメータ記憶部151は、力触覚に関する制御パラメータを記憶する記憶部として機能する。
サーバ装置3による、この教師データを用いた機械学習方法や、この入力データを用いた判定方法については、図18のブロック図を参照して後述する。
本実施形態における、ウェアラブル端末2のハードウェア及び機能ブロックについては、図9を参照して説明した第1実施形態のウェアラブル端末2のハードウェア及び機能ブロックと同様である。したがって、この点について、重複する説明を省略する。なお、ウェアラブル端末2の処理の一部は、第1実施形態と異なるが、この点については、図19~図22のフローチャートを参照して後述する。
次に、サーバ装置3(以下、本実施形態におけるサーバ装置3を「サーバ装置3a」と称する。)の構成について、図18を参照して説明をする。図18は、サーバ装置3aのハードウェア及び機能ブロックの一例を示すブロック図である。図18に示すように、サーバ装置3aは、第1実施形態のサーバ装置3と同様のハードウェアを備える。
また、この場合、図18に示すように記憶部35の一領域には、対象物情報管理部351と、作業情報記憶部352と、教師データ記憶部353と、学習モデル記憶部354と、が設定される。このように、本実施形態のサーバ装置3aでは、第1実施形態のサーバ装置3との相違点として、教師データ記憶部353と、学習モデル記憶部354と、が設定される
そのために、機械学習部314は、まず状態判定装置1から教師データを取得する。上述したように、この教師データは、教師データを作成するために或る検査対象物4を把持した際に取得された、力触覚に関する制御パラメータ、正解情報(すなわち、正解を示すラベル)、及び環境情報を組としたものである。なお、教師データとして他の情報を用いてもよい。例えば、検査対象物4ではない物体を把持した際に取得された、力触覚に関する制御パラメータ、不正解を示すラベル、及び環境情報を組としたものを教師データとして用いてもよい。
そして、機械学習部314は、所定の条件(例えば、出力が所定以上の高い精度で正解となることや、所定時間学習を繰り返したこと)が満たされた場合に、学習を終了し、その時点で構築された機械学習モデルを学習モデル記憶部354に記憶させる。
すなわち、学習モデル記憶部354は、機械学習モデルを記憶する記憶部として機能する。なお、構築とは、新たに機械学習モデルを作成することのみならず、学習モデル記憶部354が記憶している機械学習モデルに対して、新たな教師データを用いて再学習を行うことも含む。
そのために、判定部315は、まず状態判定装置1から判定用の入力データを取得する。上述したように、この入力データは、判定対象とする検査対象物4を把持した際に取得された、力触覚に関する制御パラメータ、及び環境情報を組としたものである。
そして、判定部315は、この入力データと、学習モデル記憶部354が記憶している機械学習モデルを用いて、検査対象物4の破損に関する判定を行う。なお、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにした場合には、当然のことながら、判定部315は、今回の判定対象の検査対象物4の種類に応じた機械学習モデルを用いて判定を行う。
また、判定部315は、このようにして機械学習モデルを用いた状態判定処理により、検査対象物4の破損に関する判定を行うと、その判定結果をウェアラブル端末2に対して送信する。そして、この判定結果は、ウェアラブル端末2から、ユーザに対して通知される。
すなわち、本実施形態によれば、第1実施形態と同様に、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
本実施形態における、状態判定装置1(すなわち、制御ユニット10aを含む状態判定装置1)、ウェアラブル端末2、及びサーバ装置3aの構成について詳細に説明した。次にこれら各装置を含む状態判定システムSが実行する機械学習処理に含まれる各処理の処理内容について、図19及び図20のフローチャートを参照して説明する。図19は機械学習処理における前処理の流れを説明するフローチャートである。図20は、機械学習処理における構築処理の流れを説明するフローチャートである。
また、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理は、別途行われているものとする。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3aに対して送信する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。
ステップS51において、処理部117は、教師データ取得のために、後述する各種データを記録する記録モードに設定する。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
ステップS27において、処理部117は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、力触覚に関する制御パラメータを、教師データとして必要なだけ取得する意図で行われる処理である。
ステップS65において、処理部117は、ステップS64にて受け付けた正解情報を、状態判定装置1に対して送信する。
ステップS68において、機械学習部314は、ステップS67で記憶した教師データを用いて、所定の条件(例えば、出力が所定以上の高い精度で正解となることや、所定時間学習を繰り返したこと)が満たされるまで機械学習を行うことにより、検査対象物4の破損に関する判定を行うための機械学習モデルを構築する。
ステップS69において、機械学習部314は、ステップS68で構築した機械学習モデルを学習モデル記憶部354に記憶する。
また、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにする場合には、ステップS3での識別結果と、ステップS68で構築した機械学習モデルを紐付けて学習モデル記憶部354に記憶しておくようにする。これにより、状態判定処理において、検査対象物4の種類に応じた機械学習モデルを特定することが可能となる。
ステップS71において、通知部214は、教師データの記憶が完了した旨をユーザUに対して通知する。
次に、状態判定装置1、ウェアラブル端末2、及びサーバ装置3aを含む状態判定システムSが実行する状態判定処理に含まれる各処理の処理内容について、図21及び図22のフローチャートを参照して説明する。図21は状態判定処理における前処理の流れを説明するフローチャートである。図22は、状態判定処理における判定処理の流れを説明するフローチャートである。
また、説明の前提として、対象物情報管理部213及び対象物情報管理部311による対象物情報の管理は、別途行われているものとする。
ステップS2において、対象物撮影部212は、生成した検査対象物画像データをサーバ装置3aに対して送信する。
ステップS4において、識別部312は、識別結果(すなわち、何れの種類の検査対象物4であるか)をウェアラブル端末2に対して送信する。
ステップS82において、判定部315は、学習モデル記憶部354が記憶する機械学習モデルを読み出すことにより設定する。なお、検査対象物4の種類に応じて、機械学習モデルを使い分けるようにする場合には、ウェアラブル端末2から受信した対象物情報に基づいて、この対象物情報の種類(すなわち、今回判定対象とする検査対象物4の種類)に対応する機械学習モデルを学習モデル記憶部354から読み出す。
ステップS10において、通知部214は、状態判定装置1の状態を示すスターテスを「準備完了」として、ユーザUに対して通知する。
ステップS27において、処理部117は、カウンタの値が規定カウント数に到達したか否かを判定する。到達した場合は、ステップS27においてYesと判定され、処理はステップS28に進む。一方で、到達していない場合は、ステップS27においてNoと判定され、処理はステップS21に戻り、繰り返される。これは、力触覚に関する制御パラメータを、入力データとして必要なだけ取得する意図で行われる処理である。
ステップS31において、通知部214は、作業情報をユーザUに対して通知する。例えば、この作業情報は、判定結果に応じたものとし、ユーザUが次に行うべき作業を具体的に指示する内容とする。
ただし、第1実施形態では、力触覚に関する制御パラメータである位置を示す値(図中では「測定値」)と、第2閾値(図中では「閾値」)との関係を示すテキストが表示されていた。第2実施形態では、これに代えて、力触覚に関する制御パラメータである位置を示す値(図中では「測定値」)と、機械学習モデルによる判定基準等となる特徴量の値との関係を示すテキストを表示するようにしてもよい。
また、他にも、例えば、第2実施形態では、環境情報に含まれる温度等の値を示すテキストを表示するようにしてもよい。
すなわち、本実施形態の機械学習処理及び状態判定処理によれば、よれば、第1実施形態の状態判定処理と同様に、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
以上、本発明の実施形態について説明したが、この実施形態は例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明は、本発明の要旨を逸脱しない範囲で、その他の様々な実施形態を取ることが可能である共に、省略及び置換等種々の変形を行うことができる。この場合に、これら実施形態及びその変形は、本明細書等に記載された発明の範囲及び要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
一例として、以上説明した本発明の実施形態を、以下のようにして変形してもよい。
これにより、例えば、状態判定処理時にサーバ装置3aとの通信が困難な環境下であっても、機械学習モデルを用いて、破損に関する判定を行うことが可能となる。
さらに、状態判定装置1やウェアラブル端末2において演算能力を十分に確保することができたり、少ない演算量で機械学習モデルを構築できたりする機械学習の方法を利用する場合には、状態判定装置1やウェアラブル端末2に機械学習部314同様の機械学習部を設けて、機械学習モデルの構築についても、この機械学習部が行うようにしてもよい。
動作制御部111は、ユーザの操作に基づいて状態判定装置1の動作を制御することにより、状態判定装置1に検査対象物4を把持させる。
パラメータ取得部112は、動作制御部111による状態判定装置1の制御で用いた、力触覚に関する制御パラメータを取得する。
判定部114は、パラメータ取得部112が取得した力触覚に関する制御パラメータに基づいて、検査対象物4の破損に関する判定をする。
通知部214は、判定部114の判定結果をユーザに対して通知する。
このように、状態判定システムSは、検査対象物4を把持機構で把持した際の力触覚に関する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
判定部114は、包装容器の破損により、検査対象物4である包装容器によって包装されている内容物が流出しているか否かを判定する。
これにより、包装容器の破損により、空気漏れ等が発生していないか否かを検査することができる。
動作制御部111は、マスタ装置とスレーブ装置との間で力触覚に関する制御パラメータを伝達することにより、状態判定装置1の動作を制御する。
これにより、マスタ装置の動作とスレーブ装置の動作とを制御する際の、力触覚に関する制御パラメータを利用して検査を行うことができる。
識別部312は、検査対象物4を認識することにより、該検査対象物4の種類を識別する。
判定部114は、識別部312が識別した検査対象物4の種類に対応する基準で、検査対象物4の破損に関する判定をする。
これにより、様々な種類の検査対象物4それぞれに対応した、適切な基準により検査を行うことができる。
これにより、画像識別によって、より簡便に、検査対象物4の種類を識別することができる。
これにより、ユーザに対して、破損の有無等に応じた適切な作業指示を通知することができる。
これにより、位置という明確な基準に基づいて、検査を行うことができる。
作業情報管理部215及び作業情報管理部313は、ユーザによる状態判定装置1を用いた作業の結果を管理する。
これにより、検査を行うのみならず、作業履歴の管理等を行うことができる。
これにより、検査中に誤って検査対象物4を破損させてしまうような事態を防止することができる。
位置センサは、状態判定装置1の動作に伴う、位置に関する情報を検出する。
力・速度割当変換ブロックFTは、位置に関する情報に対応する所定の物理量の情報と、制御の基準となる情報とに基づいて、制御エネルギーを所定の物理量のエネルギーに対して割り当てる変換を行う。
理想力源ブロックFC及び理想速度(位置)源ブロックPCは、力・速度割当変換ブロックFTによって割り当てられた所定の物理量のエネルギーに基づいて、所定の物理量の制御量を算出する。
逆変換ブロックIFTは、理想力源ブロックFC及び理想速度(位置)源ブロックPCが算出した制御量に基づく出力を状態判定装置1に戻すべく、該制御量を逆変換して、状態判定装置1への入力を決定する。
これにより、各ユーザが力触覚を伴う動作を行う場合に、力触覚に関する制御パラメータに基づいて、状態判定装置1の動作を制御することができる。
マスタ側アクチュエータ52は、操作機構55を動作させる。
スレーブ側アクチュエータ62は、把持機構65を動作させる。
動作制御部111は、操作機構55に入力されたユーザの操作に応じてスレーブ側アクチュエータ62を駆動することで、把持機構65が検査対象物4を把持する動作を制御すると共に、把持機構65に入力された検査対象物4からの反力に応じてマスタ側アクチュエータ52を駆動することで、操作機構55が反力をユーザに伝達する動作を制御する、という動作制御を行う。
判定部315又は判定部114は、動作制御部111が動作制御において用いた制御パラメータに基づいて、検査対象物4の破損に関する判定をする。
通知部214は、判定部315の判定結果をユーザに対して通知する。
このように、状態判定システムSは、検査対象物4を把持機構で把持した際の、ユーザの操作や検査対象物4からの反力(すなわち力触覚)に対応する制御パラメータに基づいて、客観的に検査対象物4の破損に関する判定をする。従って、状態判定システムSは、作業における感覚(ここでは、力触覚)をデータ化することで作業を見える化することができる。これにより、検査精度が属人的な感覚(すなわち、作業者の主観)に依存することなく、安定した精度で検査を行うことが可能となる。また、このような構成であることから、様々なセンサや検査用のコンベアといった大掛かりな設備を必要とすることなく、簡便に状態判定システムSを実現できる。そのため、様々な製品について、輸送途中での破損を発見するための物流センターや小売店舗等で行われる検査に適用することが可能となる。
すなわち、状態判定システムSによれば、破損に関する検査を行うに際し、客観的な指標に基づいた、安定した精度での検査を実現することができる。
これにより、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標に基づいて判定をすることとなり、より安定した精度での検査を実現することができる。
機械学習部314は、制御パラメータと、検査対象物4の破損に関する判定結果との組を教師データとした機械学習をすることで、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルを構築する。
これにより、制御パラメータと、検査対象物4の破損に関する判定結果との関係を機械学習させた機械学習モデルという客観的な指標を構築することができる。
これにより、マスタ側アクチュエータ52及びスレーブ側アクチュエータ62の駆動時における周囲の環境という、さらに詳細な情報も考慮した、機械学習モデルを利用することができる。
これにより、例えば、熟練したユーザや、正解を予め知っているユーザによる、正確な判定結果に基づいた、機械学習モデルを利用することができる。
ユーザが装着する撮影装置により撮影された検査対象物4の画像に基づいて、検査対象物4を認識することにより、該検査対象物4の種類を識別する。
判定部315又は判定部114は、識別部312が識別した検査対象物4の種類に対応する基準で、検査対象物4の破損に関する判定をする。
これにより、画像識別によって、より簡便に、検査対象物4の種類を識別できるのみならず、さらに様々な種類の検査対象物4それぞれに対応した、適切な基準により検査を行うことができる。
これにより、ユーザに対して、破損の有無等に応じた適切な作業指示を通知することができる。
上述した実施形態による一連の処理を実行させる機能は、ハードウェアにより実現することもできるし、ソフトウェアにより実現することもできるし、これらの組み合わせにより実現することもできる。換言すると、上述した一連の処理を実行する機能が、状態判定システムSの何れかにおいて実現されていれば足り、この機能をどのような態様で実現するのかについては、特に限定されない。
Claims (11)
- 操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御手段と、
前記ユーザが前記検査対象物の破損に関する検査を行うに際し、前記動作制御手段が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物が破損しているか否かを判定する判定手段と、
前記判定手段の判定結果を前記ユーザに対して通知する通知手段と、
を備えることを特徴とする状態判定システム。 - 少なくとも、前記操作機構、前記操作機構側アクチュエータ、前記把持機構、及び前記把持機構側アクチュエータは、前記ユーザが携帯した状態で前記検査対象物を把持可能な、可搬型の把持装置が備えるものである、
ことを特徴とする請求項1に記載の状態判定システム。 - 前記判定手段は、前記制御パラメータと、前記検査対象物が破損しているか否かの判定結果との関係を機械学習させた機械学習モデルに対して、判定対象とする検査対象物の把持時に前記動作制御手段が前記動作制御において用いた前記制御パラメータを入力することで前記判定を行う、
ことを特徴とする請求項1又は2に記載の状態判定システム。 - 前記制御パラメータと、前記検査対象物が破損しているか否かの判定結果との組を教師データとした機械学習をすることで、前記制御パラメータと、前記検査対象物が破損しているか否かの判定結果との関係を機械学習させた機械学習モデルを構築する機械学習手段、
をさらに備えることを特徴とする請求項1から3の何れか1項に記載の状態判定システム。 - 前記機械学習モデルは、前記制御パラメータと、前記検査対象物が破損しているか否かの判定結果との関係に加えて、さらに操作機構側アクチュエータ及び前記把持機構側アクチュエータの駆動時における周囲の環境との関係についても機械学習させた機械学習モデルである、
ことを特徴とする請求項3又は4に記載の状態判定システム。 - 前記機械学習において用いられる前記検査対象物が破損しているか否かの判定結果は、前記検査対象物の把持時に前記操作機構に対して操作を入力したユーザが、該ユーザに伝達された前記反力に基づいて判定した判定結果である、
ことを特徴とする請求項3から5の何れか1項に記載の状態判定システム。 - 前記ユーザが装着する撮影装置により撮影された前記検査対象物の画像に基づいて、前記検査対象物を認識することにより、該検査対象物の種類を識別する識別手段をさらに備え、
前記判定手段は、前記識別手段が識別した検査対象物の種類に対応する基準で、前記判定をする、
ことを特徴とする請求項1から6の何れか1項に記載の状態判定システム。 - 前記通知手段は、前記ユーザが装着する通知装置から、前記判定手段の判定結果と共に、あるいは該判定結果に代えて、該判定結果に基づいた前記ユーザに対する作業指示を通知する、
ことを特徴とする請求項1から7の何れか1項に記載の状態判定システム。 - 前記動作制御手段は、前記把持機構が前記検査対象物を把持する強さが、所定の強さ以上とならないように抑制する制御を行う、
ことを特徴とする請求項1から8の何れか1項に記載の状態判定システム。 - 操作機構を動作させる操作機構側アクチュエータと、
把持機構を動作させる把持機構側アクチュエータと、
を備えたシステムが行う状態判定方法であって、
前記操作機構に入力されたユーザの操作に応じて前記把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御ステップと、
前記ユーザが前記検査対象物の破損に関する検査を行うに際し、前記動作制御ステップの前記動作制御において用いた制御パラメータに基づいて、前記検査対象物が破損しているか否かを判定する判定ステップと、
前記判定ステップの判定結果を前記ユーザに対して通知する通知ステップと、
を含むことを特徴とする状態判定方法。 - 操作機構に入力されたユーザの操作に応じて把持機構を動作させる把持機構側アクチュエータを駆動することで、前記把持機構が検査対象物を把持する動作を制御すると共に、前記把持機構に入力された前記検査対象物からの反力に応じて前記操作機構を動作させる操作機構側アクチュエータを駆動することで、前記操作機構が前記反力を前記ユーザに伝達する動作を制御する、という動作制御を行う動作制御機能と、
前記ユーザが前記検査対象物の破損に関する検査を行うに際し、前記動作制御機能が前記動作制御において用いた制御パラメータに基づいて、前記検査対象物が破損しているか否かを判定する判定機能と、
前記判定機能の判定結果を前記ユーザに対して通知する通知機能と、
をコンピュータに実現させることを特徴とする状態判定プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020199222 | 2020-11-30 | ||
JP2020199222 | 2020-11-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022087045A JP2022087045A (ja) | 2022-06-09 |
JP7148938B2 true JP7148938B2 (ja) | 2022-10-06 |
Family
ID=81893822
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021189744A Active JP7148938B2 (ja) | 2020-11-30 | 2021-11-22 | 状態判定システム、状態判定方法、及び状態判定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7148938B2 (ja) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000084871A (ja) | 1998-09-17 | 2000-03-28 | Hitachi Ltd | マスタスレーブマニピュレータ |
JP2003149074A (ja) | 2001-11-13 | 2003-05-21 | Ishida Co Ltd | シールチェック装置 |
JP2009241247A (ja) | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | ステレオ画像型検出移動装置 |
JP2012007985A (ja) | 2010-06-24 | 2012-01-12 | Nec Corp | 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム |
WO2017033380A1 (ja) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | ロボットシステム |
JP2017148924A (ja) | 2016-02-26 | 2017-08-31 | 花王株式会社 | ロボットハンド |
JP2017221597A (ja) | 2016-06-17 | 2017-12-21 | 株式会社Jvcケンウッド | 撮像装置、撮像方法及び撮像プログラム |
JP2018204959A (ja) | 2017-05-30 | 2018-12-27 | 株式会社A・R・P | 破袋強度検査装置 |
JP2019051569A (ja) | 2017-09-14 | 2019-04-04 | 株式会社東芝 | 保持装置、ハンドリング装置、および検出装置 |
JP2020170391A (ja) | 2019-04-04 | 2020-10-15 | ファナック株式会社 | 機械学習装置および機械学習方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05180725A (ja) * | 1991-12-26 | 1993-07-23 | Ishida Scales Mfg Co Ltd | 密封包装製品のシール検査方法 |
JP3804727B2 (ja) * | 1998-06-24 | 2006-08-02 | 日野自動車株式会社 | Egrクーラ |
-
2021
- 2021-11-22 JP JP2021189744A patent/JP7148938B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000084871A (ja) | 1998-09-17 | 2000-03-28 | Hitachi Ltd | マスタスレーブマニピュレータ |
JP2003149074A (ja) | 2001-11-13 | 2003-05-21 | Ishida Co Ltd | シールチェック装置 |
JP2009241247A (ja) | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | ステレオ画像型検出移動装置 |
JP2012007985A (ja) | 2010-06-24 | 2012-01-12 | Nec Corp | 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム |
WO2017033380A1 (ja) | 2015-08-25 | 2017-03-02 | 川崎重工業株式会社 | ロボットシステム |
JP2017148924A (ja) | 2016-02-26 | 2017-08-31 | 花王株式会社 | ロボットハンド |
JP2017221597A (ja) | 2016-06-17 | 2017-12-21 | 株式会社Jvcケンウッド | 撮像装置、撮像方法及び撮像プログラム |
JP2018204959A (ja) | 2017-05-30 | 2018-12-27 | 株式会社A・R・P | 破袋強度検査装置 |
JP2019051569A (ja) | 2017-09-14 | 2019-04-04 | 株式会社東芝 | 保持装置、ハンドリング装置、および検出装置 |
JP2020170391A (ja) | 2019-04-04 | 2020-10-15 | ファナック株式会社 | 機械学習装置および機械学習方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2022087045A (ja) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10706331B2 (en) | Task execution system, task execution method, training apparatus, and training method | |
JP6403920B1 (ja) | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム | |
US11577388B2 (en) | Automatic robot perception programming by imitation learning | |
US20210331311A1 (en) | Image generation device, robot training system, image generation method, and non-transitory computer readable storage medium | |
CN108602191B (zh) | 动作信息生成装置、动作信息生成方法以及记录介质 | |
JP7344977B2 (ja) | 機械学習データ生成装置、機械学習装置、機械学習データ生成方法及びコンピュータプログラム | |
JP7264253B2 (ja) | 情報処理装置、制御方法及びプログラム | |
Wilson et al. | Analyzing liquid pouring sequences via audio-visual neural networks | |
CN115070780A (zh) | 基于数字孪生的工业机器人抓取方法、装置及存储介质 | |
CN114730407A (zh) | 使用神经网络对工作环境中的人类行为进行建模 | |
Chen et al. | Multimodality driven impedance-based sim2real transfer learning for robotic multiple peg-in-hole assembly | |
JP6807589B1 (ja) | 状態判定システム、状態判定方法、及び状態判定プログラム | |
JP7148938B2 (ja) | 状態判定システム、状態判定方法、及び状態判定プログラム | |
KR102509698B1 (ko) | 춤 동작을 학습하여 춤을 추는 스마트 로봇 | |
CN116968024A (zh) | 获取用于生成形封闭抓取位姿的控制策略的方法、计算设备和介质 | |
Nogales et al. | A proposal for Hand gesture control applied to the KUKA youBot using motion tracker sensors and machine learning algorithms | |
Vanc et al. | Context-aware robot control using gesture episodes | |
Charter | Human-Centered Intelligent Monitoring and Control of Industrial Systems: A Framework for Immersive Cyber-Physical Systems | |
JP7506180B2 (ja) | 教示支援装置、作業システム、教示支援方法および教示支援プログラム | |
JP2020023050A (ja) | 触覚情報推定装置、触覚情報推定方法及びプログラム | |
Behrens et al. | Embodied reasoning for discovering object properties via manipulation | |
US20230351197A1 (en) | Learning active tactile perception through belief-space control | |
US20240119628A1 (en) | Automatic generation of 'as-run' results in a three dimensional model using augmented reality | |
US11922667B2 (en) | Object region identification device, object region identification method, and object region identification program | |
Rizzotti-Kaddouri et al. | Learning from Demonstration and Safe Cobotics Using Digital Twins |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211214 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211214 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20211228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7148938 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |