JP6632095B1 - 学習済モデル生成装置、ロボット制御装置、及び、プログラム - Google Patents
学習済モデル生成装置、ロボット制御装置、及び、プログラム Download PDFInfo
- Publication number
- JP6632095B1 JP6632095B1 JP2019005103A JP2019005103A JP6632095B1 JP 6632095 B1 JP6632095 B1 JP 6632095B1 JP 2019005103 A JP2019005103 A JP 2019005103A JP 2019005103 A JP2019005103 A JP 2019005103A JP 6632095 B1 JP6632095 B1 JP 6632095B1
- Authority
- JP
- Japan
- Prior art keywords
- robot
- learned model
- task
- model generation
- generation device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006870 function Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012706 support-vector machine Methods 0.000 claims description 6
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 26
- 230000009471 action Effects 0.000 abstract description 8
- 230000004048 modification Effects 0.000 description 29
- 238000012986 modification Methods 0.000 description 29
- 230000010365 information processing Effects 0.000 description 20
- 238000004891 communication Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 7
- 230000015654 memory Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
Description
ロボットに対して制御命令を与えるための技術として、例えば、特許文献1は、ロボットに制御命令を与えるためのユーザインタフェースを開示している。
動作が規定されていない動作環境が存在すると、ロボットの動作に不具合が生じる。
複数の動作から構成されるタスクを実行するロボットの動作に関する学習済モデルを生成する学習済モデル生成装置であって、
ロボットの複数の動作環境のそれぞれに関するセンサデータを取得する手段を備え、
前記センサデータから、前記動作環境を表す特徴量を抽出する手段を備え、
前記抽出された特徴量と、前記動作と、が関連付けられた学習用データセットを記憶する手段を備え、
前記学習用データセットを参照して、前記動作環境及び前記動作の関係が規定された学習済モデルを生成する手段を備える、
学習済モデル生成装置である。
情報処理システムの構成を説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
制御対象ロボット70は、ロボット制御装置50に接続される。
ロボット30及び制御対象ロボット70は、自律的に動作するように構成された自立動作装置の一例である。ロボット30及び制御対象ロボット70は、例えば、以下を含む。
・ロボットアーム
・工作機械
・ロボット掃除機
・ドローン
・自立駆動型の医療機器(一例として、内視鏡)
・ロボット30及びロボット30の周囲の静止画、並びに、制御対象ロボット70及び制御対象ロボット70の周囲の静止画
・ロボット30及びロボット30の周囲の動画、並びに、制御対象ロボット70及び制御対象ロボット70の周囲の動画
・ロボット30及びロボット30の周囲の音声、並びに、制御対象ロボット70及び制御対象ロボット70の周囲の音声
学習済モデル生成装置10の構成を説明する。図2は、図1の学習済モデル生成装置の機能ブロック図である。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、学習済モデル生成アプリケーション)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、センサユニット20を含む。
出力デバイスは、例えば、ディスプレイである。
本実施形態のロボット30の構成を説明する。図3は、図1のロボットの機能ブロック図である。
ロボット制御装置50の構成を説明する。図4は、図1の学習済モデル生成装置の機能ブロック図である。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ロボット制御アプリケーション)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。また、入力デバイスは、センサユニット20を含む。
出力デバイスは、例えば、ディスプレイである。
本実施形態の制御対象ロボット70の構成を説明する。図5は、図1の制御対象ロボットの機能ブロック図である。
本実施形態の概要を説明する。図6は、本実施形態の概要の説明図である。
「動作」とは、タスクを完了させるために必要な要素である。
「動作環境」とは、動作を実行するときの状況及び動作を実行する場所の組合せである。
つまり、ロボット30及び制御対象ロボット70が複数の動作環境のそれぞれにおいて動作を行った結果、タスクが完了する。
ロボット30は、ユーザ指示に応じて動作する。
センサユニット20は、ロボット30の複数の動作環境のそれぞれに関するセンサデータを生成する。
学習済モデル生成装置10は、センサユニット20から、センサデータを取得する。
学習済モデル生成装置10は、センサデータから、各動作環境の特徴量を抽出する。
学習済モデル生成装置10は、特徴量(つまり、動作環境)と、動作と、が関連付けられた学習用データセットを生成する。
学習済モデル生成装置10は、学習用データセットを参照して、動作環境及び動作の関係が規定された学習済モデルを生成する。
本実施形態のデータテーブルを説明する。
本実施形態のタスクデータベースを説明する。図7は、本実施形態のタスクデータベースのデータ構造を示す図である。
タスクデータベースは、「タスクID」フィールドと、「タスク名」フィールドと、複数の「動作環境」フィールド(「動作環境A」フィールド、「動作環境B」フィールド…)と、を含む。
各フィールドは、互いに関連付けられている。
・動作を表す抽象的な命令(一例として、「パレットに収容された対象物のうち、「1」が付された対象物を掴む」という命令)
・動作を表す駆動パラメータ(例えば、ロボット30に含まれるジョイント部のジョイント角度の値)
本実施形態の学習用データセットを説明する。図8は、本実施形態の学習用データセットのデータ構造を示す図である。
学習用データセットは、「データID」フィールドと、「時刻」フィールドと、「センサデータ」フィールドと、「特徴量」フィールドと、「コマンド」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
・静止画データ
・動画データ
・音声データ
本実施形態の情報処理を説明する。
本実施形態の学習済モデル生成処理を説明する。図9は、本実施形態の学習済モデル生成処理のフローチャートである。図10は、図9の処理において表示される画面例を示す図である。図11は、図9の処理において生成される学習済モデルのネットワーク図である。
具体的には、プロセッサ12は、画面P10(図10)をディスプレイに表示する。
フィールドオブジェクトF10は、タスク識別情報のユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB10は、フィールドオブジェクトF10に対するユーザ入力を確定させるためのオブジェクトである。
具体的には、タスクデータベース(図7)を参照して、ステップS110で特定したタスク識別情報に関連付けられたレコードを特定する。
プロセッサ12は、特定したレコードの「動作A」フィールドの「画像」フィールド及び「コマンド」フィールドの組合せに基づく画面P11をディスプレイに表示する。
画像オブジェクトIMG11は、「動作A」フィールドの「画像」フィールドの画像(つまり、動作環境Aに対応する画像)である。動作環境Aは、「1」〜「3」が付された対象物がパレットに収容されている環境である。
操作オブジェクトB11a〜B11cには、それぞれ、「動作A」フィールドの「コマンド」フィールドの値(つまり、動作環境Aにおいてロボット30に与えることができるコマンド)が割り当てられている。例えば、操作オブジェクトB11a〜B11cには、それぞれ、画像オブジェクトIMG11において「1」〜「3」が付された対象物を掴む動作を実行させるためのコマンドが割り当てられている。ユーザが操作オブジェクトB11a〜B11cの何れかを操作すると、ユーザによって操作されたオブジェクトに割り当てられたコマンドが特定される。
画像オブジェクトIMG12は、「動作B」フィールドの「画像」フィールドの画像(つまり、動作環境Bに対応する画像)である。動作環境Bは、「1」〜「2」が付された対象物がパレットに収容されている環境である。動作環境Aでは、「3」が付された対象物がパレットに収容されているのに対して、動作環境Bでは、「3」が付された対象物がパレットに存在しない。つまり、動作環境Bのパレットにおける対象物の配置は、動作環境Aとは異なる。
操作オブジェクトB12a〜B12bには、それぞれ、「動作B」フィールドの「コマンド」フィールドの値(つまり、動作環境Bにおいてロボット30に与えることができるコマンド)が割り当てられている。例えば、操作オブジェクトB12a〜B12bには、それぞれ、画像オブジェクトIMG12において「1」〜「2」が付された対象物を掴む動作を実行させるためのコマンドが割り当てられている。ユーザが操作オブジェクトB12a〜B12bの何れかを操作すると、ユーザによって操作されたオブジェクトに割り当てられたコマンドが特定される。
具体的には、ユーザが操作オブジェクトB11aを操作すると、プロセッサ12は、操作オブジェクトB11aに割り当てられたコマンドを特定する。
プロセッサ12は、特定されたコマンドをロボット30に送信する。
駆動部35は、プロセッサ32により生成された制御信号に従って駆動する。その結果、ロボット30は、動作環境Aにおいてユーザの制御命令に応じて動作する。
具体的には、センサユニット20は、ステップS112において動作したロボット30の動作環境に関するセンサデータを生成する。
プロセッサ12は、センサユニット20によって生成されたセンサデータを取得する。
具体的には、プロセッサ12は、ステップS113において取得されたセンサデータの特徴量を抽出する。
例えば、センサデータが静止画又は動画である場合、プロセッサ12は、センサデータに対して画像解析アルゴリズムを適用することにより、動作環境に対応する画像特徴量を抽出する。
例えば、センサデータが音声である場合、プロセッサ12は、センサデータに対して音声解析アルゴリズムを適用することにより、動作環境に対応する音声特徴量を抽出する。
具体的には、ステップS110で特定したタスク識別情報と、新規の学習用データセット(図8)と、を関連付けて記憶装置11に記憶する。
プロセッサ12は、ステップS114で抽出された特徴量と、ステップS114が実行された時刻と、ステップS112で特定されたコマンドと、を関連付けて学習用データセットの新規レコードに格納する。
所定の動作環境の全てについてステップS115が終了していない場合(S116−NO)、ステップS111が実行される。
所定の動作環境の全てについてステップS115が終了している場合(S116−YES)、ステップS117が実行される。
具体的には、プロセッサ12は、ステップS115で生成された学習用データセット(図8)に対して所定の学習アルゴリズムを適用することにより、学習済モデルを生成する。
学習アルゴリズムは、例えば、以下の何れかである。
・RNN(Recurrent Neural Network)
・LSTM(Long Short-Term Memory)
・CNN(Convolution Neural Network)
・SVM(Support Vector Machine)
ステップt1における隠れ要素St1は、ステップt1における動作環境情報(つまり、特徴量)Xt11〜Xt13の関数である。
ステップt1における出力Yt1は、特徴量Xt11〜Xt13に基づいて計算される。出力Yt1は、特徴量Xt11〜Xt13によって決定される動作環境における動作の予測確率である。出力Yt1が所定値より高い、又は、最も高い動作が、当該動作環境において実行すべき動作を意味する。
ステップt2における隠れ要素St2は、ステップt2における動作環境情報(つまり、特徴量)Xt21〜Xt23の関数である。
ステップt2における出力Yt2は、特徴量Xt21〜Xt23及び隠れ要素St1の組合せに基づいて計算される。出力Yt2は、特徴量Xt21〜Xt23によって決定される動作環境における動作の予測確率である。出力Yt2が所定値より高い、又は、最も高い動作が、当該動作環境において実行すべき動作を意味する。
ステップt3における隠れ要素St3は、ステップt3における動作環境情報(つまり、特徴量)Xt31〜Xt33の関数である。
ステップt3における出力Yt3は、特徴量Xt31〜Xt33及び隠れ要素St2の組合せに基づいて計算される。出力Yt3は、特徴量Xt31〜Xt33によって決定される動作環境における動作の予測確率である。出力Yt3が所定値より高い、又は、最も高い動作が、当該動作環境において実行すべき動作を意味する。
本実施形態のロボット制御処理を説明する。図12は、本実施形態のロボット制御処理のフローチャートである。図13は、図12の処理において表示される画面例を示す図である。
具体的には、プロセッサ12は、画面P20(図13)をディスプレイに表示する。
フィールドオブジェクトF210は、タスク識別情報のユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB20は、フィールドオブジェクトF20に対するユーザ入力を確定させるためのオブジェクトである。
具体的には、センサユニット20は、制御対象ロボット70の動作環境に関するセンサデータを生成する。
プロセッサ12は、センサユニット20によって生成されたセンサデータを取得する。
具体的には、プロセッサ12は、ステップS114(図9)と同様に、ステップS151において取得されたセンサデータの特徴量を抽出する。
具体的には、プロセッサ52は、学習済モデル生成装置10の記憶装置11にアクセスして、ステップS150で特定したタスク識別情報に関連付けられた学習済モデル(図11)を読み出す。
プロセッサ52は、読み出した学習済モデルに対して、ステップS152で抽出された特徴量を入力することにより、制御対象ロボット70の動作環境に対応するコマンドを生成する。
プロセッサ52は、生成したコマンドを制御対象ロボット70に送信する。
駆動部75は、プロセッサ72により生成された制御信号に従って駆動する。
所定の動作環境の全てについてステップS153が終了していない場合(S154−NO)、ステップS151が実行される。
所定の動作環境の全てについてステップS153が終了している場合(S154−YES)、ロボット制御処理が終了する。
本実施形態の変形例を説明する。
変形例1を説明する。変形例1は、動作環境の代替例である。図14は、変形例1の情報処理において表示される画面例を示す図である。
画像オブジェクトIMG20は、「動作C」フィールドの「画像」フィールドの画像(つまり、動作環境Cに対応する画像)である。動作環境Cは、「4」〜「6」が付された対象物がパレットに収容されている環境である。動作環境Aでは、丸型の対象物が3スロットを有するパレットに収容されているのに対して、動作環境Bでは、矩形型の対象物が6スロットを有するパレットに収容されている。つまり、動作環境Bのパレット及び対象物は、動作環境Aとは異なる。
操作オブジェクトB20a〜B20cには、それぞれ、「動作C」フィールドの「コマンド」フィールドの値(つまり、動作環境Cにおいてロボット30に与えることができるコマンド)が割り当てられている。例えば、操作オブジェクトB20a〜B20cには、それぞれ、画像オブジェクトIMG20において「4」〜「6」が付された対象物を掴む動作を実行させるためのコマンドが割り当てられている。ユーザが操作オブジェクトB20a〜B20cの何れかを操作すると、ユーザによって操作されたオブジェクトに割り当てられたコマンドが特定される。
変形例2を説明する。変形例2は、センサデータがロボット30の物理量に関するデータである例である。
ロボット30の物理量は、例えば、以下の少なくとも1つを含む。
・ロボット30に配置された力覚センサにかかる力
・ロボット30に配置されたトルクセンサによって取得された各軸にかかるトルク
・ロボット30に配置された圧力センサの接触面にかかる圧力
・ロボット30に配置された電圧センサによって取得された電圧(具体的には、ロボット30の各軸を動かす際に生じた電圧)
・ロボット30又はロボット30の周囲に配置された温度センサによって取得された温度
変形例3を説明する。変形例3は、本実施形態のタスク(以下「親タスク」という)に関連付けられる子タスクが存在する例である。
変形例3の子タスクデータベースを説明する。図15は、変形例3の子タスクデータベースのデータ構造を示す図である。
子タスクデータベースは、「子タスクID」フィールドと、「時刻」フィールドと、「コマンド」フィールドと、「センサデータ」フィールドと、を含む。
各フィールドは、互いに関連付けられている。
変形例3の情報処理を説明する。図16は、変形例3の学習済モデル生成処理のフローチャートである。図17は、変形例3の学習済モデルのネットワーク図である。
具体的には、ユーザがタスク識別情報を指定し、且つ、ロボット30aを操作すると、ロボット30aは、ユーザの操作に応じたジョイント角度での動作を実行する。
プロセッサ12は、ロボット30aから、実行された動作の制御パラメータ(例えば、ジョイント角度の値)を取得する。
具体的には、プロセッサ12は、ステップS210で取得した制御パラメータをロボット30bに出力する。
具体的には、ロボット30bは、ステップS211で出力された制御パラメータに応じて動作する。
センサユニット20は、センサユニット20は、ステップS112において動作したロボット30の動作環境に関するセンサデータを生成する。
プロセッサ12は、センサユニット20によって生成されたセンサデータを取得する。
具体的には、プロセッサ12は、ステップS113において取得されたセンサデータの特徴量を抽出する。
具体的には、プロセッサ12は、ステップS210でユーザによって指定されたタスク識別情報に関連付けられた子タスクデータベース(図15)に新規レコードを追加する。新規レコードの各フィールドには、以下の情報が格納される。
「子タスクID」フィールドには、新規の子タスク識別情報が格納される。
「時間」フィールドには、ステップS212でセンサデータが取得された時刻の値が格納される。
「コマンド」フィールドには、ステップS210で取得された制御パラメータが格納される。
「センサデータ」フィールドには、ステップS212で取得されたセンサデータが格納される。
所定の動作環境の全てについてステップS214が終了していない場合(S215−NO)、ステップS210が実行される。
所定の動作環境の全てについてステップS214が終了している場合(S215−YES)、ステップS216が実行される。
具体的には、プロセッサ12は、ステップS215で生成された学習用データセット(図15)に対して所定の学習アルゴリズム(例えば、RNN又はLSTM)を適用することにより、学習済モデルを生成する。
本実施形態を小括する。
複数の動作から構成されるタスクを実行するロボット30の動作に関する学習済モデルを生成する学習済モデル生成装置10であって、
ロボット30の複数の動作環境のそれぞれに関するセンサデータを取得する手段(例えば、ステップS113の処理を実行するプロセッサ12)を備え、
センサデータから、動作環境を表す特徴量を抽出する手段(例えば、ステップS114の処理を実行するプロセッサ12)を備え、
抽出された特徴量と、動作(例えば、コマンド)と、が関連付けられた学習用データセットを記憶する手段(例えば、ステップS115の処理を実行するプロセッサ12)を備え、
学習用データセットを参照して、動作環境及び動作の関係が規定された学習済モデルを生成する手段(例えば、ステップS117の処理を実行するプロセッサ12)を備える、
学習済モデル生成装置10である。
動作環境は、動画、静止画、及び、音声の少なくとも1つである、
学習済モデル生成装置10である。
センサデータを取得する手段は、センサからロボット30の物理量に関するセンサデータを取得する、
学習済モデル生成装置10である。
センサデータは、センサ部にかかる力、ロボット30の各軸にかかるトルク、センサの接触面にかかる圧力、温度、及び、ロボット30の各軸を動かす際に生じた電圧の少なくとも1つを含む、
学習済モデル生成装置10である。
タスクを識別するタスク識別情報と、学習用データセットと、を関連付けて記憶する手段(例えば、図8の学習用データセット)を備える、
学習済モデル生成装置10である。
タスクを識別するタスク識別情報と、学習済モデルと、を関連付けて記憶する手段(例えば、ステップS117の処理を実行するプロセッサ12)を備える、
学習済モデル生成装置10である。
学習用データセットは、タスクを構成する複数の子タスク毎に、特徴量と、動作と、が関連付けられており、
学習済モデルを生成する手段は、タスクに対応する上位ネットワークと、子タスクに対応する下位ネットワークと、に特徴量及び動作の組合せを入力することにより、学習済モデルを生成する、
学習済モデル生成装置10である。
生成する手段は、学習用データセットに対して、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、CNN(Convolution Neural Network)、又は、SVM(Support Vector Machine)を適用することにより、学習済モデルを生成する、
学習済モデル生成装置10である。
上記の学習済モデル生成装置10によって生成された学習済モデルにアクセス可能なロボット制御装置50であって、
制御対象となるロボット30の動作環境に関するセンサデータを取得する手段を備え、
センサデータの特徴量を抽出する手段を備え、
抽出された特徴量を学習済モデルに入力することにより、動作環境に対応するコマンドを生成する手段を備え、
コマンドを制御対象ロボット70に送信することにより、制御対象ロボット70を動作させる手段を備える、
ロボット制御装置50である。
その他の変形例を説明する。
記憶装置51は、ネットワークを介して、ロボット制御装置50と接続されてもよい。
なお、センサユニット20は、ロボット30に配置されても良い。
なお、センサユニット20は、制御対象ロボット70に配置されても良い。
10 :学習済モデル生成装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
20 :センサユニット
20 :センサ
30 :ロボット
31 :記憶装置
32 :プロセッサ
34 :通信インタフェース
35 :駆動部
50 :ロボット制御装置
51 :記憶装置
52 :プロセッサ
53 :入出力インタフェース
54 :通信インタフェース
70 :制御対象ロボット
71 :記憶装置
72 :プロセッサ
74 :通信インタフェース
75 :駆動部
Claims (9)
- 複数の動作から構成されるタスクを実行するロボットの動作に関する学習済モデルを生成する学習済モデル生成装置であって、
前記ロボットの複数の動作環境のそれぞれに関するセンサデータを取得する手段を備え、
前記センサデータから、前記動作環境を表す特徴量を抽出する手段を備え、
前記抽出された特徴量と、前記動作と、が関連付けられた学習用データセットを生成する手段を備え、
前記学習用データセットは、前記タスクを構成する複数の子タスク毎に、前記特徴量と、前記動作と、が関連付けられており、
前記タスクに対応する上位ネットワークと、前記子タスクに対応する下位ネットワークと、に前記特徴量及び前記動作の組合せを入力することにより、前記動作環境及び前記動作の関係が規定された学習済モデルを生成する手段を備える、
学習済モデル生成装置。 - 前記動作環境を表す特徴量は、動画の画像特徴量、静止画の画像特徴量、及び、音声特徴量の少なくとも1つである、
請求項1に記載の学習済モデル生成装置。 - 前記センサデータを取得する手段は、センサから前記ロボットの物理量に関するセンサデータを取得する、
請求項1又は2に記載の学習済モデル生成装置。 - 前記センサデータは、前記センサにかかる力、前記ロボットの各軸にかかるトルク、前記センサの接触面にかかる圧力、温度、及び、前記ロボットの各軸を動かす際に生じた電圧の少なくとも1つを含む、
請求項3に記載の学習済モデル生成装置。 - 前記タスクを識別するタスク識別情報と、前記学習用データセットと、を関連付けて記憶する手段を備える、
請求項1〜4の何れかに記載の学習済モデル生成装置。 - タスクを識別するタスク識別情報と、前記学習済モデルと、を関連付けて記憶する手段を備える、
請求項1〜5の何れかに記載の学習済モデル生成装置。 - 前記生成する手段は、前記学習用データセットに対して、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、CNN(Convolution Neural Network)、又は、SVM(Support Vector Machine)を適用することにより、前記学習済モデルを生成する、
請求項1〜6の何れかに記載の学習済モデル生成装置。 - 請求項1〜7の何れかに記載の学習済モデル生成装置によって生成された学習済モデルにアクセス可能なロボット制御装置であって、
制御対象となる制御対象ロボットの動作環境に関するセンサデータを取得する手段を備え、
前記センサデータの特徴量を抽出する手段を備え、
前記抽出された特徴量を前記学習済モデルに入力することにより、前記動作環境に対応するコマンドを生成する手段を備え、
前記コマンドを前記制御対象ロボットに送信することにより、前記制御対象ロボットを動作させる手段を備える、
ロボット制御装置。 - コンピュータを、請求項1〜8の何れかに記載の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019005103A JP6632095B1 (ja) | 2019-01-16 | 2019-01-16 | 学習済モデル生成装置、ロボット制御装置、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019005103A JP6632095B1 (ja) | 2019-01-16 | 2019-01-16 | 学習済モデル生成装置、ロボット制御装置、及び、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019220468A Division JP2020113262A (ja) | 2019-12-05 | 2019-12-05 | 学習済モデル生成装置、ロボット制御装置、及び、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6632095B1 true JP6632095B1 (ja) | 2020-01-15 |
JP2020110894A JP2020110894A (ja) | 2020-07-27 |
Family
ID=69146624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019005103A Active JP6632095B1 (ja) | 2019-01-16 | 2019-01-16 | 学習済モデル生成装置、ロボット制御装置、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6632095B1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022054847A1 (en) * | 2020-09-08 | 2022-03-17 | Sony Group Corporation | Medical imaging apparatus, learning model generation method, and learning model generation program |
JP7509914B2 (ja) | 2020-11-20 | 2024-07-02 | ファナック株式会社 | 数値制御装置、及び記憶媒体 |
JP7523384B2 (ja) | 2020-03-27 | 2024-07-26 | 三菱電機株式会社 | タスクを実行するロボットの動作を制御するコントローラおよび方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7492440B2 (ja) * | 2020-11-10 | 2024-05-29 | 株式会社日立製作所 | ロボット制御システム、ロボット制御方法及びプログラム |
KR102346900B1 (ko) * | 2021-08-05 | 2022-01-04 | 주식회사 애자일소다 | 픽 앤 플레이스 시스템을 위한 심층 강화학습 장치 및 방법 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10124130A (ja) * | 1996-10-15 | 1998-05-15 | Ricoh Co Ltd | 組立装置 |
US6445964B1 (en) * | 1997-08-04 | 2002-09-03 | Harris Corporation | Virtual reality simulation-based training of telekinegenesis system for training sequential kinematic behavior of automated kinematic machine |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
JP6951659B2 (ja) * | 2017-05-09 | 2021-10-20 | オムロン株式会社 | タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法 |
JP6886869B2 (ja) * | 2017-06-09 | 2021-06-16 | 川崎重工業株式会社 | 動作予測システム及び動作予測方法 |
-
2019
- 2019-01-16 JP JP2019005103A patent/JP6632095B1/ja active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7523384B2 (ja) | 2020-03-27 | 2024-07-26 | 三菱電機株式会社 | タスクを実行するロボットの動作を制御するコントローラおよび方法 |
WO2022054847A1 (en) * | 2020-09-08 | 2022-03-17 | Sony Group Corporation | Medical imaging apparatus, learning model generation method, and learning model generation program |
JP7509914B2 (ja) | 2020-11-20 | 2024-07-02 | ファナック株式会社 | 数値制御装置、及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP2020110894A (ja) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6632095B1 (ja) | 学習済モデル生成装置、ロボット制御装置、及び、プログラム | |
US12053886B2 (en) | Device control using policy training based on task embeddings | |
WO2017159614A1 (ja) | 学習サービス提供装置 | |
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
CN114516060A (zh) | 用于控制机器人装置的设备和方法 | |
EP3853765A1 (en) | Training a deep neural network model to generate rich object-centric embeddings of robotic vision data | |
KR102469149B1 (ko) | 3차원 설계데이터 기반 실물 객체 다방향 인식시스템 및 그 방법 | |
CN109605370A (zh) | 机器人的控制方法及装置、机器人的控制系统 | |
JPWO2022244849A5 (ja) | ||
JPH11250030A (ja) | 進化型アルゴリズム実行システムおよびそのプログラム記録媒体 | |
JP2020113262A (ja) | 学習済モデル生成装置、ロボット制御装置、及び、プログラム | |
JP2019171498A (ja) | ロボットプログラム実行装置、ロボットプログラム実行方法、プログラム | |
JP7452657B2 (ja) | 制御装置、制御方法及びプログラム | |
WO2022239310A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
Aleotti et al. | Evaluation of virtual fixtures for a robot programming by demonstration interface | |
US8881110B2 (en) | Role-based automation scripts | |
Peng et al. | Adaptive language-guided abstraction from contrastive explanations | |
Naughton et al. | Structured action prediction for teleoperation in open worlds | |
US20230330854A1 (en) | Movement planning device, movement planning method, and non-transitory computer readable medium | |
CN118715492A (zh) | 示教辅助装置、作业系统、示教辅助方法及示教辅助程序 | |
Kasper et al. | Abstracting perception and manipulation in end-user robot programming using Sikuli | |
CN118893635B (zh) | 一种机械臂的控制方法以及机械臂系统 | |
Österberg | Skill Imitation Learning on Dual-arm Robotic Systems | |
WO2022270319A1 (ja) | 動作データ管理システム、動作データ管理方法、及びプログラム | |
US20220297298A1 (en) | Data generation device, data generation method, control device, control method, and computer program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190523 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190523 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190924 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6632095 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |