JP2014079824A - 作業画面表示方法および作業画面表示装置 - Google Patents
作業画面表示方法および作業画面表示装置 Download PDFInfo
- Publication number
- JP2014079824A JP2014079824A JP2012227973A JP2012227973A JP2014079824A JP 2014079824 A JP2014079824 A JP 2014079824A JP 2012227973 A JP2012227973 A JP 2012227973A JP 2012227973 A JP2012227973 A JP 2012227973A JP 2014079824 A JP2014079824 A JP 2014079824A
- Authority
- JP
- Japan
- Prior art keywords
- work
- image
- area
- screen display
- display method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】1台の監視カメラで周辺の状況を俯瞰し、作業性を向上することができる作業画面表示方法及び作業画面表示装置。
【解決手段】作業手段移動部を有する作業装置101と、作業装置及び作業箇所100を撮影する監視カメラ102と、監視カメラの撮影画像を画像処理及び記録する画像処理手段103と、画像を表示する出力装置105が配置された操作系領域115を有し、操作系領域にて操作する際に出力装置に表示される画像を生成して表示する作業画面表示方法において、画像処理手段は、撮影した作業前の作業箇所を初期画像として記録する初期画像記録ステップと、撮影した作業中の作業装置を作業画像として記録する作業画像記録ステップと、作業画像中の作業手段移動部が表示されている領域を特定領域として設定する領域設定ステップと、特定領域には初期画像を、それ以外の領域には作業画像を表示する表示ステップを有する。
【選択図】図1
【解決手段】作業手段移動部を有する作業装置101と、作業装置及び作業箇所100を撮影する監視カメラ102と、監視カメラの撮影画像を画像処理及び記録する画像処理手段103と、画像を表示する出力装置105が配置された操作系領域115を有し、操作系領域にて操作する際に出力装置に表示される画像を生成して表示する作業画面表示方法において、画像処理手段は、撮影した作業前の作業箇所を初期画像として記録する初期画像記録ステップと、撮影した作業中の作業装置を作業画像として記録する作業画像記録ステップと、作業画像中の作業手段移動部が表示されている領域を特定領域として設定する領域設定ステップと、特定領域には初期画像を、それ以外の領域には作業画像を表示する表示ステップを有する。
【選択図】図1
Description
本発明は、例えば原子力施設内や宇宙空間あるいは水中などにおける作業装置の作業箇所を撮影して表示する作業画面表示方法および作業画面表示装置に関する。
従来、原子力施設内や宇宙空間あるいは水中などにおける機材、装置の組立て、加工、保守、点検などの作業は、操作者がマニピュレータ等の作業装置を遠隔で操作し、作業箇所や作業装置の位置・姿勢などの様子を、作業場所から隔絶された場所に設置された監視カメラの画像をスクリーンやモニタなどの表示装置で確認しながら行っている。
このような遠隔作業において、監視カメラの設置台数や位置は、特殊な作業環境の制約を受けることが多く、作業箇所や作業姿勢によっては作業装置が監視カメラの視界を遮ることになり、視認したい作業箇所などが死角となり作業が困難になる場合がある。
このような遠隔作業における監視カメラ画像の死角を低減する方法として、作業装置を構成する作業工具にカメラを内蔵すると共に、別のカメラを併用することで、監視画像に遠隔作業装置自身が映りこまないようにして遠隔作業を行うもの(特許文献1)や、複数の監視カメラを設置することにより、一つの監視カメラで撮影した画像から死角を形成している作業工具などの領域を取り除き、この画像に、他のカメラで撮影した死角のない作業工具などの画像を合成することで作業箇所が視認できるようにしたものが提案されている。
作業工具内にカメラを内蔵する上記特許文献1の方法では、遠隔作業装置の手先効果器(ロボットハンド)近傍にカメラを配置することになるため、広域の画像を撮影することはできない。そのため、例えばボルトのナット部など作業対象物の局所的な箇所の視認確認には有効であるが、周辺の状況を俯瞰したい場合には利用できないという課題がある。
また、1台のカメラ画像だけでは作業対象物の位置や姿勢を3次元的に把握することはできないため、別の視点からのカメラを併用する必要があり、この併用カメラの画像では遠隔作業装置によって死角が発生する場合がある。
複数台のカメラの画像を合成する上記特許文献2の方法では、視点の異なる画像を合成するため、作業対象物の画像上の姿勢が実際と異なることになり、遠隔での作業に支障をきたすという課題がある。これは、死角をカバーするためにカメラ同士の距離が大きくなるほど顕著になる。
また、原子力施設内や宇宙空間あるいは水中といった場所では、使用できるカメラも特殊仕様の高価なものとなるため、1つの画像を提示するために複数台のカメラを使用することはコストの上昇、設備の複雑化を招くこととなる。
本発明は上記課題を解決するためになされたものであり、1台の監視カメラを用いて、周辺の状況を俯瞰できるとともに、作業箇所を常に視認しながら作業を行うことができる作業画面表示方法及び作業画面表示装置を提供することを目的とする。
上記課題を解決するために、本発明に係る作業画面表示方法は、作業手段を取付けられ、前記作業手段を移動させる作業手段移動部を有する作業装置と、前記作業装置及び作業箇所を撮影する監視カメラが配置された作業領域と、前記監視カメラの撮影画像を画像処理及び記録するための画像処理手段と、前記画像処理手段に記録された画像を表示するための出力装置が配置された操作系領域を有し、前記作業装置を前記操作系領域にて操作する際に前記出力装置に表示される画像を生成して表示する作業画面表示方法において、前記画像処理手段は、前記監視カメラで撮影した作業前の作業箇所を初期画像として記録する初期画像記録ステップと、前記監視カメラで撮影した作業中の作業装置を作業画像として記録する作業画像記録ステップと、前記作業画像中の前記作業手段移動部が表示されている領域を特定領域として設定する領域設定ステップと、前記出力装置において、前記特定領域には前記初期画像を、それ以外の領域には前記作業画像を表示する表示ステップを有することを特徴とする。
本発明の実施形態による作業画面表示方法および作業画面表示装置によれば、1台の監視カメラで周辺の状況を俯瞰しつつ作業箇所を常に視認しながら作業を行うことが可能となり、作業性を向上することができる。
以下、本発明に係る実施形態について図面を参照して説明する。
[第1実施形態]
本発明の作業画面表示方法を遠隔作業システムに適用した第1実施形態について、図1〜図5を参照して説明する。
[第1実施形態]
本発明の作業画面表示方法を遠隔作業システムに適用した第1実施形態について、図1〜図5を参照して説明する。
(構成)
図1は本実施形態に係る遠隔作業システムの全体構成図を示す。遠隔作業システムは、作業領域100と、操作者104の近傍に配置される操作系領域115とからなり、作業装置101を操作系領域115にて操作者104がモニタ105の画面を見ながら操作盤106を操作して遠隔操作を行う。
図1は本実施形態に係る遠隔作業システムの全体構成図を示す。遠隔作業システムは、作業領域100と、操作者104の近傍に配置される操作系領域115とからなり、作業装置101を操作系領域115にて操作者104がモニタ105の画面を見ながら操作盤106を操作して遠隔操作を行う。
本実施形態では、作業例として作業装置101がコネクタプラグ110を把持し作業基台114上のコネクタソケット111に着脱する作業について説明するが、これに限定されず、様々な作業に適用できることはもちろんである。
作業領域100には、作業手段移動部としてのアーム107、作業手段としてのロボットハンド(手先効果器)109などからなる作業装置101、監視カメラ102、コネクタソケット111が設置された作業基台114、作業装置101を移動させる移動手段112などが設けられている。なお、台車112は作業領域の広さに応じて適宜設けられるもので、省略可能である。
アーム107は、複数のリンク部108及びリンク部108を回動自在に接続するアーム関節部113を有する。リンク部108は単一の棒状部材としてもよいが、入れ子式のテレスコピック部材を用いて伸縮自在に構成してもよい。
ロボットハンド109は、リンク部108の先端に取付けられ、直接コネクタプラグ110を把持すると共に、ユニバーサル継ぎ手などにより360度の全方向に回動自在とされている。
監視カメラ102は、作業領域100全体を俯瞰できる位置に設置され、作業装置101、着脱作業が行われる作業箇所などを含む作業領域全体を撮影する。
監視カメラ102は、作業領域100全体を俯瞰できる位置に設置され、作業装置101、着脱作業が行われる作業箇所などを含む作業領域全体を撮影する。
作業装置101が取付けられた台車112は、図示しない駆動手段により走行制御されて直線移動、あるいは2次元移動させることができる。なお、必要に応じて3次元移動が可能な移動手段も採用することができる。
一方、操作系領域115は、操作者104によって操作される機器が配置された領域であり、監視カメラ102の撮影画像を処理し記録する画像処理装置103、画像処理装置103に記録された画像を表示するためのモニタ105、操作盤106などが配備されている。
上記作業領域100と操作系領域115とは、作業領域100の監視カメラ102で撮影した画像を操作系領域115の画像処理装置103に送信するため、また、操作盤106により操作者が必要な遠隔操作を遠隔作業装置に指示するため、無線あるいは有線で結ばれており、図示しない送受信部を備えている。
このように構成された遠隔作業システムにおいて、例えば、コネクタプラグ110とコネクタソケット111の着脱作業では、操作者104は、コネクタソケット111の位置をモニタ105で確認しながらロボットハンド109でコネクタソケット110を把持し、アーム107を操作して作業箇所でコネクタプラグ110との着脱作業を実施する。
しかし、作業時の監視カメラ画像では、アーム107で隠れた範囲が死角になって着脱などの作業状況を視認できない場合がある。
その際、ロボットハンド109はコネクタソケット111などの作業対象物との位置関係を的確に把握するために、作業画像上に映っている必要があるが、アーム107はロボットハンド109を位置決めするための機構であるので、必ずしも作業画像上に見えている必要は無い。
その際、ロボットハンド109はコネクタソケット111などの作業対象物との位置関係を的確に把握するために、作業画像上に映っている必要があるが、アーム107はロボットハンド109を位置決めするための機構であるので、必ずしも作業画像上に見えている必要は無い。
そこで、本実施形態においては、アーム107により作業箇所が死角となった場合でも作業状況を視認することができるような監視カメラ画像を画像処理装置103で生成してモニタ105に表示する。
(作用)
以下、画像処理装置103で実施する具体的な処理手順について、図2〜図4を参照しながら説明する。
以下、画像処理装置103で実施する具体的な処理手順について、図2〜図4を参照しながら説明する。
図4に示すステップ1において、アーム107が作業箇所近傍に無いときに監視カメラによって撮影された作業箇所の画像を初期画像として画像処理装置103に記録する。図2の201はこのようにして記録された初期画像例である。
ステップ2では遠隔作業が開始され、アーム107を作業箇所近傍に移動させ、監視カメラ102はその状況を撮影し作業画像として画像処理装置103に記録する。図3の作業画像例では、作業装置101のアーム107に隠れた範囲が死角となって、作業箇所に置かれたコネクタソケット111の全体を視認することができない状況となっている。
ステップ3では、作業画像において死角を形成しているアーム107の画像領域を特定領域として設定する。特定領域を抽出する方法としては、例えば、公知のクロマキー合成技術を利用することができる。具体的にはロボットハンド109以外のアーム107を周辺環境に無い系統の色(例えば緑色)に塗装しておき、画像上で緑色の領域を抽出することでアーム107の領域を特定することができる。
クロマキー合成技術以外にも、例えば特定の幾何学パターンの模様をアーム107に貼り付け、このパターン領域を認識する画像処理によって領域抽出を行っても良い。
クロマキー合成技術以外にも、例えば特定の幾何学パターンの模様をアーム107に貼り付け、このパターン領域を認識する画像処理によって領域抽出を行っても良い。
ステップ4では、ステップ3で抽出したアーム107の画像領域を除去処理する。
ステップ5では、アーム107を除去処理した後の画像を除去後画像として記録する。
ステップ6、7では、ステップ5で記録された除去後画像に、ステップ1で記録された初期画像を合成してモニタに出力する。出力された合成画像401の例を図5に示す。
ステップ5では、アーム107を除去処理した後の画像を除去後画像として記録する。
ステップ6、7では、ステップ5で記録された除去後画像に、ステップ1で記録された初期画像を合成してモニタに出力する。出力された合成画像401の例を図5に示す。
(効果)
以上から明らかなように、監視カメラ102で撮影した作業画像ではアーム107によって死角となっていたコネクタソケット111の全体が、合成画像では視認することができるため、コネクタプラグ110とコネクタソケット111を視認しながらロボットアーム107を正確に移動操作することが可能となるとともに、着脱操作も確実に実施することができる。
以上から明らかなように、監視カメラ102で撮影した作業画像ではアーム107によって死角となっていたコネクタソケット111の全体が、合成画像では視認することができるため、コネクタプラグ110とコネクタソケット111を視認しながらロボットアーム107を正確に移動操作することが可能となるとともに、着脱操作も確実に実施することができる。
以上説明したように、本実施形態によれば、遠隔作業を行う際、監視カメラ画像にアーム等により死角が生じたとしても、上述した画像処理を行うことにより、作業状況を視認しながら遠隔操作が実施することが可能となるため作業性を大幅に向上することができる。
また、監視カメラを複数台用いる必要がないため、機材、設備費等のコストを低く抑えることができる。
また、監視カメラを複数台用いる必要がないため、機材、設備費等のコストを低く抑えることができる。
[第2実施形態]
図6は本第2実施形態に係る作業画面表示方法を遠隔作業システムに適用した全体構成図を示している。
本実施形態では、アーム107の画像領域を抽出する方法として、3次元モデル処理装置501を用いている。
図6は本第2実施形態に係る作業画面表示方法を遠隔作業システムに適用した全体構成図を示している。
本実施形態では、アーム107の画像領域を抽出する方法として、3次元モデル処理装置501を用いている。
図6において、操作盤106はアーム107の各アーム関節部113の角度情報を保有しており、当該角度情報に基づいて、3次元モデル処理装置501は、3次元の構造モデルを用いてアーム107の位置と姿勢を算出する。この3次元モデル処理装置501では、仮想空間状に3次元の作業空間を構成しており、監視カメラ102の位置を実環境と同じ位置に定義することで、監視カメラ102から見たアーム107などの画像を擬似的に算出、作成することができ、これをアーム107の画像領域として抽出する。上記のようにして抽出されたアーム107の画像領域を第1実施形態と同様に除去し、アームの画像領域が除去された除去後画像と、作業前に記録した初期画像と合成する。
また、3次元モデル処理装置501では、仮想空間上に3次元の作業空間を構成しており、監視カメラ102の位置を実環境と同じ位置に定義することで、公知の3次元CG技術を利用して、監視カメラ102から見たアーム107などの擬似画像を算出、作成することができる。
これにより、リンク部108が監視カメラ102の画像のどの領域に映るかを算出できるため、現時刻における監視カメラ画像のアーム107の当該領域を、作業前に記録した初期画像である実環境画像と合成し、アーム107を透過した合成画像を作成することができる。
また、上記の第1実施形態及び本実施形態において、作業画像上のアーム画像の領域が半透明化されて合成画像上に表示されるようにしてもよい。また、図7に示すように、作業画像上のアーム画像の領域の輪郭602(特定領域)が合成画像上に表示されるようにしてもよい。
これにより、作業箇所の視認性を確保しつつ、アームの動作状況を把握することができるので、作業性がさらに向上する。
これにより、作業箇所の視認性を確保しつつ、アームの動作状況を把握することができるので、作業性がさらに向上する。
以上説明したように、本実施形態によれば、遠隔作業を行う際、監視カメラ画像にアーム等により死角が生じたとしても、上述した画像処理を行うことにより、作業状況を視認しながら遠隔操作を実施することが可能となるため、作業性を大幅に向上することができる。また、第1実施形態に示したようなアーム本体部への塗装やパターン模様の貼り付けが不要となり、より簡単に透過画像を作成することができる。
さらに、合成画像においてアームの画像領域を輪郭のみ、または半透明で表示することにより、作業箇所の視認性を確保しつつ、アームの動作状況を的確に把握することができるので、作業性をさらに向上することができる。
[第3実施形態]
上記第1、第2実施形態では、監視カメラ102による画像は2次元情報であるため、監視カメラ102の画像だけではロボットハンド109とコネクタソケット111との3次元的な位置関係を把握するのは難しい。
上記第1、第2実施形態では、監視カメラ102による画像は2次元情報であるため、監視カメラ102の画像だけではロボットハンド109とコネクタソケット111との3次元的な位置関係を把握するのは難しい。
また、合成する初期画像は作業前に記録した静止画であり、作業時にアーム107が接近してもその影が投影されない。
そこで、作業箇所に投影されるアーム107の影702を表示することにより、立体的な作業画像を作成するようにした点が本実施形態の特徴である。
そこで、作業箇所に投影されるアーム107の影702を表示することにより、立体的な作業画像を作成するようにした点が本実施形態の特徴である。
本実施形態の3次元構造モデルを用いて影の擬似画像が表示された合成画像を得る方法について説明する。
まず、第2実施形態と同様に、3次元モデル処理装置501によって仮想空間上でアーム107の位置、姿勢を計算する。このとき、作業対象物であるコネクタソケット111やその周辺構造物についても3次元モデルを準備し、実環境と同じ位置の仮想空間上に配置する。
まず、第2実施形態と同様に、3次元モデル処理装置501によって仮想空間上でアーム107の位置、姿勢を計算する。このとき、作業対象物であるコネクタソケット111やその周辺構造物についても3次元モデルを準備し、実環境と同じ位置の仮想空間上に配置する。
また、仮想空間上の照明位置も実環境と同じ位置に設定することで、公知の3次元CG技術を用いて、アーム107の影が作業対象物や周辺構造物に投影された擬似画像を作成することができる。
次に、第1及び第2実施形態によって作成した合成画像に影702の擬似画像を合成する。図8に合成画像例701を示す。なお、影の領域は半透明にしてもよい。
以上説明したように、本実施形態によれば、合成画像にアーム107等の影をさらに合成することで、操作者はアーム107の影の形状変化を見ることでアーム107の3次元位置を把握しやすくなるため、作業性をより向上することができる。
[第4実施形態]
本実施形態は、アーム107の作業範囲が広い場合、アーム107を移動手段112に取り付けて移動可能とすると共に、監視カメラ102もアーム107と共に移動手段112で移動させる点に特徴がある(図示せず)。
本実施形態は、アーム107の作業範囲が広い場合、アーム107を移動手段112に取り付けて移動可能とすると共に、監視カメラ102もアーム107と共に移動手段112で移動させる点に特徴がある(図示せず)。
監視カメラ102が移動する場合、作業開始前と作業中で撮影された画像の視点位置が変化するので、画像合成する際、初期画像と作業画像の視点位置が異なるため、第1、第2実施形態で示した方法では対応することができない。
そこで、本第4実施形態では、監視カメラ102が移動を伴う場合においても対応できるようにしたものである。
そこで、本第4実施形態では、監視カメラ102が移動を伴う場合においても対応できるようにしたものである。
まず、監視カメラ102の位置を移動手段112の移動位置情報に基づいて算出する。
次に、作業開始前に、予め監視カメラ102を移動させながら複数の場所の作業箇所を撮影しておき、前記移動位置情報とその位置での記録画像(初期画像)とを対応させて画像処理装置103に記録しておく。
次に、作業開始前に、予め監視カメラ102を移動させながら複数の場所の作業箇所を撮影しておき、前記移動位置情報とその位置での記録画像(初期画像)とを対応させて画像処理装置103に記録しておく。
次に、作業時には現時刻の監視カメラ102の位置に対応する予め記録された記録画像(初期画像)と、現時刻の監視カメラ102の作業画像に基づいて記録された除去後画像とを第1、第2実施形態と同様に合成する。
以上説明したように、本実施形態によれば、監視カメラ102が移動を伴う場合において、監視カメラ画像にアーム等により死角が生じたとしても、上述した画像処理を行うことにより、作業状況を視認しながら遠隔操作を実施することが可能となるため作業性を大幅に向上することができる。
[第5実施形態]
上記第1〜第4実施形態では、監視カメラ102がズーム機能、水平旋回動作であるパン機能、鉛直回転動作であるチルト機能を備えていないものであったが、より詳細な画像や撮影角度を変更した画像が必要になる場合がある。
上記第1〜第4実施形態では、監視カメラ102がズーム機能、水平旋回動作であるパン機能、鉛直回転動作であるチルト機能を備えていないものであったが、より詳細な画像や撮影角度を変更した画像が必要になる場合がある。
しかし、このような場合は画像の縮尺や、初期画像と作業画像とで画像の視点位置が異なるなど、適切な合成画像が得ることができない。
そこで、本実施形態では、監視カメラ102がパン・チルト・ズーム動作を伴う際にも対応できるようにしたものである。
そこで、本実施形態では、監視カメラ102がパン・チルト・ズーム動作を伴う際にも対応できるようにしたものである。
パン・チルト動作は、カメラの姿勢を変える動作であり視点位置は変わらない。この場合、パン・チルト動作で得られる画像と、広角で撮影した固定画像から対象画像を切り出して引き伸ばした拡大画像とは等価である。同様に、ズーム画像と、広角で撮影した固定画像から対象画像を切り出して引き伸ばした拡大画像とは等価である。
したがって、作業開始前の監視カメラ102では広角状態で撮影し初期画像として記録し、作業時には現時刻のパン・チルト動作位置および/またはズーム倍率に応じた等価画像を作業画像として作成し、上記各実施形態と同様にして、作業画像から除去後画像を作成しこれと初期画像とを合成する。
以上説明したように、本実施形態によれば、より詳細な画像や撮影角度を変更した画像を撮影できるように、監視カメラ102がパン・チルト・ズーム動作を伴う場合においてもアームを透過した画像を作成することができる。
以上、本発明の各実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、例えば、各実施形態の組合わせを含めて様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば、各実施形態では、コネクタプラグとコネクタソケットの着脱作業について説明したが、本発明はこのような作業に限定されるものではなく、監視カメラによって視認確認したい箇所がロボットアームなどによって死角となる作業においては共通して適用可能である。
また、上記の各実施形態では、作業画像の特定領域を除去して初期画像の特定領域に対応する部分を合成するものとして説明したが、具体的な画像処理プロセスはこれに限定されず、最終的に特定領域には初期画像が、特定領域以外の領域には作業画像が表示されるような処理であればよい。例えば、初期画像を作業画像の上に重ねるレイヤとして、初期画像の特定領域以外に透過処理を施せば同様の画像が表示される(第2実施形態の場合は、初期画像の特定領域に半透明化処理や輪郭表示処理を施す)。あるいは、作業画像を初期画像の上に重ねるレイヤとして、作業画像の特定領域に透過処理を施しても同様の画像が表示される。
また、各実施形態で示した画像処理装置や3次元モデル処理装置は、個々の独立した装置である必要はなく、両者および他の装置と統合されたシステムで実現しても良い。
さらに、死角を発生させる装置、部品としてロボットアームを例に説明したが、これに限定されるものではなく、クレーンや移動台車など、操作者が監視カメラ画像を見ながら遠隔で操作する装置に共通して適用可能である。例えば、クレーンの場合は先端のフックが作業手段、フックを昇降させるウィンチや、走行・横行移動させるクレーン台車等が作業手段移動部となる。
さらに、死角を発生させる装置、部品としてロボットアームを例に説明したが、これに限定されるものではなく、クレーンや移動台車など、操作者が監視カメラ画像を見ながら遠隔で操作する装置に共通して適用可能である。例えば、クレーンの場合は先端のフックが作業手段、フックを昇降させるウィンチや、走行・横行移動させるクレーン台車等が作業手段移動部となる。
100…作業領域、101…遠隔作業装置、102…監視カメラ、103…画像処理装置、104…操作者、105…モニタ、106…操作盤、107…アーム、108…リンク部、109…ロボットハンド(手先効果器)、110…コネクタプラグ、111…コネクタソケット、112…台車、113…アーム関節、114…作業基台、115…操作系領域、201…作業前の監視カメラ画像(初期画像例)、301…作業時の監視カメラ画像(作業画像例)、401…作業時の合成画像例、501…3次元モデル処理装置、601…作業時のアームのワイヤーフレームを合成した合成画像、602…アームの輪郭を示すワイヤーフレーム(特定領域例)、701…作業時のアームの影を合成した合成画像、702…アームの影。
Claims (10)
- 作業手段を取付けられ、前記作業手段を移動させる作業手段移動部を有する作業装置と、
前記作業装置及び作業箇所を撮影する監視カメラが配置された作業領域と、
前記監視カメラの撮影画像を画像処理及び記録するための画像処理手段と、
前記画像処理手段に記録された画像を表示するための出力装置が配置された操作系領域を有し、前記作業装置を前記操作系領域にて操作する際に前記出力装置に表示される画像を生成して表示する作業画面表示方法において、
前記画像処理手段は、前記監視カメラで撮影した作業前の作業箇所を初期画像として記録する初期画像記録ステップと、
前記監視カメラで撮影した作業中の作業装置を作業画像として記録する作業画像記録ステップと、
前記作業画像中の前記作業手段移動部が表示されている領域を特定領域として設定する領域設定ステップと、
前記出力装置において、前記特定領域には前記初期画像を、それ以外の領域には前記作業画像を表示する表示ステップを有することを特徴とする作業画面表示方法。 - 前記表示ステップにおいて、前記特定領域には前記初期画像と前記作業画像の何れかを半透明化して重ねて表示することを特徴とする請求項1記載の作業画面表示方法。
- 前記表示ステップにおいて、前記特定領域の輪郭を表示することを特徴とする請求項1または2記載の作業画面表示方法。
- 前記領域設定ステップは、クロマキー合成法により前記作業手段移動部が表示されている領域を特定領域として特定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理方法。
- 前記作業手段移動部の外表面に幾何形状のパターン模様を付され、前記領域設定ステップは前記作業画像から当該パターンの領域を抽出することにより前記作業手段移動部が表示されて入る領域を特定領域とすることを特徴とする請求項1乃至3の何れか1項に記載の作業画面表示方法。
- 前記領域設定ステップにおいて、前記特定領域は、前記可動部の3次元の構造モデルに基づいて抽出することを特徴とする請求項1乃至3の何れか1項に記載の作業画面表示方法。
- 前記画像処理手段は、前記作業手段移動部の3次元構造モデルに基づいて前記作業手段移動部によって形成される影の画像を作成し、前記表示ステップで表示される画像に前記影の画像を表示する影表示ステップを有することを特徴とする請求項1乃至6のいずれかに記載の作業画面表示方法。
- 前記監視カメラは前記作業装置に伴って移動するよう取り付けられており、
前記初期画像記録ステップにおいて、前記画像処理手段は前記監視カメラにより複数位置で撮影した作業前の作業箇所を初期画像として記録することを特徴とする請求項1乃至7のいずれかに記載の作業画面表示方法。 - 前記画像処理手段は、監視カメラのパン・チルト・ズーム動作に合わせて、前記初期画像から対象画像を切り出し移動・回転・拡大させた画像を作成するステップを有し、当該作成された画像とアームの画像領域が除去された作業中の作業画像を合成することを特徴とする請求項1乃至8のいずれかに記載の作業画面表示方法。
- 請求項1乃至9のいずれかに記載の作業画面表示方法を実施することを特徴とする作業画面表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012227973A JP2014079824A (ja) | 2012-10-15 | 2012-10-15 | 作業画面表示方法および作業画面表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012227973A JP2014079824A (ja) | 2012-10-15 | 2012-10-15 | 作業画面表示方法および作業画面表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014079824A true JP2014079824A (ja) | 2014-05-08 |
Family
ID=50784515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012227973A Pending JP2014079824A (ja) | 2012-10-15 | 2012-10-15 | 作業画面表示方法および作業画面表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014079824A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016211149A (ja) * | 2015-04-29 | 2016-12-15 | 日立建機株式会社 | 建設機械 |
WO2016203858A1 (ja) * | 2015-06-18 | 2016-12-22 | オリンパス株式会社 | 医療システム |
KR101757714B1 (ko) | 2016-01-12 | 2017-07-17 | 한국로봇융합연구원 | 수중 매니퓰레이터의 그림자 이미지 정보를 활용한 매니퓰레이터의 충돌방지장치 |
WO2018016655A1 (ja) * | 2016-07-22 | 2018-01-25 | シャープ株式会社 | 指示装置、指示装置の制御方法、遠隔作業支援システムおよび情報処理プログラム |
JP2018193158A (ja) * | 2017-05-15 | 2018-12-06 | 東芝三菱電機産業システム株式会社 | クレーン操縦アシスト装置 |
WO2019059364A1 (ja) * | 2017-09-22 | 2019-03-28 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
WO2020032263A1 (ja) * | 2018-08-10 | 2020-02-13 | 川崎重工業株式会社 | ロボットシステム |
JP2020040184A (ja) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体 |
WO2020110574A1 (ja) * | 2018-11-27 | 2020-06-04 | ソニー株式会社 | 制御装置、制御方法及びプログラム |
JP2021037583A (ja) * | 2019-09-03 | 2021-03-11 | 日立Geニュークリア・エナジー株式会社 | 現場監視装置、現場監視方法及び現場監視プログラム |
JP2021058979A (ja) * | 2019-10-08 | 2021-04-15 | 大豊精機株式会社 | ロボットアーム試験装置 |
JP2021181134A (ja) * | 2020-05-19 | 2021-11-25 | 株式会社東芝 | 作業ロボットの操作支援装置、方法及びプログラム |
JP7109699B1 (ja) * | 2021-07-07 | 2022-07-29 | 三菱電機株式会社 | 遠隔操作システム |
WO2022190537A1 (ja) * | 2021-03-12 | 2022-09-15 | オムロン株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
WO2023106353A1 (ja) * | 2021-12-07 | 2023-06-15 | 川崎重工業株式会社 | 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム |
WO2023106354A1 (ja) * | 2021-12-07 | 2023-06-15 | 川崎重工業株式会社 | 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム |
WO2024128166A1 (ja) * | 2022-12-16 | 2024-06-20 | 株式会社Styly | 拡張現実又は複合現実用の建物、拡張現実又は複合現実用の建物の設計方法、拡張現実又は複合現実用の内装、拡張現実又は複合現実用の内装の設計方法、画像制御システム、画像制御プログラム、画像制御プログラムが記録された記憶媒体、及び画像制御方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0360989A (ja) * | 1989-07-27 | 1991-03-15 | Hitachi Ltd | 画像表示方法及び画像表示装置並びに遠隔操作装置 |
JPH03213278A (ja) * | 1990-01-12 | 1991-09-18 | Fujitsu Ltd | ロボットの遠隔操作支援方式 |
JP2000270343A (ja) * | 1999-03-17 | 2000-09-29 | For-A Co Ltd | 画像合成用識別パタンパネルを備えた仮想スタジオシステム及び画像合成用識別パタンパネルを用いた識別方法 |
JP2008023630A (ja) * | 2006-07-19 | 2008-02-07 | Toyota Motor Corp | アームを誘導可能な移動体およびアームを誘導する方法 |
JP2008252643A (ja) * | 2007-03-30 | 2008-10-16 | Toshiba Corp | 移動体監視システムおよびその監視方法 |
JP2010042466A (ja) * | 2008-08-11 | 2010-02-25 | Fanuc Ltd | ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 |
JP2010154422A (ja) * | 2008-12-26 | 2010-07-08 | Casio Computer Co Ltd | 画像処理装置 |
-
2012
- 2012-10-15 JP JP2012227973A patent/JP2014079824A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0360989A (ja) * | 1989-07-27 | 1991-03-15 | Hitachi Ltd | 画像表示方法及び画像表示装置並びに遠隔操作装置 |
JPH03213278A (ja) * | 1990-01-12 | 1991-09-18 | Fujitsu Ltd | ロボットの遠隔操作支援方式 |
JP2000270343A (ja) * | 1999-03-17 | 2000-09-29 | For-A Co Ltd | 画像合成用識別パタンパネルを備えた仮想スタジオシステム及び画像合成用識別パタンパネルを用いた識別方法 |
JP2008023630A (ja) * | 2006-07-19 | 2008-02-07 | Toyota Motor Corp | アームを誘導可能な移動体およびアームを誘導する方法 |
JP2008252643A (ja) * | 2007-03-30 | 2008-10-16 | Toshiba Corp | 移動体監視システムおよびその監視方法 |
JP2010042466A (ja) * | 2008-08-11 | 2010-02-25 | Fanuc Ltd | ロボット教示システム及びロボットの動作のシミュレーション結果の表示方法 |
JP2010154422A (ja) * | 2008-12-26 | 2010-07-08 | Casio Computer Co Ltd | 画像処理装置 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016211149A (ja) * | 2015-04-29 | 2016-12-15 | 日立建機株式会社 | 建設機械 |
WO2016203858A1 (ja) * | 2015-06-18 | 2016-12-22 | オリンパス株式会社 | 医療システム |
JPWO2016203858A1 (ja) * | 2015-06-18 | 2017-09-07 | オリンパス株式会社 | 医療システム |
KR101757714B1 (ko) | 2016-01-12 | 2017-07-17 | 한국로봇융합연구원 | 수중 매니퓰레이터의 그림자 이미지 정보를 활용한 매니퓰레이터의 충돌방지장치 |
WO2018016655A1 (ja) * | 2016-07-22 | 2018-01-25 | シャープ株式会社 | 指示装置、指示装置の制御方法、遠隔作業支援システムおよび情報処理プログラム |
JP2018193158A (ja) * | 2017-05-15 | 2018-12-06 | 東芝三菱電機産業システム株式会社 | クレーン操縦アシスト装置 |
WO2019059364A1 (ja) * | 2017-09-22 | 2019-03-28 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
JPWO2019059364A1 (ja) * | 2017-09-22 | 2020-01-16 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
WO2020032263A1 (ja) * | 2018-08-10 | 2020-02-13 | 川崎重工業株式会社 | ロボットシステム |
JP2020026002A (ja) * | 2018-08-10 | 2020-02-20 | 川崎重工業株式会社 | ロボットシステム |
JP7401184B2 (ja) | 2018-08-10 | 2023-12-19 | 川崎重工業株式会社 | ロボットシステム |
JP2020040184A (ja) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体 |
WO2020054281A1 (ja) * | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御装置、ロボットシステムの制御方法、撮像装置、制御プログラム及び記録媒体 |
US11992960B2 (en) | 2018-09-12 | 2024-05-28 | Canon Kabushiki Kaisha | Robot system, control apparatus of robot system, control method of robot system, imaging apparatus, and storage medium |
JP7423726B2 (ja) | 2018-09-12 | 2024-01-29 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、ロボットシステムを用いた物品の製造方法、制御装置、操作装置、操作装置の制御方法、撮像装置、撮像装置の制御方法、制御プログラム及び記録媒体 |
JP7163115B2 (ja) | 2018-09-12 | 2022-10-31 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体 |
JP2022183308A (ja) * | 2018-09-12 | 2022-12-08 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、ロボットシステムを用いた物品の製造方法、制御装置、操作装置、操作装置の制御方法、撮像装置、撮像装置の制御方法、制御プログラム及び記録媒体 |
WO2020110574A1 (ja) * | 2018-11-27 | 2020-06-04 | ソニー株式会社 | 制御装置、制御方法及びプログラム |
JP7217212B2 (ja) | 2019-09-03 | 2023-02-02 | 日立Geニュークリア・エナジー株式会社 | 現場監視装置、現場監視方法及び現場監視プログラム |
JP2021037583A (ja) * | 2019-09-03 | 2021-03-11 | 日立Geニュークリア・エナジー株式会社 | 現場監視装置、現場監視方法及び現場監視プログラム |
JP2021058979A (ja) * | 2019-10-08 | 2021-04-15 | 大豊精機株式会社 | ロボットアーム試験装置 |
JP7443014B2 (ja) | 2019-10-08 | 2024-03-05 | 大豊精機株式会社 | ロボットアーム試験装置 |
JP2021181134A (ja) * | 2020-05-19 | 2021-11-25 | 株式会社東芝 | 作業ロボットの操作支援装置、方法及びプログラム |
JP7490452B2 (ja) | 2020-05-19 | 2024-05-27 | 株式会社東芝 | 作業ロボットの操作支援装置、方法及びプログラム |
WO2022190537A1 (ja) * | 2021-03-12 | 2022-09-15 | オムロン株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
WO2023281648A1 (ja) * | 2021-07-07 | 2023-01-12 | 三菱電機株式会社 | 遠隔操作システム |
JP7109699B1 (ja) * | 2021-07-07 | 2022-07-29 | 三菱電機株式会社 | 遠隔操作システム |
WO2023106353A1 (ja) * | 2021-12-07 | 2023-06-15 | 川崎重工業株式会社 | 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム |
WO2023106354A1 (ja) * | 2021-12-07 | 2023-06-15 | 川崎重工業株式会社 | 教示システム、ロボットシステム、ロボットの教示方法及びロボットの教示プログラム |
WO2024128166A1 (ja) * | 2022-12-16 | 2024-06-20 | 株式会社Styly | 拡張現実又は複合現実用の建物、拡張現実又は複合現実用の建物の設計方法、拡張現実又は複合現実用の内装、拡張現実又は複合現実用の内装の設計方法、画像制御システム、画像制御プログラム、画像制御プログラムが記録された記憶媒体、及び画像制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014079824A (ja) | 作業画面表示方法および作業画面表示装置 | |
US20180257240A1 (en) | Remote-control manipulator system and method of operating the same | |
JP6420229B2 (ja) | 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム | |
CN109176534B (zh) | 一种机器人多摄像机实时融合系统及方法 | |
JP2007216350A (ja) | 移動型ロボット | |
JP2015043488A (ja) | 遠隔操作装置及びそれを用いた遠隔施工方法 | |
JP3912584B2 (ja) | 遠隔操作装置 | |
JP7517803B2 (ja) | ロボット教示システム、画像生成方法、及びプログラム | |
JP2010131751A (ja) | 移動型ロボット | |
JP2011251395A (ja) | ロボット教示システム | |
JP6256874B2 (ja) | 建設機械用俯瞰画像表示装置 | |
JPH05318361A (ja) | 物体操作方式 | |
CN113276110B (zh) | 一种基于ar技术的变电站操作机器人控制系统及方法 | |
JP2020075325A (ja) | ツールセンターポイントの設定方法及び設定装置 | |
JP4558682B2 (ja) | 移動型ロボットシステムにおけるマニピュレータ遠隔操作方法 | |
JP6005496B2 (ja) | 遠隔監視装置および遠隔監視方法 | |
JP3376029B2 (ja) | ロボットの遠隔操作装置 | |
JP2778376B2 (ja) | カメラ視点変更方式 | |
JPH03213278A (ja) | ロボットの遠隔操作支援方式 | |
JPH08161031A (ja) | 監視制御システム | |
JP2016201007A (ja) | 搬送設備の遠隔メンテナンスシステム | |
JPH08322120A (ja) | 高所作業用ブームの位置決め方法および位置決め支援装置 | |
KR20140008659A (ko) | 로봇을 모니터링하는 교시조작 시스템 및 교시조작 방법 | |
JPH0646479A (ja) | 遠隔操作システム | |
CN112819966A (zh) | 一种适合水下遥控机器人人机交互作业的环境融合系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160531 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160531 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161220 |