[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6852878B2 - 画像処理装置、画像処理プログラムおよび画像処理方法 - Google Patents

画像処理装置、画像処理プログラムおよび画像処理方法 Download PDF

Info

Publication number
JP6852878B2
JP6852878B2 JP2017020692A JP2017020692A JP6852878B2 JP 6852878 B2 JP6852878 B2 JP 6852878B2 JP 2017020692 A JP2017020692 A JP 2017020692A JP 2017020692 A JP2017020692 A JP 2017020692A JP 6852878 B2 JP6852878 B2 JP 6852878B2
Authority
JP
Japan
Prior art keywords
image
image processing
camera
wide
centered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017020692A
Other languages
English (en)
Other versions
JP2018128804A (ja
Inventor
小林 誠
誠 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Connected Technologies Ltd
Original Assignee
Fujitsu Connected Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Connected Technologies Ltd filed Critical Fujitsu Connected Technologies Ltd
Priority to JP2017020692A priority Critical patent/JP6852878B2/ja
Publication of JP2018128804A publication Critical patent/JP2018128804A/ja
Application granted granted Critical
Publication of JP6852878B2 publication Critical patent/JP6852878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理プログラムおよび画像処理方法に関する。
近年、大容量記憶装置などの普及によりデジタルカメラなどで撮影した画像を大量に保有することから、多くの画像を一つの画面上で効率的かつ直感的に閲覧できることが重要となっている。一つの画面上で多くの画像を閲覧する技術として、撮影された画像のサムネイル画像を生成し、生成したサムネイル画像を一覧表示するものがある。
国際公開第2014/178233号 特開2015−53573号公報 特開2014−6880号公報
ほぼ全方位(360度)にわたる全天球を撮影した画像(以下、全天球画像と呼ぶ)などの広角画像からサムネイル画像を生成する場合、サムネイル画像に表示される範囲が広範囲にわたる。したがって、上記の従来技術では、広角画像から生成されるサイズの小さいサムネイル画像から人間が直感的に理解することは困難である。
1つの側面では、認識性の高いサムネイル画像を提供できる画像処理装置、画像処理プログラムおよび画像処理方法を提供することを目的とする。
第1の案では、画像処理装置は、取得部と、出力部とを有する。取得部は、カメラが予め設定された時間で複数回撮影した、カメラの撮影位置を中心とした複数の広角画像を取得する。出力部は、取得部が取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、取得部が取得した広角画像のうちのカメラの進行方向に対応する位置を表示中心とした画像を出力する。
本発明の1実施態様によれば、認識性の高いサムネイル画像を提供できる。
図1は、第1の実施形態にかかる画像処理装置の構成例を示すブロック図である。 図2は、第1の実施形態にかかる画像処理装置の動作例を示すフローチャートである。 図3は、進行方向の判定を説明する説明図である。 図4は、サムネイルの生成を説明する説明図である。 図5は、全天球画像とサムネイル画像との比較を説明する説明図である。 図6は、第2の実施形態にかかる画像処理装置の構成例を示すブロック図である。 図7は、第2の実施形態にかかる画像処理装置の動作例を示すフローチャートである。 図8は、進行方向を判定する時間間隔の違いを説明する説明図である。 図9は、第3の実施形態にかかる画像処理装置の構成例を示すブロック図である。 図10は、第3の実施形態にかかる画像処理装置の動作例を示すフローチャートである。 図11は、プログラムを実行するコンピュータの一例を示すブロック図である。
以下、図面を参照して、実施形態にかかる画像処理装置、画像処理プログラムおよび画像処理方法を説明する。実施形態において同一の機能を有する構成には同一の符号を付し、重複する説明は省略する。なお、以下の実施形態で説明する画像処理装置、画像処理プログラムおよび画像処理方法は、一例を示すに過ぎず、実施形態を限定するものではない。また、以下の各実施形態は、矛盾しない範囲内で適宜組みあわせてもよい。
(第1の実施形態)
図1は、第1の実施形態にかかる画像処理装置の構成例を示すブロック図である。図1に示すように、画像処理装置1は、カメラセンサー2が撮影した画像の画像処理を行う装置である。画像処理装置1には、カメラセンサー2による撮影を行うデジタルカメラに内蔵されたコンピュータや、カメラセンサー2が撮影した画像を通信ケーブルや記憶媒体などを介して受け付けるPC(Personal Computer)や、スマートフォンなどの携帯端末や、ドローンなどの無人航空機や、水中探査艇などの船や、フォーミュラーカーなどの自動車や、かつらなどの人の頭部にかぶせる装着具、などを適用できる。
カメラセンサー2は、光学レンズおよびCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有し、全天球画像などのカメラセンサー2の撮影位置を中心とした広角画像を撮影する。例えば、カメラセンサー2は、スマートフォンなどの携帯端末や、ドローンなどの無人航空機や、水中探査艇などの船や、フォーミュラーカーなどの自動車や、かつらなどの人の頭部にかぶせる装着具などに搭載され、飛行・移動・走行時における周りの風景を広角撮影する。
カメラセンサー2は、撮影した画像を画像処理装置1に出力する。具体的には、カメラセンサー2は、予め設定された時間で複数回撮影した広角画像(例えば15fps程度のフレームレートで撮影した動画像または1秒間隔で撮影した静止画像など)を逐次画像処理装置1に出力する。
カメラセンサー2が撮影する広角画像は、ほぼ全方位(360度)にわたる全天球を魚眼レンズなどで撮影した全天球画像の他、横にぐるりと見渡せるような360度の全周画像(パノラマ)、視野の上半分を覆うような半球型の全天周画像などであってもよい。以下の実施形態では、カメラセンサー2が撮影する画像は全天球画像である場合を例示する。
画像処理装置1は、画像生成部11、画像圧縮部12、データ保存部13、進行方向判定部14、画像方向判定部15およびサムネイル生成部16を有する。
画像生成部11は、カメラセンサー2が逐次撮影した全天球画像を取得し、取得した画像(RAW画像)の画像データを生成する。画像生成部11は、生成した画像データを画像圧縮部12および進行方向判定部14へ出力する。
画像圧縮部12は、画像生成部11が生成した画像データを所定の圧縮形式で圧縮するなどして、JPEG(Joint Photographic Experts Group)等の画像形式の画像データに変換する。画像圧縮部12は、変換後の画像データをデータ保存部13に出力する。
データ保存部13は、画像圧縮部12より出力された画像データと、サムネイル生成部16により生成されたサムネイル画像とを半導体メモリやHDD(Hard Disk Drive)等の記憶装置(図示しない)に保存する。
進行方向判定部14は、画像生成部11により生成された画像データ、すなわちカメラセンサー2により予め設定された時間で複数回撮影した全天球画像の画像データをもとに、時間的に前後する複数の画像を比較してカメラセンサー2の進行方向を判定する。進行方向判定部14は、カメラセンサー2の進行方向についての判定結果と、画像生成部11により生成された画像データとを画像方向判定部15に出力する。
具体的には、進行方向判定部14は、カメラセンサー2が撮影した全天球画像の各々に含まれるオブジェクト(被写体)を公知の画像認識技術を用いて特定する。次いで、進行方向判定部14は、時間的に前後する複数の全天球画像におけるオブジェクトの位置、形状の比較を行い、時間的に前後して撮影された同一のオブジェクトを対応付ける。
次いで、進行方向判定部14は、時間的に前後する複数の全天球画像において対応付けられた同一のオブジェクトの位置、大きさの変化をもとに、全天球画像におけるカメラセンサー2の進行方向を判定する。具体的には、進行方向判定部14は、同一のオブジェクトで時間的に前後する全天球画像において位置の変化やサイズが大きくなっているものを探し、位置の変化方向およびサイズが大きくなる比率により進行方向を判定する。
画像方向判定部15は、進行方向判定部14の判定結果をもとに、カメラセンサー2の進行方向に対応する全天球画像中の方向、すなわちカメラセンサー2の進行方向に対応する全天球画像における位置を判定する。画像方向判定部15は、判定した全天球画像における位置、すなわち画像生成部11により生成された画像データ中の画素位置と、当該画像データとをサムネイル生成部16に出力する。
サムネイル生成部16は、画像方向判定部15が判定したカメラセンサー2の進行方向に対応する全天球画像における位置をもとに、画像生成部11により生成された画像データからサムネイル画像を生成する。具体的には、サムネイル生成部16は、画像生成部11により生成された画像データをもとに、画像方向判定部15が判定した全天球画像における位置を表示中心とする所定領域の画像を切り出す。
全天球画像は、魚眼レンズなどで撮影していることから歪曲した画像となっている。そこで、サムネイル生成部16は、歪曲補正を行う公知の補正技術を用いて、全天球画像より切り出した所定領域の画像の歪曲補正を行う。また、サムネイル生成部16は、判定したカメラセンサー2の進行方向に向かって正面となる向きに歪曲補正後の画像を回転させるとともに、サムネイル画像の画像サイズとなるように拡大・縮小を行う。
サムネイル生成部16は、生成したサムネイル画像をデータ保存部13へ出力する。すなわち、サムネイル生成部16は、出力部の一例である。データ保存部13では、サムネイル生成部16が生成したサムネイル画像を、画像圧縮部12より出力された画像データとともに記憶装置に保存する。
図2は、第1の実施形態にかかる画像処理装置1の動作例を示すフローチャートである。図2に示すように、処理が開始されると、カメラセンサー2が起動され(S1)、全天球画像の逐次撮影が行われる(S2)。
次いで、画像生成部11は、カメラセンサー2が逐次撮影した全天球画像を取得し、前画像と現画像との画像データを生成する(S3、S4)。ここで、前画像は、現画像よりも時間的に前に撮影した全天球画像である。画像生成部11が生成した前画像と現画像との画像データは、画像圧縮部12および進行方向判定部14に出力される。
画像圧縮部12は、画像生成部11が生成した現画像を所定の画像形式の画像データに変換する。次いで、データ保存部13は、変換後の現画像の画像データを記憶装置に保存する(S5)。
次いで、進行方向判定部14は、前画像と、現画像とを比較してカメラセンサー2の進行方向を判定する(S6)。図3は、進行方向の判定を説明する説明図である。
図3に示すように、進行方向判定部14は、前画像Gaおよび現画像Gbに含まれる同一のオブジェクトO1、O2を対応付ける。次いで、進行方向判定部14は、前画像Gaに含まれるオブジェクトO1、O2と、現画像Gbに含まれるオブジェクトO1、O2との比較による位置の変化方向およびサイズが大きくなる比率をもとに、カメラセンサー2の進行方向を判定する。図示例では、オブジェクトO1、O2ともに同様に大きくなっていることから、全天球画像Gの下方向に向かってカメラセンサー2が進んでいるものと判定できる。
次いで、画像方向判定部15は、進行方向判定部14の判定結果をもとに、カメラセンサー2の進行方向に対応する全天球画像Gにおける位置D1を確定する(S7)。この位置D1は、オブジェクトO1、O2ごとに求められたカメラセンサー2の進行方向が収束する点として求めることができる。具体的には、前画像Gaに含まれるオブジェクトO1と、現画像Gbに含まれるオブジェクトO1との比較により得られるカメラセンサー2の進行方向と、同様にしてオブジェクトO2より得られるカメラセンサー2の進行方向とが交わる点が全天球画像Gにおけるカメラセンサー2の進行方向となる。
次いで、サムネイル生成部16は、画像方向判定部15が確定した全天球画像Gにおける位置D1をもとに、カメラセンサー2の進行方向の画像(位置D1を中心とした所定の画像領域)を抽出する(S8)。次いで、サムネイル生成部16は、抽出した画像に対して、歪曲補正や回転・拡大または縮小の画像処理を行い、サムネイル画像を生成する(S9)。次いで、データ保存部13は、サムネイル生成部16が生成したサムネイル画像を記憶装置に保存する(S10)。
図4は、サムネイルの生成を説明する説明図である。図4に示すように、S6では、前画像Gaと、現画像Gbとを比較してカメラセンサー2の進行方向を判定する。このS6の判定結果をもとに、全天球画像Gのうちのカメラセンサー2の進行方向に対応する位置D1を求める。得られた位置D1をもとに、S9では、位置D1を中心としたサムネイル画像SMを生成する。
したがって、サムネイル画像SMは、全天球画像Gの中からカメラセンサー2の進行方向に対応する位置D1を中心として抽出した画像となることから、カメラセンサー2の進行方向の風景を人間が直感的に判り易い画像となる。また、サムネイル画像SMは、歪曲補正が行われていることから、人間が直感的にオブジェクト(被写体)を識別しやすい画像となる。
図5は、全天球画像Gとサムネイル画像SMとの比較を説明する説明図である。図5の例では、車両20やドローン30にカメラセンサー2を設置し、車両20の走行時やドローン30の飛行時にカメラセンサー2で撮影した全天球画像Gを得るものとする。ケースC1では、全天球画像Gをそのままサムネイル画像としている。したがって、ケースC1では、全天球画像Gがそのままサイズの小さいサムネイル画像となることから、カメラセンサー2の進行方向にどのようなオブジェクト(被写体)が有るかを識別しづらい画像となる。これに対し、本実施形態のケースC2では、全天球画像Gのうちのカメラセンサー2の進行方向に対応する位置を中心としたサムネイル画像SMを生成する。したがって、ケースC2のサムネイル画像SMでは、カメラセンサー2の進行方向にあるオブジェクト(被写体)を識別しやすい画像となる。
以上のように、画像処理装置1は、カメラセンサー2が予め設定された時間で複数回撮影した、カメラセンサー2の撮影位置を中心とした複数の全天球画像Gを取得する。画像処理装置1は、取得した複数の全天球画像Gのそれぞれに含まれるオブジェクトO1、O2を対応づける。そして、画像処理装置1は、対応付けられたオブジェクトO1、O2のサイズおよびオブジェクトO1、O2の位置の変化に基づいて、全天球画像Gのうちのカメラセンサー2の進行方向に対応する位置D1を表示中心としたサムネイル画像SMを出力する。したがって、画像処理装置1は、例えばカメラセンサー2の進行方向にあるオブジェクトO1、O2等を識別しやすい、認識性の高いサムネイル画像SMを提供できる。
(第2の実施形態)
図6は、第2の実施形態にかかる画像処理装置の構成例を示すブロック図である。図6に示すように、画像処理装置1aは、GPSセンサー3(GPS:Global Positioning System)、ジャイロセンサー4および方位センサー5の検出結果をもとに、カメラセンサー2の進行方向を判定する進行方向判定部14aを有する点が、第1の実施形態にかかる画像処理装置1とは異なる。
GPSセンサー3、ジャイロセンサー4および方位センサー5は、カメラセンサー2とともに設置されるセンサー群であり、カメラセンサー2における位置、加速度、方位など、カメラセンサー2の進行方向にかかる情報を検出する。
進行方向判定部14aは、GPSセンサー3、ジャイロセンサー4および方位センサー5の検出結果を所定の時間間隔で取得し、各時間間隔におけるカメラセンサー2の進行方向と、その進行方向に対するカメラセンサー2の傾きを求める。画像方向判定部15は、進行方向判定部14aが求めたカメラセンサー2の進行方向と、進行方向に対するカメラセンサー2の傾きとをもとに、全天球画像G内での進行方向に対応する位置D1を確定する。
図7は、第2の実施形態にかかる画像処理装置1aの動作例を示すフローチャートである。図7に示すように、処理が開始されると、カメラセンサー2が起動され(S20)、全天球画像の逐次撮影が行われる(S21)。
次いで、進行方向判定部14aは、GPSセンサー3、ジャイロセンサー4および方位センサー5の検出結果を所定の時間間隔で取得し、各時間間隔におけるカメラセンサー2の進行方向と、その進行方向に対するカメラセンサー2の向きを取得する(S22)。
図8は、進行方向を判定する時間間隔の違いを説明する説明図である。図8では、カメラセンサー2の移動軌跡RをX−Yの2次元(上から俯瞰した状態)で示している。また、図8のケースC3は、カメラセンサー2の進行方向の判定にかかる時間間隔を時間間隔T1としている。また、図8のケースC4は、カメラセンサー2の進行方向の判定にかかる時間間隔を時間間隔T2(T2>T1)としている。
図8のケースC3、C4の比較からも明らかなように、同一の移動軌跡Rとなる場合であっても、進行方向の判定にかかる時間間隔T1、T2の違いにより、判定結果の進行方向R1、R2が異なる。したがって、カメラセンサー2の進行方向の判定にかかる時間間隔T1、T2は、任意の時間長として変更可能に設定してもよい。例えば、カメラセンサー2が細かい振動を受けやすい場合には、時間間隔T1よりも比較的に長い時間間隔T2を設定する。このように、時間間隔T2を設定することで、時間間隔T1の場合と較べて、カメラセンサー2の進行方向を判定する際の振動による影響を抑えることができる。
次いで、画像生成部11は、カメラセンサー2が逐次撮影した全天球画像Gを取得し、現画像の画像データを生成する(S23)。次いで、画像圧縮部12は、画像生成部11が生成した現画像を所定の画像形式の画像データに変換する。次いで、データ保存部13は、変換後の現画像の画像データを記憶装置に保存する(S24)。
次いで、画像方向判定部15は、進行方向判定部14aが判定したカメラセンサー2の進行方向と、その進行方向に対するカメラセンサー2の向きをもとに、カメラセンサー2の進行方向に対応する全天球画像Gにおける位置D1を確定する(S25)。
次いで、サムネイル生成部16は、画像方向判定部15が確定した全天球画像Gにおける位置D1をもとに、カメラセンサー2の進行方向の画像(位置D1を中心とした所定の画像領域)を抽出する(S8)。次いで、サムネイル生成部16は、抽出した画像に対して、歪曲補正や回転・拡大または縮小の画像処理を行い、サムネイル画像を生成する(S9)。次いで、データ保存部13は、サムネイル生成部16が生成したサムネイル画像を記憶装置に保存する(S10)。
以上のように、画像処理装置1aは、カメラセンサー2が撮影した、カメラセンサー2の撮影位置を中心とした全天球画像Gを取得する。画像処理装置1aは、全天球画像Gの撮影時にカメラセンサー2の進行方向を検知するセンサー(GPSセンサー3、ジャイロセンサー4および方位センサー5)の検知結果に基づいて、全天球画像Gのうちのカメラセンサー2の進行方向に対応する位置D1を表示中心としたサムネイル画像を出力する。したがって、画像処理装置1aは、例えばカメラセンサー2の進行方向を識別しやすい、認識性の高いサムネイル画像を提供できる。
(第3の実施形態)
図9は、第3の実施形態にかかる画像処理装置の構成例を示すブロック図である。なお、図9の画像処理装置1bでは、データ保存部13は、カメラセンサー2が撮影した、カメラセンサー2の撮影位置を中心とした全天球画像Gの画像データを記憶装置に記憶しているものとする。
図9に示すように、画像処理装置1bは、カメラセンサー2が撮影した全天球画像Gをデータ保存部13より読み出して表示装置(図示しない)に表示する画像表示部17を有する。すなわち、画像表示部17は、表示部の一例である。
また、画像処理装置1bは、画像表示部17が全天球画像Gを表示する際(全天球画像Gの閲覧時)にユーザより受け付けた全天球画像Gに対する各種操作を判定する操作判定部18を有する。具体的には、操作判定部18は、全天球画像Gの閲覧時においてユーザがタッチパネル等(図示しない)を介して行うズーム、回転等の操作内容を判定する。操作判定部18は、判定結果をサムネイル生成部16へ出力する。
サムネイル生成部16は、操作判定部18の判定結果に基づいて、画像表示部17が表示した全天球画像Gのうちの操作対象の領域を特定する。具体的には、サムネイル生成部16は、全天球画像Gの中からズーム、回転等の操作の中心となった領域を操作対象の領域として特定する。すなわち、サムネイル生成部16は、全天球画像Gの閲覧時においてユーザが興味を持って操作が行われた操作対象の領域を全天球画像Gの中から特定する。
次いで、サムネイル生成部16は、全天球画像Gの中から特定した操作対象の領域に対応する位置を中心とする所定領域の画像を切り出し、サムネイル画像を生成する。これにより、全天球画像Gの中から操作対象の領域を表示中心とするサムネイル画像が生成されることとなる。
図10は、第3の実施形態にかかる画像処理装置1bの動作例を示すフローチャートである。図10に示すように、処理が開始されると、画像表示部17は、カメラセンサー2が撮影した全天球画像Gをデータ保存部13より読み出して表示装置に表示する(S30)。
次いで、操作判定部18は、画像表示部17が全天球画像Gを表示する際にユーザより受け付けた全天球画像Gに対する各種操作を判定する(S31)。次いで、サムネイル生成部16は、操作判定部18の判定結果に基づいて、画像表示部17が表示した全天球画像Gのうちの操作対象の領域を特定する。次いで、サムネイル生成部16は、特定した操作対象の領域に対応する操作方向画像を全天球画像Gより抽出する(S32)。
次いで、サムネイル生成部16は、抽出した操作方向画像に対して、歪曲補正や回転・拡大または縮小の画像処理を行い、サムネイル画像を生成する(S33)。次いで、データ保存部13は、サムネイル生成部16が生成したサムネイル画像を記憶装置に追加保存(既にサムネイル画像がある場合は更新)する(S34)。
以上のように、画像処理装置1bは、カメラセンサー2が撮影した、カメラセンサー2の撮影位置を中心とした全天球画像Gを表示する。画像処理装置1bは、表示した全天球画像Gに対する操作指示に基づいて、全天球画像Gのうちの操作対象の領域に対応する位置を表示中心としたサムネイル画像を出力する。したがって、画像処理装置1bは、例えば全天球画像Gの閲覧時においてユーザが興味を持って操作が行われた操作対象の領域を識別しやすい、認識性の高いサムネイル画像を提供できる。
なお、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、画像処理装置1、1a、1bで行われる各種処理機能は、CPU(またはMPU、MCU(Micro Controller Unit)等のマイクロ・コンピュータ)上で、その全部または任意の一部を実行するようにしてもよい。また、各種処理機能は、CPU(またはMPU、MCU等のマイクロ・コンピュータ)で解析実行されるプログラム上、またはワイヤードロジックによるハードウエア上で、その全部または任意の一部を実行するようにしてもよいことは言うまでもない。また、画像処理装置1、1a、1bで行われる各種処理機能は、クラウドコンピューティングにより、複数のコンピュータが協働して実行してもよい。
ところで、上記の実施形態で説明した各種の処理は、予め用意されたプログラムをコンピュータで実行することで実現できる。そこで、以下では、上記の実施形態と同様の機能を有するプログラムを実行するコンピュータ(ハードウエア)の一例を説明する。図11は、プログラムを実行するコンピュータの一例を示すブロック図である。
図11に示すように、コンピュータ100は、各種演算処理を実行するCPU101と、データ入力を受け付ける入力装置102と、モニタ103と、スピーカ104とを有する。また、画像処理装置1、1a、1bは、記憶媒体からプログラム等を読み取る媒体読取装置105と、各種装置と接続するためのインタフェース装置106と、有線または無線により外部機器と通信接続するための通信装置107とを有する。また、コンピュータ100は、各種情報を一時記憶するRAM108と、ハードディスク装置109とを有する。また、コンピュータ100内の各部(101〜109)は、バス110に接続される。
ハードディスク装置109には、上記の実施形態で説明した各種の処理を実行するためのプログラム111が記憶される。また、ハードディスク装置109には、プログラム111が参照する各種データ112が記憶される。入力装置102は、例えば、コンピュータ100の操作者から操作情報の入力を受け付ける。モニタ103は、例えば、操作者が操作する各種画面を表示する。インタフェース装置106は、例えば印刷装置等が接続される。通信装置107は、LAN(Local Area Network)等の通信ネットワークと接続され、通信ネットワークを介した外部機器との間で各種情報をやりとりする。
CPU101は、ハードディスク装置109に記憶されたプログラム111を読み出して、RAM108に展開して実行することで、各種の処理を行う。なお、プログラム111は、ハードディスク装置109に記憶されていなくてもよい。例えば、コンピュータ100が読み取り可能な記憶媒体に記憶されたプログラム111を、コンピュータ100が読み出して実行するようにしてもよい。コンピュータ100が読み取り可能な記憶媒体は、例えば、CD−ROMやDVDディスク、USB(Universal Serial Bus)メモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリ、ハードディスクドライブ等が対応する。また、公衆回線、インターネット、LAN等に接続された装置にこのプログラムを記憶させておき、コンピュータ100がこれらからプログラムを読み出して実行するようにしてもよい。
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)カメラが予め設定された時間で複数回撮影した、前記カメラの撮影位置を中心とした複数の広角画像を取得する取得部と、
前記取得部が取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、前記取得部が取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する出力部と、
を有することを特徴とする画像処理装置。
(付記2)カメラが撮影した、前記カメラの撮影位置を中心とした広角画像を取得する取得部と、
前記広角画像の撮影時に前記カメラの進行方向を検知するセンサの検知結果に基づいて、前記取得部が取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する出力部と、
を有することを特徴とする画像処理装置。
(付記3)カメラが撮影した、前記カメラの撮影位置を中心とした広角画像を表示する表示部と、
前記表示部が表示した広角画像に対する操作指示に基づいて、前記表示部が表示した広角画像のうちの操作対象の領域に対応する位置を表示中心としたサムネイル画像を出力する出力部と、
を有することを特徴とする画像処理装置。
(付記4)前記広角画像は、全天球を撮影した全天球画像である、
ことを特徴とする付記1乃至3のいずれか一に記載の画像処理装置。
(付記5)前記出力部は、前記全天球画像から前記表示中心とした位置を含む所定領域の画像を歪曲補正して出力する、
ことを特徴とする付記4に記載の画像処理装置。
(付記6)スマートフォン、ドローン、水中探査艇、フォーミュラーカー、かつら、の何れかであることを特徴とする付記1乃至5のいずれか一に記載の画像処理装置。
(付記7)カメラが予め設定された時間で複数回撮影した、前記カメラの撮影位置を中心とした複数の広角画像を取得し、
前記取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、前記取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記8)カメラが撮影した、前記カメラの撮影位置を中心とした広角画像を取得し、
前記広角画像の撮影時に前記カメラの進行方向を検知するセンサーの検知結果に基づいて、前記取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記9)カメラが撮影した、前記カメラの撮影位置を中心とした広角画像を表示し、
前記表示した広角画像に対する操作指示に基づいて、前記表示した広角画像のうちの操作対象の領域に対応する位置を表示中心としたサムネイル画像を出力する、
処理をコンピュータに実行させることを特徴とする画像処理プログラム。
(付記10)前記広角画像は、全天球を撮影した全天球画像である、
ことを特徴とする付記7乃至9のいずれか一に記載の画像処理プログラム。
(付記11)前記出力する処理は、前記全天球画像から前記表示中心とした位置を含む所定領域の画像を歪曲補正して出力する、
ことを特徴とする付記10に記載の画像処理プログラム。
(付記12)カメラが予め設定された時間で複数回撮影した、前記カメラの撮影位置を中心とした複数の広角画像を取得し、
前記取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、前記取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記13)カメラが撮影した、前記カメラの撮影位置を中心とした広角画像を取得し、
前記広角画像の撮影時に前記カメラの進行方向を検知するセンサーの検知結果に基づいて、前記取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記14)カメラが撮影した、前記カメラの撮影位置を中心とした広角画像を表示し、
前記表示した広角画像に対する操作指示に基づいて、前記表示した広角画像のうちの操作対象の領域に対応する位置を表示中心としたサムネイル画像を出力する、
処理をコンピュータが実行することを特徴とする画像処理方法。
(付記15)前記広角画像は、全天球を撮影した全天球画像である、
ことを特徴とする付記12乃至14のいずれか一に記載の画像処理方法。
(付記16)前記出力する処理は、前記全天球画像から前記表示中心とした位置を含む所定領域の画像を歪曲補正して出力する、
ことを特徴とする付記15に記載の画像処理方法。
1、1a、1b…画像処理装置
2…カメラセンサー
3…GPSセンサー
4…ジャイロセンサー
5…方位センサー
11…画像生成部
12…画像圧縮部
13…データ保存部
14、14a…進行方向判定部
15…画像方向判定部
16…サムネイル生成部
17…画像表示部
18…操作判定部
20…車両
30…ドローン
100…コンピュータ
101…CPU
102…入力装置
103…モニタ
104…スピーカ
105…媒体読取装置
106…インタフェース装置
107…通信装置
108…RAM
109…ハードディスク装置
110…バス
111…プログラム
112…各種データ
C1〜C4…ケース
D1…位置
G…全天球画像
Ga…前画像
Gb…現画像
O1、O2…オブジェクト
R…移動軌跡
R1、R2…進行方向
SM…サムネイル画像
T1、T2…時間間隔

Claims (6)

  1. カメラが予め設定された時間で複数回撮影した、前記カメラの撮影位置を中心とした複数の広角画像を取得する取得部と、
    前記取得部が取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、前記取得部が取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する出力部と、
    を有することを特徴とする画像処理装置。
  2. 前記広角画像は、全天球を撮影した全天球画像である、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記出力部は、前記全天球画像から前記表示中心とした位置を含む所定領域の画像を歪曲補正して出力する、
    ことを特徴とする請求項に記載の画像処理装置。
  4. スマートフォン、ドローン、水中探査艇、フォーミュラーカー、かつら、の何れかであることを特徴とする請求項1乃至のいずれか一項に記載の画像処理装置。
  5. カメラが予め設定された時間で複数回撮影した、前記カメラの撮影位置を中心とした複数の広角画像を取得し、
    前記取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、前記取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する、
    処理をコンピュータに実行させることを特徴とする画像処理プログラム。
  6. カメラが予め設定された時間で複数回撮影した、前記カメラの撮影位置を中心とした複数の広角画像を取得し、
    前記取得した複数の広角画像のそれぞれに含まれるオブジェクトを対応づけると共に、
    対応付けられたオブジェクトのサイズおよび該オブジェクトの位置の変化に基づいて、前記取得した広角画像のうちの前記カメラの進行方向に対応する位置を表示中心とした画像を出力する、
    処理をコンピュータが実行することを特徴とする画像処理方法。
JP2017020692A 2017-02-07 2017-02-07 画像処理装置、画像処理プログラムおよび画像処理方法 Active JP6852878B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017020692A JP6852878B2 (ja) 2017-02-07 2017-02-07 画像処理装置、画像処理プログラムおよび画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017020692A JP6852878B2 (ja) 2017-02-07 2017-02-07 画像処理装置、画像処理プログラムおよび画像処理方法

Publications (2)

Publication Number Publication Date
JP2018128804A JP2018128804A (ja) 2018-08-16
JP6852878B2 true JP6852878B2 (ja) 2021-03-31

Family

ID=63174344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017020692A Active JP6852878B2 (ja) 2017-02-07 2017-02-07 画像処理装置、画像処理プログラムおよび画像処理方法

Country Status (1)

Country Link
JP (1) JP6852878B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN212510418U (zh) * 2020-07-15 2021-02-09 迈润智能科技(上海)有限公司 一种用于安装摄像头的立式固定座
JP7564737B2 (ja) 2021-03-09 2024-10-09 株式会社東芝 撮影処理装置、及び撮影処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007306353A (ja) * 2006-05-12 2007-11-22 Opt Kk 動画の表示方法、動画表示システムおよび広角動画撮像装置
JP6497965B2 (ja) * 2015-02-23 2019-04-10 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2018128804A (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
US11688034B2 (en) Virtual lens simulation for video and photo cropping
CN104126299B (zh) 视频图像稳定化
JP5659305B2 (ja) 画像生成装置および画像生成方法
US9648229B2 (en) Image processing device and associated methodology for determining a main subject in an image
US11722647B2 (en) Unmanned aerial vehicle imaging control method, unmanned aerial vehicle imaging method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle
US8965105B2 (en) Image processing device and method
JP7494273B2 (ja) 表示制御装置、表示制御方法、およびプログラム
JP6497965B2 (ja) 画像処理装置及び画像処理方法
JPWO2013069048A1 (ja) 画像生成装置および画像生成方法
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
EP2998935B1 (en) Image processing device, image processing method, and program
CN103985103A (zh) 一种生成全景图片的方法和装置
JP6544996B2 (ja) 制御装置及び制御方法
WO2019127027A1 (zh) 无人机拍摄视频的处理方法、拍摄相机和遥控器
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
JP2017147682A (ja) 全天球撮影システム
JP2014222825A (ja) 映像処理装置および映像処理方法
JP2020053774A (ja) 撮像装置および画像記録方法
JP6852878B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP2012119804A (ja) 画像記録装置
KR102592745B1 (ko) 자세 추정 장치, 자세 추정 방법 및 기록 매체에 저장된 컴퓨터 프로그램
WO2022041013A1 (zh) 控制方法、手持云台、系统及计算机可读存储介质
US20220309699A1 (en) Information processing apparatus, information processing method, program, and information processing system
JP2015103918A (ja) 撮像装置及び撮像装置の制御方法
JP6679784B2 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20180409

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181019

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6852878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350