JP2017224985A - Information processing apparatus, electronic blackboard, and program - Google Patents
Information processing apparatus, electronic blackboard, and program Download PDFInfo
- Publication number
- JP2017224985A JP2017224985A JP2016118992A JP2016118992A JP2017224985A JP 2017224985 A JP2017224985 A JP 2017224985A JP 2016118992 A JP2016118992 A JP 2016118992A JP 2016118992 A JP2016118992 A JP 2016118992A JP 2017224985 A JP2017224985 A JP 2017224985A
- Authority
- JP
- Japan
- Prior art keywords
- video
- display
- image
- area
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 24
- 238000000034 method Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 description 52
- 238000010586 diagram Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 19
- 230000006870 function Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 8
- 238000009966 trimming Methods 0.000 description 8
- 230000000903 blocking effect Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 210000001217 buttock Anatomy 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Facsimiles In General (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置、電子黒板及びプログラムに関する。 The present invention relates to an information processing apparatus, an electronic blackboard, and a program.
液晶パネル等のディスプレイと、ユーザが電子ペンなどの指示体を用いて指示したディスプレイ上の座標を検知する座標検知装置と、座標検知装置から出力される座標データに基づいて手書きされたストロークなどを描画して表示させる制御装置と、を備えた電子黒板が広く使用されている。 A display such as a liquid crystal panel, a coordinate detection device that detects coordinates on the display instructed by a user using an indicator such as an electronic pen, and a stroke that is handwritten based on coordinate data output from the coordinate detection device Electronic blackboards equipped with a control device for drawing and displaying are widely used.
また、電子黒板はPC(Personal Computer)やタブレット端末などの端末と通信する機能を有しており、電子黒板は電子黒板のディスプレイに描画された画像を端末に送信できる。しかし、電子黒板のディスプレイに比べ、端末のディスプレイは小さいため画像をそのまま表示すると見にくい場合がある。 The electronic blackboard has a function of communicating with a terminal such as a PC (Personal Computer) or a tablet terminal, and the electronic blackboard can transmit an image drawn on the display of the electronic blackboard to the terminal. However, since the display of the terminal is smaller than the display of the electronic blackboard, it may be difficult to see the image as it is.
そこで、画面を領域ごとに分割して外部の端末に送信することが検討される(例えば、特許文献1参照。)。特許文献1には、例えば教師が生徒の端末に分割した画像データを送信する場合に、電子黒板に手書きした画像を教師が分割する線を引き、その分割線により分割された各分割領域を順番に送信する技術が開示されている。これにより、教師は電子黒板に書いた情報の順番に生徒側の端末に画像を表示させることができる。
Then, dividing | segmenting a screen for every area | region and considering transmitting to an external terminal is examined (for example, refer patent document 1). In
しかしながら、特許文献1では電子黒板が複数の映像を表示することができないという問題がある。例えば、電子黒板は端末が表示する映像を取得してディスプレイに表示する機能を有するが、複数の端末が接続された場合には複数の映像が入力される。しかし、ディスプレイは1つしかないため従来の技術では、複数の映像のうちどちらか1つしか表示できない。
However,
本発明は、上記課題に鑑み、複数の映像を表示できる情報処理装置を提供することを目的とする。 In view of the above problems, an object of the present invention is to provide an information processing apparatus capable of displaying a plurality of videos.
本発明は、入力された映像を表示装置に表示する情報処理装置であって、前記表示装置上の指示体の位置情報の入力を受け付ける受付手段と、前記位置情報に基づいて前記表示装置内の領域の選択を受け付ける領域選択受付手段と、複数の映像のうち第一の映像を前記領域外に表示し、第二の映像を前記領域内に表示する映像表示手段と、を有する。 The present invention is an information processing apparatus that displays an input video on a display device, and includes a receiving unit that receives an input of position information of a pointer on the display device, and a display unit in the display device based on the position information. Area selection receiving means for receiving selection of the area; and video display means for displaying a first video out of the area and displaying a second video in the area.
複数の映像を表示できる情報処理装置を提供することができる。 An information processing apparatus capable of displaying a plurality of videos can be provided.
以下、本発明を実施するための形態について図面を参照しながら説明する。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
図1は、本実施形態の電子黒板2の概略的な特徴を説明する図の一例である。図1(a)に示すように電子黒板2には映像P1とP2が入力されているが、電子黒板2は映像P1を表示装置であるディスプレイ3に表示している。
FIG. 1 is an example of a diagram illustrating schematic features of the
この状態でユーザは電子ペンなどの発光指示体100aを使用してストロークを描画し任意の領域選択を行う。図1(b)に示すようにユーザは任意の閉塞線で分割領域50を選択する。
In this state, the user draws a stroke using a
分割領域50が選択されると、電子黒板2は分割領域50に映像P2を表示し、分割領域50外に映像P1を表示する。したがって、ディスプレイ3には映像P1が表示されると共に、映像P1の分割領域50に映像P2が同時に表示される。
When the divided
このように、本実施形態の電子黒板2は、ユーザの描いたストロークから分割領域50の選択を受け付け分割領域50に別の映像を表示するので、自由なレイアウトで複数の映像を同時に表示することができる。
As described above, the
<用語について>
映像とは、光によって映し出されたものの形や姿をいう。画像と呼ばれる場合がある。映像は、静止画でも動画でもよい。
<Terminology>
Video refers to the shape and appearance of what is projected by light. Sometimes called an image. The video may be a still image or a video.
位置情報とは、位置を特定する機能を持った情報である。例えば、座標、画素の位置、規準からの距離などにより表すことができる。 The position information is information having a function for specifying the position. For example, it can be expressed by coordinates, pixel positions, distance from a standard, and the like.
領域とは、区画された範囲をいう。あるいは、広がりを持つもの全体の中の一部分をいう。本実施形態では分割領域という言葉で説明する。 A region refers to a partitioned range. Or it refers to a part of the whole thing that has a spread. In the present embodiment, the term “divided area” will be used.
<システム構成例>
図2は、電子黒板システム500の全体構成図の一例である。図1に示されているように、電子黒板システム500は、1つ以上の電子黒板2、電子ペンなどの発光指示体100a、USBメモリ5、PC(Personal Computer)6、テレビ会議端末7、及びPC4を有する。電子黒板2にはPC6とテレビ会議端末7が映像を送信するための信号線で接続されている。電子黒板2は通信ネットワーク9に接続されており、任意の電子黒板2に対し他の電子黒板2とPC4は通信ネットワーク9を介して通信可能に接続されている。
<System configuration example>
FIG. 2 is an example of an overall configuration diagram of the
複数の電子黒板2は、それぞれディスプレイ3を有している。また、電子黒板2は、発光指示体100aによって生じたイベント(ディスプレイ3に電子ペンのペン先、又は、電子ペンのペン尻のタッチ)による描画された画像を、ディスプレイ3に表示させることができる。なお、電子ペンだけでなく、ユーザの手等(以下、非発光指示体100bという。発光指示体100aと区別しない場合は単に指示体100という)によって生じたイベント(拡大、縮小、ページめくり等のジェスチャ)に基づいて、ディスプレイ3上に表示されている画像を変更させることもできる。
Each of the plurality of
また、ユーザは電子黒板2にUSBメモリ5等の可搬型メモリを接続可能であり、電子黒板2はUSBメモリ5からPDF等の電子ファイルを読み出したり、USBメモリ5に電子ファイルを記録したりすることができる。また、電子黒板2には、Display Port(登録商標)、DVI、HDMI(登録商標)及びVGA等の規格による通信が可能なケーブルを介してPC6が接続されている。後述するように複数台のPC6が電子黒板2に接続可能である。
Further, the user can connect a portable memory such as a
また、電子黒板2は、ディスプレイ3に対する指示体100によるイベントを示すイベント情報を、マウスやキーボード等の入力装置からのイベントと同様に、PC6に送信する。
In addition, the
同様に電子黒板2には、上記規格による通信が可能なケーブルを介してテレビ会議端末7が接続されている。なお、PC6、及びテレビ会議端末7は、Bluetooth(登録商標)等の各種無線通信プロトコルに準拠した無線通信により電子黒板2と通信してもよい。
Similarly, a video conference terminal 7 is connected to the
一方、他の電子黒板2が設置されている他の拠点においても、ディスプレイ3を備えた電子黒板2、発光指示体100a、USBメモリ5、PC6、テレビ会議端末7が利用されてよい。一方の拠点の電子黒板2がディスプレイ3に表示する映像は、他方の電子黒板2がディスプレイ3に表示することができる。また、一方の拠点の電子黒板2に生じたイベントは、他方の電子黒板2に送信される。したがって、ユーザが指示体100で生じさせたイベントに基づいて、一方の拠点の電子黒板2のディスプレイ3が表示する映像を変更すると、イベントが他方の拠点の電子黒板2に送信され該電子黒板2のディスプレイ3の映像も変更される。
On the other hand, the
このように、電子黒板システム500では、遠隔地において同じ画像を共有する遠隔共有処理を行うことができる。
Thus, the
図3は、電子黒板2のハードウェア構成図の一例である。図3に示されているように、電子黒板2は、電子黒板2全体の動作を制御するCPU101、IPL等のCPUの駆動に用いられるプログラムを記憶したROM102、CPU101のワークエリアとして使用されるRAM103、通信ネットワーク9との通信を制御するネットワークコントローラ105、及び、USBメモリ5との通信を制御する外部記憶コントローラ106を備えている。
FIG. 3 is an example of a hardware configuration diagram of the
また、電子黒板2は、PC6がPC6のディスプレイに表示している静止画又は動画を取り込む外部ビデオインタフェース111を有する。また、グラフィクス(ディスプレイ3に表示する画面の画像処理)を専門に扱うGPU112、及び、GPU112からの映像をディスプレイ3やテレビ会議端末7へ出力するために画面表示の制御及び管理を行うディスプレイコントローラ113を備えている。
The
更に、電子黒板2は、タッチパネルの処理を制御するセンサコントローラ114、ディスプレイ3に指示体100が接触したことを検知するタッチパネル115を備えている。また、電子黒板2は、電子ペンコントローラ116を備えている。電子ペンコントローラ116は、発光指示体100aと通信することで、ディスプレイ3への発光指示体100aのペン先のタッチやペン尻のタッチの有無を判定する。なお、電子ペンコントローラ116が、ペン先及びペン尻だけでなく、発光指示体100aのユーザが握る部分や、その他の発光指示体100aの部分のタッチの有無や圧力を判定するようにしてもよい。
Furthermore, the
更に、電子黒板2は、CPU101、ROM102、RAM103、ネットワークコントローラ105、外部記憶コントローラ106、外部ビデオインタフェース111、GPU112、センサコントローラ114、及び電子ペンコントローラ116を図2に示されているように電気的に接続するためのアドレスバスやデータバス等のバスライン120を備えている。
Further, the
<電子黒板2の機能について>
図4を用いて電子黒板2の機能について説明する。図4は、電子黒板2の機能を示す機能ブロック図の一例である。電子黒板2は、大きく分けて、クライアント部20及びサーバ部90の両方によって構成されている。クライアント部20及びサーバ部90は、電子黒板2の1台の筐体内で実現される機能である。
<About the functions of the
The function of the
サーバ部90は、電子黒板2が会議を開催したサーバとして動作する場合に有効となる機能である。サーバ部90は、他の電子黒板2に各種のデータを送信し、また会議に参加している電子黒板2から各種の情報を受信する。なお、サーバ部90が有効でない場合、クライアント部20は他の電子黒板2のサーバ部90と通信する。
The
クライアント部20は、映像取得部21、座標検知部22、自動調整部23、接触検知部24、イベント振分部25、操作処理部26、ジェスチャ処理部27、映像重畳部28、画像処理部30、及び通信制御部60を有する。
The
このうち、映像取得部21は、ケーブル10に接続された映像出力機器(本実施形態はPC6)の映像を取得する。映像取得部21は、映像出力機器から画像信号を受信すると、この画像信号を解析してこの画像信号によって形成される映像出力機器の表示画像である画像フレームの解像度や、この画像フレームの更新頻度などの画像情報を導出し、画像取得部31に出力する。
Among these, the
座標検知部22は、ディスプレイ3上で非発光指示体100bによって生じたイベント(ディスプレイ3上にユーザの手がタッチした動作等)の座標位置を検出する。また、座標検知部22は、タッチされた面積も検出する。
The coordinate
自動調整部23は、電子黒板2の起動時(再起動時と表現してもよい)に起動され、座標検知部22が適切な値を出力できるように、光センサ方式により座標を検知する座標検知部22がセンサーカメラの画像を処理する際のパラメータを調整する。
The
接触検知部24は、発光指示体100aによって生じたイベント(ディスプレイ3上に発光指示体100aのペン先又は発光指示体100aのペン尻が押下(タッチ)された動作等)を検出する。
The
イベント振分部25は、座標検知部22によって検知されたイベントの座標位置と接触検知部24によって検出された検出結果を、ストローク描画、UI操作、及びジェスチャ操作の各イベントに振り分ける。ここで、「ストローク描画」は、ユーザがディスプレイ3上で発光指示体100aを押下し、この押下した状態で発光指示体100aを移動させ、最終的にディスプレイ3上から発光指示体100aを離すまでのイベントである。このストローク描画により、例えば、アルファベット「S」や「T」等がディスプレイ3上に描画される。
The
「UI操作」は、ユーザが指示体100によって所定の位置を押下したイベントである。このUI操作により、例えば、発光指示体100aにより描画される線の色や幅等が設定される。「ジェスチャ操作」は、ユーザが非発光指示体100bでディスプレイ3上をタッチしたり移動させたりするイベントである。このジェスチャ操作により、例えば、ユーザがディスプレイ3に非発光指示体100bをタッチさせた状態で移動させることで、画像の拡大(若しくは縮小)、表示領域の変更、又は、ページ切り換え等を行うことができる。
“UI operation” is an event in which the user presses a predetermined position with the
操作処理部26は、イベント振分部25によってUI操作と判定されたものから、イベントが発生されたUIの要素にしたがって、各種操作を実行する。このUIの要素としては、例えば、ボタン、リスト、チェックボックス、テキストボックスが挙げられる。ジェスチャ処理部27は、イベント振分部25によってジェスチャ操作と判定されたものに対応した操作を実行する。
The
映像重畳部28は、後述の表示重畳部36で重畳された画像を映像として表示部29に対して表示する。表示部29はディスプレイ3により実現される表示機能を示す。また、映像重畳部28は、映像出力機器(PC6等)からの映像に対して、他の映像出力機器(テレビ会議端末7等)から送られて来た映像をピクチャーインピクチャーする。更に、映像重畳部28は、ピクチャーインピクチャーされて表示部29の一部に表示された映像を、表示部29の全体に表示させるための切り替えを行う。
The
画像処理部30は、ストローク画像、UI画像、PC6からの映像、背景画像(無地、グリッド表示等)をそれぞれレイヤとして、レイヤの重畳処理等を行う。この画像処理部30は、画像取得部31、ストローク処理部32、UI画像生成部33、背景生成部34、レイアウト管理部35、表示重畳部36、ページ処理部37、ファイル処理部40、ページデータ記憶部300を有している。
The
このうち、画像取得部31は、映像取得部21で取得された映像から、各フレームを画像として取得する。画像取得部31は、ユーザなどの指示によりこの画像のデータをページ処理部37に出力する機能を有し、ページ処理部37は映像から取り込んだ画像をページデータ記憶部300に記憶させる。この画像は、PC6からの映像に相当する。また、画像取得部31は、複数のPC6(以下、区別する場合はPC−1、PC−2と称する)が接続されている場合、それらの映像を同時にディスプレイ3に表示する。
Among these, the image acquisition unit 31 acquires each frame as an image from the video acquired by the
ストローク処理部32は、イベント振分部25によって割り振られたストローク描画に係るイベントに基づいて、ストローク画像を描画したり、描画されたストローク画像を削除したり、描画されたストローク画像を編集する。
The
UI画像生成部33は、電子黒板2に予め設定されているUI(ユーザインターフェース)画像を生成する。背景生成部34は、ページ処理部37がページデータ記憶部300から読み出したページデータのうちの後述するメディアデータを、ページ処理部37から受信する。背景生成部34は、この受信したメディアデータを表示重畳部36に出力する。
The UI
レイアウト管理部35は、表示重畳部36に対して、画像取得部31、ストローク処理部32、及びUI画像生成部33(又は背景生成部34)から出力された各画像のレイアウトを示すレイアウト情報を管理している。これにより、レイアウト管理部35は、表示重畳部36に対して、映像及びストローク画像を、UI画像及び背景画像中のどの位置に表示させるか又は非表示にさせるかを指示することができる。
The
表示重畳部36は、レイアウト管理部35から出力されたレイアウト情報に基づき、画像取得部31、ストローク処理部32、UI画像生成部33及び背景生成部34から出力された各画像のレイアウトを行う。
Based on the layout information output from the
ページ処理部37は、ストローク画像のデータと映像として取り込まれた画像を、1つのページデータにまとめてページデータ記憶部300に記憶する。ストローク画像のデータと映像のデータはページデータの一部を成す。
The
ページ処理部37がページデータ記憶部300にページデータを記憶する時点でディスプレイ3上に表示されている映像のデータは、一旦、ページデータ記憶部300に記憶され、その後にページデータ記憶部300から読み出される際には、背景画像を示すメディアデータとして読みされる。そして、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、ストローク画像を示すストローク配列データを、ストローク処理部32に出力する。また、ページ処理部37は、ページデータ記憶部300から読み出したページデータのうち、背景画像を示すメディアデータを、背景生成部34に出力する。
Video data displayed on the
表示重畳部36は、画像取得部31からの映像、ストローク処理部32からのストローク画像、UI画像生成部33からのUI画像、及び、背景生成部34からの背景画像を、レイアウト管理部35によって指定されたレイアウトにしたがって重畳する。これにより、各画像が重なってもユーザが見える順に、UI画像、ストローク画像、映像、及び背景画像の各レイヤの構成となっている。
The
<複数の映像の表示手順>
図5を用いて、電子黒板2が複数の映像をディスプレイ3に表示する全体的な手順を説明する。図5は、電子黒板2が複数の映像をディスプレイ3に同時に表示する手順を示すフローチャート図の一例である。図5の処理は、ユーザが任意のタイミングで始めることができる。
<Procedure for displaying multiple images>
With reference to FIG. 5, an overall procedure for the
まず、複数の映像を同時に表示したい場合、ユーザは所定のアイコンを指示体100で押下するなどして、電子黒板2を複数映像表示モードに切り替える操作を行う(S10)。電子黒板2の操作処理部26はユーザのこの操作を受け付ける。
First, when it is desired to display a plurality of images simultaneously, the user performs an operation of switching the
複数映像表示モードに入ると、複数のPC6からのうちどの映像を表示するのかという映像入力元をユーザが選択する。操作処理部26はユーザのこの操作を受け付ける(S20)。例えば、ユーザが複数のPC6のうち一方を選択する。あるいは、PC6とテレビ会議端末7の一方を選択してもよい。なお、PC6が一台だけ接続されている場合は、ユーザの選択なしに接続されているPC6の映像が入力される。したがって、ユーザが選択するのは、複数のPC6が接続されており同時に表示したい場合である。なお、複数映像表示モードは上記のピクチャーインピクチャーとは異なっている。ピクチャーインピクチャーでは同じ場所に同じサイズでしか複数の映像を同時に表示できない。
When the multiple video display mode is entered, the user selects a video input source indicating which video is to be displayed from among the plurality of
次に、ユーザは、他の映像と同時に表示される映像のため、閉塞線のストロークを指示体100でディスプレイ3に手書きする。座標検知部22はストロークの座標の入力を受け付け、イベント振分部25はストロークの描画であると判定する。また、更に複数映像表示モードであるので、ストローク処理部32は分割領域50が選択されたことを検出する(S30)。
Next, the user manually draws the stroke of the closing line on the
選択された分割領域50と分割領域50外(分割領域50以外の領域。以下、非分割領域という。)に対し、画像取得部31はユーザが選択した複数の映像をそれぞれ表示する(S40)。すなわち、分割領域50にユーザが選んだ映像P2を、非分割領域に映像P1を表示する。以下では、図5の処理を詳細に説明する。
For the selected divided
<S10 複数映像表示モードの選択>
図6は、複数映像表示モードの選択について説明する図の一例である。図6には2つのPC6(以下、PC−1、PC−2という)からの映像P1,P2が電子黒板2に入力されていることが示されている。また、電子黒板2はPC−1の映像P1をディスプレイ3に表示している。また、UI画像としてユーザが操作するためのアイコン301が表示されている。
<S10 Selection of Multiple Video Display Mode>
FIG. 6 is an example of a diagram for describing selection of the multiple video display mode. FIG. 6 shows that images P1 and P2 from two PCs 6 (hereinafter referred to as PC-1 and PC-2) are input to the
複数映像表示モードを選択する場合、ユーザはディスプレイ3上の所定のアイコン301を指示体100で押下する(触れる)。所定のアイコン301を複数映像表示アイコン302という。操作処理部26は複数映像表示アイコン302が押下されたことを検出して、UI画像生成部33が所定のUI画像を表示する。
When selecting the multiple video display mode, the user presses (touches) a
<S20 映像入力元の選択>
図7は、映像入力元の選択を受け付けるためのUI画像を説明する図の一例である。なお、図7では主に図6との相違を説明する。図7では、複数映像表示アイコン302の近くに選択可能な映像入力元アイコン303が表示される。映像入力元は電子黒板2に映像を入力するPC−1及びPC−2である。外部ビデオインタフェース111は映像入力元ごとに用意されており、外部ビデオインタフェース111は映像の入力の有無を判定している。UI画像生成部33は入力がある外部ビデオインタフェース111に対応する映像入力元アイコン303をそれぞれ表示する。したがって、映像入力元アイコン303は映像入力の一覧となる。UI画像生成部33は、映像P1,P2を縮小したりサムネイル表示することで映像入力元アイコン303を表示する。これにより、ユーザは分割領域50に表示する映像P2を選びやすくなる。
<S20 Selection of video input source>
FIG. 7 is an example of a diagram illustrating a UI image for accepting selection of a video input source. Note that FIG. 7 mainly describes differences from FIG. In FIG. 7, a selectable video
ユーザは表示された映像入力元アイコン303からディスプレイ3に表示したい映像入力元アイコン303を指示体100で押下することで選択する。すでにPC−1の映像がディスプレイ3に表示されているので、ユーザはPC−2の映像P2に相当する映像入力元アイコン303を選択する。これにより、操作処理部26は選択された映像入力元の映像P2を現在表示している映像P1と同時に表示することを検知する。操作処理部26はPC−2に対応する映像入力元アイコン303の選択を受け付けて、画像取得部31に映像P2が分割領域50に表示されることを通知する。これにより、画像取得部31が複数映像表示モードに移行する。したがって、画像取得部31はPC−1とPC−2の映像P1,P2を同時に表示する。
The user selects the video
<S30 分割領域50の検出>
図8は、分割領域50の検出について説明する図の一例である。UI画像生成部33は「領域を選択してください」等のように、ユーザに分割領域50の選択を促すメッセージ304を表示する。分割領域50の選択方法は、ユーザが指示体100で自由な閉塞線51を手書きするという方法である。ユーザはPC−1の映像P1のどの部分にPC−2の映像P2を表示させるか判断し、閉塞線51を手書きする。閉塞線51を含むその内側(閉塞線を含まなくてもよい)が分割領域50であり、PC−2の映像P2が表示される。換言すると、PC−1の映像P1が表示されない領域が分割領域50である。
<S30 Detection of divided
FIG. 8 is an example of a diagram for explaining detection of the divided
ストローク処理部32は指示体100のディスプレイ3上のストロークを示す座標を取得して、分割領域50の選択を受け付ける。複数映像表示モードのストローク処理部32はストロークが閉塞線51を形成したことを検出すると、分割領域50を受け付ける。閉塞線51であることは、例えばストローク(ペンダウンしてからペンアップするまでの一筆の間)を構成する任意の2つの座標が一定以上の距離(又は時間)をおいてほぼ一致することにより判定される。
The
なお、分割領域50は任意の手書きによる閉塞線51で選択される他、対角の2点の指定による矩形領域で選択されてもよい。あるいは、ユーザが描画した直線(直線を描画するモードがある)を一辺とする正方形として選択されてもよい。また、PC−2の映像のアスペクト比を取得して、ユーザが描画した縦又は横の直線の長さに基づき同じアスペクト比の矩形が選択されてもよい。
The divided
また、図8ではPC−1の映像P1が表示された状態で分割領域50が選択されているが、複数映像表示モードになると画像取得部31がPC−2の映像P2をディスプレイ3の全面に表示してもよい。この場合、ユーザはPC−2の映像P2のうちPC−1の映像P1と共に表示したい領域を分割領域50として選択できる。
In FIG. 8, the divided
<S40 複数の映像の表示>
まず、図9を用いて、ストローク処理部32が取得するストロークについて説明する。図9は、ストロークを形成する座標を模式的に説明する図の一例である。ストロークは、ユーザが指示体100でディスプレイ3をなぞった座標の集合である。指示体100のディスプレイ3における軌跡ということができる。各ストロークはストローク配列データにより管理されており、各ストロークの座標は座標配列データで管理される。図9では(X1,Y1)〜(X6,Y6)の6つの座標が図示されている。ストローク処理部32は、ペンダウンからペンアップまでの6つの座標を接続してストロークを描画する。
<S40 Display of multiple images>
First, strokes acquired by the
<< 映像の重畳の処理 >>
次に、図10を用いて複数の映像の同時表示について説明する。図10は、PC−1の映像P1にPC−2の映像P2が重畳されたディスプレイ3を模式的に示す図である。図示するように、PC−1の映像P1に対しPC−2の映像P2が分割領域50において重畳されている。すなわち、PC−2の映像P2の分割領域50がトリミングされ、PC−1の映像P1の分割領域50に重畳されている。あるいは、PC−1の映像P1が分割領域50を除いてトリミングされた映像と、PC−2の映像の分割領域50がトリミングされた映像とが合成されたと表現してもよい。
<< Video overlay processing >>
Next, simultaneous display of a plurality of videos will be described with reference to FIG. FIG. 10 is a diagram schematically showing the
図11は、映像のトリミングを説明する図の一例である。図11(a)に示すように、画像取得部31は、分割領域50の外側の非分割領域の画素位置に関しては、現在表示しているPC−1の映像P1を取得する。図11(b)に示すように、画像取得部31は、ユーザが描いた分割領域50の内側の画素位置に関しては、PC−2の映像P2を取得する。
FIG. 11 is an example of a diagram illustrating video trimming. As illustrated in FIG. 11A, the image acquisition unit 31 acquires the video P <b> 1 of the currently displayed PC- 1 regarding the pixel position of the non-divided area outside the divided
すなわち、画像取得部31は画素位置に応じて、PC−1の映像とPC−2の映像をマッピングする。これにより、図11(c)に示すように、分割領域50にPC−2の映像P2が重畳されたPC−1の映像P1を表示できる。
That is, the image acquisition unit 31 maps the video of PC-1 and the video of PC-2 according to the pixel position. Accordingly, as shown in FIG. 11C, the PC-1 video P1 in which the PC-2 video P2 is superimposed on the divided
図12は、主に画像取得部31が複数の映像を重畳して表示する手順を示すフローチャート図の一例である。図12の処理は、複数映像表示モードが選択されるとスタートする。 FIG. 12 is an example of a flowchart illustrating a procedure in which the image acquisition unit 31 mainly displays a plurality of videos in a superimposed manner. The process of FIG. 12 starts when the multiple video display mode is selected.
まず、ストローク処理部32は、ユーザが指示体100で描画する閉塞線51に基づき分割領域50を認識する(S10)。
First, the
次に、画像取得部31は、閉塞線の内側の分割領域50の座標を求め座標テーブルを作成する(S20)。座標テーブルの一例を表3に示す。
Next, the image acquisition unit 31 obtains the coordinates of the divided
次に、処理は2つのループ1,ループ2に入る。ループ1はディスプレイ3の画素位置の全てのX座標についての繰り返しであり、ループ2はディスプレイ3の画素位置の全てのY座標についての繰り返しである。
Next, the process enters two
画像取得部31は、ディスプレイ3のX=0、Y=0の画素位置から始めて、座標テーブルに画素位置があるか否かを判定する(S30)。
The image acquisition unit 31 starts from the pixel position of X = 0 and Y = 0 of the
ステップS30の判定がYesの場合、画像取得部31はPC−2の映像の座標(X,Y)の画像データを取得する(S40)。 When the determination in step S30 is Yes, the image acquisition unit 31 acquires image data of the coordinates (X, Y) of the video of PC-2 (S40).
ステップS30の判定がNoの場合、画像取得部31はPC−1の映像の座標(X,Y)の画像データを取得する(S50)。 If the determination in step S30 is No, the image acquisition unit 31 acquires image data of the coordinates (X, Y) of the video of PC-1 (S50).
画像取得部31はループ1のためにXmaxまでX座標を1つずつ大きくし、ステップS30〜S50を実行する。Xmaxはディスプレイ3のX座標の最大値である。X座標がXmaxを超えると、ループ2のためにYmaxまでY座標を1つずつ大きくし、ステップS30〜S50を実行する。Ymaxはディスプレイ3のY座標の最大値である。
The image acquisition unit 31 increases the X coordinate one by one up to Xmax for
X座標がXmaxを超え更にY座標がYmaxを超えると、画像取得部31は映像を映像重畳部28に出力するので、PC−1とPC−2の映像P1,P2が重畳された映像がディスプレイ3に表示される(S60)。
When the X coordinate exceeds Xmax and the Y coordinate exceeds Ymax, the image acquisition unit 31 outputs the video to the
<全体の動作手順>
図13は、ユーザの操作と電子黒板2の全体的な動作の流れを示すシーケンス図の一例である。
<Overall operation procedure>
FIG. 13 is an example of a sequence diagram showing the flow of the user operation and the overall operation of the
S1:ユーザは、複数の映像を表示したい場合、UI画像のアイコンから複数映像表示アイコン302を選択する。電子黒板2の操作処理部26は複数映像表示アイコン302の選択を受け付ける。
S1: When the user wants to display a plurality of videos, the user selects the multiple
S2:画像取得部31は、現在、電子黒板2に入力されている映像(入力ソース)を確認する。
S2: The image acquisition unit 31 checks the video (input source) currently input to the
S3:そして、UI画像生成部33は入力されている映像の一覧を映像入力元アイコン303として表示する。
S3: The UI
S4:ユーザは映像入力元アイコン303の一覧から同時に表示したい映像入力元を選択する。電子黒板2の操作処理部26は映像入力元の選択を受け付ける。
S4: The user selects a video input source to be displayed simultaneously from the list of video
S5:映像入力元が選択されるとUI画像生成部33がユーザに分割領域50を選択させるためのUI画像を表示する。
S5: When the video input source is selected, the UI
S6:ユーザは指示体100で表示したい分割領域50を囲むように閉塞線51を描画する。
S6: The user draws a
S7:ストローク処理部32はストロークに基づき閉塞線51を検出する。
S7: The
S8:次に、画像取得部31は閉塞線51の座標に基づき表3の座標テーブルを作成する。
S8: Next, the image acquisition unit 31 creates a coordinate table of Table 3 based on the coordinates of the blocking
S9:また、画像取得部31は座標テーブルを用いて、図12にて説明したような複数の映像を重畳する処理を行う。 S9: Also, the image acquisition unit 31 performs a process of superimposing a plurality of videos as described with reference to FIG. 12 using the coordinate table.
S10:表示重畳部36は複数の映像P1,P2を同時にディスプレイ3に表示する。
S10: The
以上のように、本実施例の電子黒板2は、ユーザが描いたストロークから分割領域50を認識して、分割領域50内に別の映像を表示するので、複数の映像を同時に表示することができる。分割領域50は任意に設定できるので、複数の映像を同時に自由なレイアウトで表示することができる。
As described above, the
本実施例では、矩形領域の分割領域50をユーザが選択できる電子黒板2について説明する。本明細書において、同一の符号を付した構成要素については、同様の機能を果たすので、一度説明した構成要素の説明を省略あるいは相違点についてのみ説明する場合がある。以下の実施例についても同様である。
In this embodiment, an
図14は、電子黒板2によるトリミングと複数の映像の重畳を説明する図の一例である。図14(a)に示すように、ユーザは閉塞線51を描画する。本実施例の画像取得部31は閉塞線51を検出すると、図14(b)に示すように、閉塞線51の外接矩形52を作成する。本実施例ではこの外接矩形52が分割領域50である。
FIG. 14 is an example of a diagram illustrating trimming by the
以降の処理は実施例1と同様である。すなわち、画像取得部31は、矩形の分割領域50の外側の非分割領域の画素位置についてはPC−1の映像P1を取得し、矩形の分割領域50の内側の画素位置についてはPC−2の映像P2を取得する(図14(c))。こうすることで、図14(d)に示すように、ディスプレイ3の矩形の分割領域50にPC−2の映像が表示された状態でPC−1とPC−2の映像を同時に表示することができる。
The subsequent processing is the same as in the first embodiment. That is, the image acquisition unit 31 acquires the video P1 of the PC-1 for the pixel positions of the non-divided areas outside the rectangular divided
図15は、主に画像取得部31が複数の映像を重畳して表示する手順を示すフローチャート図の一例である。図15の処理は、複数映像表示モードが選択されるとスタートする。まず、ステップS10,S20は図12のステップS10,S20と同じでよい。 FIG. 15 is an example of a flowchart illustrating a procedure in which the image acquisition unit 31 mainly displays a plurality of videos in a superimposed manner. The process of FIG. 15 starts when the multiple video display mode is selected. First, steps S10 and S20 may be the same as steps S10 and S20 in FIG.
次に、画像取得部31は、座標テーブルを使って閉塞線51の外接矩形52を求める。まず、画像取得部31は、外接矩形52のX座標の最小値Xaと最大値Xbを座標テーブルから検出する(S30)。
Next, the image acquisition unit 31 obtains a circumscribed
次に、画像取得部31は、外接矩形のY座標の最小値Yaと最大値Ybを座標テーブルから検出する(S40)。X座標の最小値Xa〜最大値Xb、Y座標の最小値Ya〜最大値Ybにより矩形の分割領域50の4つのコーナーの座標が求められる。
Next, the image acquisition unit 31 detects the minimum value Ya and the maximum value Yb of the Y coordinate of the circumscribed rectangle from the coordinate table (S40). The coordinates of the four corners of the rectangular divided
次に、処理は2つのループ1,ループ2に入る。ループ1、ループ2については図12と同様である。
Next, the process enters two
画像取得部31は、ディスプレイ3のX=0、Y=0の画素位置から始めて、ディスプレイ3の各画素位置が矩形の分割領域50内に含まれるか否かを判定する(S50)。
The image acquisition unit 31 determines whether or not each pixel position of the
ステップS50の判定がYesの場合、画像取得部31はPC−2の映像の座標(X,Y)の画像データを取得する(S60)。 When the determination in step S50 is Yes, the image acquisition unit 31 acquires image data of the coordinates (X, Y) of the video of PC-2 (S60).
ステップS50の判定がNoの場合、画像取得部31はPC−1の映像の座標(X,Y)の画像データを取得する(S70)。以降は、図12と同様である。 When the determination in step S50 is No, the image acquisition unit 31 acquires image data of the coordinates (X, Y) of the video of PC-1 (S70). The subsequent steps are the same as in FIG.
このように、本実施例の電子黒板2は、実施例1の効果に加え、矩形の分割領域50に別の映像を表示することができる。ユーザが矩形を手書きしなくても閉塞線51を手書きするだけで矩形の分割領域50に映像P2を表示できる。
Thus, in addition to the effects of the first embodiment, the
実施例1,2のように映像がトリミングされた場合、ユーザがPC−2の映像P2の全体を見ることができない。そこで、本実施例ではPC−2の映像P2を縮小して分割領域50に表示できる電子黒板2について説明する。
When the video is trimmed as in the first and second embodiments, the user cannot see the entire video P2 of the PC-2. Therefore, in this embodiment, an
図16は、元の映像に重畳して表示される縮小された映像を説明する図の一例である。まず、図16(a)(b)については図14(a)(b)と同様でよい。これに対し、本実施例では、図16(c)に示すように、電子黒板2は分割領域50の縦横の長さを考慮してPC−2の映像P2を縮小する。縮小された映像を縮小映像P2−2と称する。電子黒板2は、矩形の分割領域50に縮小したPC−2の映像P2を表示し、非分割領域にはPC−1の映像P1を表示する。
FIG. 16 is an example of a diagram for explaining a reduced video that is displayed superimposed on the original video. First, FIGS. 16 (a) and 16 (b) may be the same as FIGS. 14 (a) and 14 (b). On the other hand, in this embodiment, as shown in FIG. 16C, the
<縮小方法について>
ユーザは閉塞線51で矩形の分割領域50を手で任意に選択するので、PC−2の映像P2のアスペクト比と矩形の分割領域50のアスペクト比は一致しない場合が多い。このため、X方向の映像が全て含まれるように縮小すること、又は、Y方向の映像が全て含まれるように縮小することのいずれか可能になる。なお、X方向は幅方向、横方向、水平方向と呼んでもよく、Y方向は高さ方向、縦方向、垂直方向と呼んでもよい。
<About reduction method>
Since the user arbitrarily selects the rectangular divided
図17は、X方向とY方向それぞれが全て含まれるように縮小した場合の縮小映像P2−2を説明する図の一例である。図17(a)(b)はX方向の映像P2が全て分割領域50に含まれるように縮小された縮小映像P2−2を示し、図17(c)(d)はY方向の映像P2が全て分割領域50に含まれるように縮小された縮小映像P2−2を示す。なお、図17では分割領域50のアスペクト比(縦/横)がPC−2の映像のアスペクト比(縦/横)よりも小さいものとする。
FIG. 17 is an example of a diagram for explaining a reduced video P2-2 when the video is reduced so as to include all of the X direction and the Y direction. FIGS. 17A and 17B show a reduced video P2-2 that has been reduced so that all the video P2 in the X direction is included in the divided
図17(a)に示すように、X方向の映像P2が全て含まれるように縮小されると、図17(b)に示すように、Y方向に余白部分310が生じてしまう。図17(c)に示すように、電子黒板2がY方向の映像が全て含まれるように縮小すると、図17(d)に示すように、映像P2のX方向にはみ出し部320が生じてしまう。
As shown in FIG. 17A, when the image P2 in the X direction is reduced to include all, a
このため、図17(b)では矩形の分割領域50の上下方向のどの位置に縮小映像P2−2を電子黒板2が表示するかに自由度があり、図17(d)では縮小映像P2−2のX方向のどの位置を電子黒板2がトリミングするかに自由度がある。そこで、本実施例では、ユーザが各種の選択を行う。
For this reason, in FIG. 17B, there is a degree of freedom as to which position on the
なお、分割領域50のアスペクト比(縦/横)の値がPC−2の映像P2のアスペクト比(縦/横)よりも大きい場合、矩形の分割領域50のX方向に余白部分310が生じ、Y方向にはみ出し部320が生じる。ただし、この場合もユーザが選択する内容は同じである。
If the value of the aspect ratio (vertical / horizontal) of the divided
<<動作手順>>
図18は、主に画像取得部31が複数の映像を重畳して表示する手順を示すフローチャート図の一例である。まず、ステップS10〜S50は図15と同様である。また、ステップS50でNoと判定された場合の処理(S70)も図15と同様である。
<< Operation procedure >>
FIG. 18 is an example of a flowchart illustrating a procedure in which the image acquisition unit 31 mainly displays a plurality of videos in a superimposed manner. First, steps S10 to S50 are the same as those in FIG. Further, the processing (S70) when it is determined No in step S50 is the same as that in FIG.
ステップS50でYesと判定されると、画像取得部31はPC−2の映像P2を縮小するか否かを判定する(S60)。縮小するか否かはユーザが電子黒板2に設定しているものとする。また、X方向、Y方向、又は、任意倍率のいずれで縮小するかもユーザが電子黒板2に設定しているものとする。
If it is determined Yes in step S50, the image acquisition unit 31 determines whether to reduce the video P2 of the PC-2 (S60). It is assumed that the user has set the
X方向を基準に縮小する場合、[分割領域50の横幅]/[PC−2の映像P2の横幅]の倍率に縮小するため、着目しているディスプレイ3の画素位置であるX,Y座標をPC−2の映像P2の画素位置X',Y'に変換する(S80)。
In the case of reduction based on the X direction, the X and Y coordinates, which are the pixel positions of the
この変換の説明のため座標系について補足する。図19はディスプレイ3と分割領域50座標系を説明する図の一例である。図19では、ディスプレイ3の左上コーナを原点(0,0)とし、分割領域50の左上コーナの座標を(X0,Y0)とし、分割領域50の中の座標を分割領域50の左上コーナを原点とする座標(x、y)により表す。したがって、x=X−X0、y=Y−Y0である。このx、yが、[分割領域50の横幅]/[PC−2の映像P2の横幅]の縮小率で縮小前のPC−2の映像P2と対応付いているので、下式により、(x、y)を縮小前のPC−2の映像P2の座標(X'、Y')に対応付けることができる。
X'=x × (PC−2の映像の横幅)/(分割領域50の横幅)
=x × (Xmax)/(Xb−Xa)
Y'=y × (PC−2の映像の横幅)/(分割領域50の横幅)
=y × (Xmax)/(Xb−Xa)
なお、X方向を基準に縮小する場合、Y'が元の映像P2のY座標の最大値を超える場合がある。Y'が元の映像P2の範囲に含まれない場合、画像取得部31は白画素を取得する。これが余白部分310となる。分割領域50の左上コーナが分割領域50の原点なので、図17(b)のb−1のように余白部分310が生じる。
The coordinate system will be supplemented for the explanation of this conversion. FIG. 19 is an example of a diagram illustrating the
X ′ = x × (horizontal width of video of PC-2) / (horizontal width of divided area 50)
= X * (Xmax) / (Xb-Xa)
Y ′ = y × (width of video of PC-2) / (width of divided area 50)
= Y * (Xmax) / (Xb-Xa)
Note that in the case of reduction based on the X direction, Y ′ may exceed the maximum value of the Y coordinate of the original video P2. When Y ′ is not included in the range of the original video P2, the image acquisition unit 31 acquires white pixels. This is the
Y方向を基準に縮小する場合、[分割領域50の縦幅]/[PC−2の映像P2の縦幅]の倍率に縮小するため、下式により(x、y)を縮小前のPC−2の映像P2の座標(X'、Y')に対応付けることができる(S90)。
X'=x×(PC−2の映像の縦幅)/(分割領域50の縦幅)
=x × (Ymax)/(Yb−Ya)
Y'=y×(PC−2の映像の縦幅)/(分割領域50の縦幅)
=y × (Ymax)/(Yb−Ya)
Y方向を基準にすると、図17(d)のd−1のように縮小映像に対する分割領域50の配置が決まる。はみ出し部320は表示されない。
When the reduction is performed based on the Y direction, (x, y) is reduced to the PC- before reduction by the following expression in order to reduce the magnification to [Vertical width of divided area 50] / [Vertical width of video P2 of PC-2]. 2 can be associated with the coordinates (X ′, Y ′) of the second video P2 (S90).
X ′ = xx × (vertical width of PC-2 video) / (vertical width of divided area 50)
= X * (Ymax) / (Yb-Ya)
Y ′ = y × (the vertical width of the video of PC-2) / (the vertical width of the divided area 50)
= Y * (Ymax) / (Yb-Ya)
With reference to the Y direction, the arrangement of the divided
また、任意倍率で縮小する場合は、下式により(x、y)を縮小前のPC−2の映像P2の座標(X'、Y')に対応付けることができる(S100)。
X'=x×任意倍率
Y'=y×任意倍率
また、ユーザにより縮小すると設定されていない場合、画像取得部31はPC−2の映像P2のX,Y座標の映像を取得する(S110)。
In the case of reduction at an arbitrary magnification, (x, y) can be associated with the coordinates (X ′, Y ′) of the video P2 of the PC-2 before reduction by the following formula (S100).
X ′ = x × arbitrary magnification Y ′ = y × arbitrary magnification Further, when it is not set to reduce by the user, the image acquisition unit 31 acquires the video of the X and Y coordinates of the video P2 of the PC-2 (S110). .
そして、画像取得部31は、PC−2の縮小された映像(X'、Y'の画像)を、着目している分割領域50のX,Y座標に配置する(S120)。
Then, the image acquisition unit 31 arranges the reduced video (X ′, Y ′ image) of PC-2 at the X, Y coordinates of the divided
以降は、ループ1,ループ2を繰り返すことでディスプレイ3上の全ての座標で同様の処理を行う。ステップS130の処理は、図15のステップS80と同様でよい。
Thereafter, the same processing is performed for all coordinates on the
<<縮小位置の調整>>
・Y方向の調整
図18の処理で映像は縮小されたが、X方向を基準に縮小された場合、矩形の分割領域50の下側に余白部分310が生じる場合がある。そこで、画像取得部31は縮小映像P2−2のY方向の位置を調整する。
<< Adjusting the reduction position >>
Adjustment in the Y direction Although the image has been reduced in the process of FIG. 18, when the image is reduced with reference to the X direction, a
図20は、縮小位置の調整を説明する図の一例である。なお、図20の図は、図18のステップS80の前に実行されればよい。例えば、ステップS80の直前でよい。 FIG. 20 is an example of a diagram for explaining the adjustment of the reduction position. Note that the diagram of FIG. 20 may be executed before step S80 of FIG. For example, it may be immediately before step S80.
まず、画像取得部31は縮小映像P2−2を揃える基準位置を選択する(S10)。基準位置とは矩形の分割領域50において縮小映像P2−2を配置する基準となる位置である。基準位置には、下端、上端、中央、及び、任意の位置がある。なお、上端が基準位置となる場合、調整は不要である。これは、図18の処理で自然に分割領域50の上端に縮小映像P2−2が設定されるためである。
First, the image acquisition unit 31 selects a reference position for aligning the reduced video P2-2 (S10). The reference position is a position serving as a reference for arranging the reduced video P2-2 in the rectangular divided
したがって、ユーザが上端を基準位置として選択した場合、画像取得部31は何もしない。ユーザが下端を基準位置として選択した場合、画像取得部31は縮小映像P2−2を分割領域50の下端に合わせる(S20)。例えば、分割領域50のY方向の最大値と縮小映像のY方向の高さの差を、全てのy座標から減じる。y座標が負値の場合、映像P2に対応する画像がないので余白部分310を表示する。y座標が正値になると、映像P2のY'の先頭から縮小映像P2−2を取得できる。この場合、図17(b)のb−3のように余白部分310が生じる。
Therefore, when the user selects the upper end as the reference position, the image acquisition unit 31 does nothing. When the user selects the lower end as the reference position, the image acquisition unit 31 matches the reduced video P2-2 with the lower end of the divided region 50 (S20). For example, the difference between the maximum value in the Y direction of the divided
ユーザが中央を基準位置として選択した場合、画像取得部31は縮小映像P2−2を分割領域50の中央に合わせる(S30)。例えば、分割領域50のY方向の最大値と縮小映像のY方向の高さの差の半分を、全てのy座標から減じる。この場合、図17(b)のb−2のように余白部分310が生じる。
When the user selects the center as the reference position, the image acquisition unit 31 aligns the reduced video P2-2 with the center of the divided region 50 (S30). For example, half of the difference between the maximum value in the Y direction of the divided
ユーザが任意の位置を基準位置として選択した場合、画像取得部31は縮小映像P2−2を任意の位置に合わせる(S40)。例えば、任意の位置(y座標が指定されるとして)、全てのy座標からこの任意の位置を減じる。こうすることで、ユーザは縮小映像を分割領域50の任意の場所に設定できる。
When the user selects an arbitrary position as the reference position, the image acquisition unit 31 matches the reduced video P2-2 to the arbitrary position (S40). For example, the arbitrary position is subtracted from all the y coordinates (assuming the y coordinate is specified). In this way, the user can set the reduced video at an arbitrary location in the divided
・X方向の調整
次に、図21を用いてX方向の調整について説明する。図21は、縮小映像のX方向の調整を受け付ける調整画面401の一例である。図21の調整画面401は例えば図18のステップS90の前に表示される。また、この調整画面401にジャンプするアイコンをディスプレイ3に用意してもよい。
-Adjustment in X direction Next, adjustment in the X direction will be described with reference to FIG. FIG. 21 is an example of an
UI画像生成部33はユーザが縮小位置を調整できるよう調整画面401を表示する。調整画面401は、映像表示部402、中央ボタン403、左端ボタン404、右端ボタン405及び手動ボタン406、を有している。
The UI
映像表示部402には、縮小映像P2−2と分割領域50が表示される。Y方向を基準に縮小されているため、縮小映像P2−2がX方向にはみ出ている。ユーザはこのような映像表示部402を見ながら、中央ボタン403、左端ボタン404、右端ボタン405又は手動ボタン406を押下する。
On the
左端ボタン404が押下された場合、画像取得部31は縮小映像P2−2のX方向の左端を分割領域50の左端に一致させる。しかし、図18のステップS90では分割領域50の左側から処理されるので、縮小映像P2−2の左端は分割領域50の左端に一致している。
When the
右端ボタン405が押下された場合、画像取得部31は縮小映像P2−2のX方向の右端を分割領域50の右端に一致させる。例えば、分割領域50の幅と縮小映像P2−2の幅の差を、x座標に加える。これにより、x座標がかさ上げされるのではみ出し部320を左側に生じさせることができ、図17(d)のd−3のように表示させることができる。
When the
中央ボタン403が押下された場合、画像取得部31は縮小映像P2−2のX方向の中央に分割領域50の中央を一致させる。例えば、分割領域50の幅と縮小映像P2−2の幅の差の半分を、x座標に加える。これにより、図17(d)のd−2のように表示させることができる。
When the
これら以外の位置に縮小映像P2−2を調整したい場合、ユーザは手動ボタン406を押下する。ユーザは指示体100を使って分割領域50を任意の位置に設定できるので、操作処理部26はユーザの操作を受け付けて、分割領域50の位置を決定する。画像取得部31はこの位置を取得して分割領域50に表示する縮小映像の範囲を決定する。例えば、任意の位置(縮小映像P2−2に対しx方向の分割領域の左端の位置)をx座標に加える。
In order to adjust the reduced video P2-2 to a position other than these, the user presses the
<トリミング、縮小の選択>
ユーザは実施例1、2のようにPC−2の映像をトリミングするか、実施例3のように縮小するかを選択することができる。図22は、複数の映像の表示方法の選択受付画面411の一例を示す。選択受付画面411は、トリミングボタン412、及び縮小ボタン413を有する。ユーザは映像をトリミングしたい場合は指示体100でトリミングボタン412を押下し、縮小したい場合は指示体100で縮小ボタン413を押下する。操作処理部26はユーザの選択を受け付け画像取得部31に通知する。画像取得部31は設定に応じてPC−2の映像をトリミングするか又は縮小する。
<Select trimming / reducing>
The user can select whether to trim the video of PC-2 as in the first and second embodiments or to reduce the image as in the third embodiment. FIG. 22 shows an example of a
このようにユーザはPC−2の映像をトリミングするか縮小するかを任意に選択できる。 Thus, the user can arbitrarily select whether to trim or reduce the video of PC-2.
<まとめ>
以上説明したように、本実施形態の電子黒板2は、ユーザの描いたストロークから分割領域50の選択を受け付け分割領域50に別の映像を表示するので、自由なレイアウトで複数の映像を同時に表示することができる。
<Summary>
As described above, the
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.
例えば、本実施形態では映像が2つの場合を説明したが、電子黒板2に3つ以上の映像が入力されている場合、1つの映像に2つの映像を重畳して表示できる。この場合、ユーザは表示したい映像の数だけ分割領域50を選択する。
For example, in the present embodiment, the case where there are two images has been described. However, when three or more images are input to the
また、分割領域50は閉塞線で区切られなくてもよい。例えば、ユーザがディスプレイ3を上下又は左右に2分割した場合、電子黒板2は一方にPC−1の映像P1を表示し、他方にPC−2の映像P2を表示する。三分割や四分割してもよい。
Further, the divided
また、電子黒板2に限らず、一般的な情報処理装置においても適用できる。この場合、情報処理装置がタッチパネルを有し複数の映像の入力が可能であれば、電子黒板2と同様に処理できる。また、映像の表示先はディスプレイ3に限らずプロジェクタなどでもよい。この場合、プロジェクタと情報処理装置が接続され、情報処理装置には2つ以上の映像が入力される。情報処理装置は分割領域50の設定を受け付ける。
Further, the present invention can be applied not only to the
また、図19では、ディスプレイ3等の左上コーナを原点としたが、ディスプレイ3の左下コーナを原点としてもよい。この場合、分割領域50も左下コーナが原点となる。また、図20において、y座標の調整が不要になるのはユーザが下端に合わせた場合となる。
In FIG. 19, the upper left corner of the
なお、座標検知部22は受付手段の一例であり、ストローク処理部32は領域選択受付手段の一例であり、画像取得部31は映像表示手段の一例である。映像P1は第一の映像の一例であり、映像P2は第二の映像の一例であり、UI画像生成部33は画面表示手段の一例であり、非分割領域は領域外の一例である。
The coordinate
2 電子黒板
3 ディスプレイ
21 映像取得部
22 座標検知部
24 接触検知部
26 操作処理部
31 画像取得部
32 ストローク処理部
33 UI画像生成部
50 分割領域
500 電子黒板システム
2
Claims (12)
前記表示装置における指示体の位置情報の入力を受け付ける受付手段と、
前記位置情報に基づいて前記表示装置における領域の選択を受け付ける領域選択受付手段と、
複数の映像のうち第一の映像を前記領域外に表示し、第二の映像を前記領域内に表示する映像表示手段と、
を有する情報処理装置。 An information processing apparatus for displaying input video on a display device,
Receiving means for receiving input of positional information of the indicator in the display device;
Area selection accepting means for accepting selection of an area in the display device based on the position information;
Video display means for displaying a first video out of the region and displaying a second video in the region among a plurality of videos;
An information processing apparatus.
前記表示装置における指示体の位置情報の入力を受け付ける受付手段と、
前記位置情報に基づきストロークを描画して表示すると共に、前記位置情報に基づいて前記表示装置における領域の選択を受け付ける領域選択受付手段と、
複数の映像のうち第一の映像を前記領域外に表示し、第二の映像を前記領域内に表示する映像表示手段と、
を有する電子黒板。 An electronic blackboard that displays input video on a display device,
Receiving means for receiving input of positional information of the indicator in the display device;
A region selection receiving means for drawing and displaying a stroke based on the position information, and receiving a selection of a region in the display device based on the position information;
Video display means for displaying a first video out of the region and displaying a second video in the region among a plurality of videos;
Electronic blackboard with
前記表示装置における指示体の位置情報の入力を受け付ける受付手段と、
前記位置情報に基づいて前記表示装置における領域の選択を受け付ける領域選択受付手段と、
複数の映像のうち第一の映像を前記領域外に表示し、第二の映像を前記領域内に表示する映像表示手段、として機能させるためのプログラム。 An information processing device for displaying input video on a display device,
Receiving means for receiving input of positional information of the indicator in the display device;
Area selection accepting means for accepting selection of an area in the display device based on the position information;
A program for functioning as video display means for displaying a first video out of the region and displaying a second video in the region among a plurality of videos.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016118992A JP6729028B2 (en) | 2016-06-15 | 2016-06-15 | Information processing device, electronic blackboard, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016118992A JP6729028B2 (en) | 2016-06-15 | 2016-06-15 | Information processing device, electronic blackboard, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017224985A true JP2017224985A (en) | 2017-12-21 |
JP6729028B2 JP6729028B2 (en) | 2020-07-22 |
Family
ID=60688504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016118992A Expired - Fee Related JP6729028B2 (en) | 2016-06-15 | 2016-06-15 | Information processing device, electronic blackboard, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6729028B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021036401A (en) * | 2019-08-30 | 2021-03-04 | 株式会社リコー | Display device, display method and program |
US11061513B2 (en) | 2019-03-26 | 2021-07-13 | Seiko Epson Corporation | Method for controlling display device, and display device |
US11727896B2 (en) | 2020-10-19 | 2023-08-15 | Ricoh Company, Ltd. | Apparatus and method for display control, and recording medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11205670A (en) * | 1998-01-16 | 1999-07-30 | Sony Corp | Device and method for editing and provision medium |
JP2007241199A (en) * | 2006-03-17 | 2007-09-20 | Make Softwear:Kk | Automatic photographing device and method thereof |
JP2013114593A (en) * | 2011-11-30 | 2013-06-10 | Ricoh Co Ltd | Image display device, control method thereof, and program |
-
2016
- 2016-06-15 JP JP2016118992A patent/JP6729028B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11205670A (en) * | 1998-01-16 | 1999-07-30 | Sony Corp | Device and method for editing and provision medium |
JP2007241199A (en) * | 2006-03-17 | 2007-09-20 | Make Softwear:Kk | Automatic photographing device and method thereof |
JP2013114593A (en) * | 2011-11-30 | 2013-06-10 | Ricoh Co Ltd | Image display device, control method thereof, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11061513B2 (en) | 2019-03-26 | 2021-07-13 | Seiko Epson Corporation | Method for controlling display device, and display device |
JP2021036401A (en) * | 2019-08-30 | 2021-03-04 | 株式会社リコー | Display device, display method and program |
JP7338330B2 (en) | 2019-08-30 | 2023-09-05 | 株式会社リコー | Display device, display method, program |
US11727896B2 (en) | 2020-10-19 | 2023-08-15 | Ricoh Company, Ltd. | Apparatus and method for display control, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP6729028B2 (en) | 2020-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6583432B2 (en) | Image processing apparatus, image display method, and program | |
US10397638B2 (en) | Information processing apparatus, and image displaying method | |
US11294495B2 (en) | Electronic whiteboard, method for image processing in electronic whiteboard, and recording medium containing computer program of electronic whiteboard | |
US11610560B2 (en) | Output apparatus, output system, and method of changing format information | |
JP2016134014A (en) | Electronic information board device, information processing method and program | |
US20180082663A1 (en) | Information processing apparatus, image displaying method, and non-transitory computer readable medium | |
WO2017138223A1 (en) | Image processing device, image processing system, and image processing method | |
JP2017211494A (en) | Image processing apparatus, image processing system, image processing method, and program | |
JP6729028B2 (en) | Information processing device, electronic blackboard, program | |
JPWO2017138233A1 (en) | Image processing apparatus, image processing system, and image processing method | |
US10545649B2 (en) | Information processing apparatus, display control method for information processing apparatus, and storage medium | |
JP7143642B2 (en) | shared terminal, writing method, program | |
JP7338330B2 (en) | Display device, display method, program | |
JP7298224B2 (en) | Display device and display method | |
JP7314719B2 (en) | Display device, display method, program | |
JP7287156B2 (en) | Display device, display method, program | |
JP7342501B2 (en) | Display device, display method, program | |
JP7484568B2 (en) | Display device, display method, and program | |
JP7306190B2 (en) | Display device, display method, program | |
JP2022139957A (en) | Display device, program, conversion method, and display system | |
JP6186710B2 (en) | CONFERENCE SYSTEM AND CONFERENCE METHOD | |
JP2021086576A (en) | Display device and display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200318 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6729028 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |