[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5634617B1 - 電子機器および処理方法 - Google Patents

電子機器および処理方法 Download PDF

Info

Publication number
JP5634617B1
JP5634617B1 JP2013541099A JP2013541099A JP5634617B1 JP 5634617 B1 JP5634617 B1 JP 5634617B1 JP 2013541099 A JP2013541099 A JP 2013541099A JP 2013541099 A JP2013541099 A JP 2013541099A JP 5634617 B1 JP5634617 B1 JP 5634617B1
Authority
JP
Japan
Prior art keywords
application program
screen
handwritten
display
button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013541099A
Other languages
English (en)
Other versions
JPWO2014192125A1 (ja
Inventor
芳和 照沼
芳和 照沼
健彦 出宮
健彦 出宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5634617B1 publication Critical patent/JP5634617B1/ja
Publication of JPWO2014192125A1 publication Critical patent/JPWO2014192125A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)

Abstract

実施形態によれば、電子機器は、コンテンツを表示するための表示領域と前記表示領域の下のバーとを含む画面であって、オペレーティングシステムの1以上の第1ソフトウェアボタンが前記バー上の第1の場所に表示される画面を、タッチスクリーンディスプレイ上に表示する。前記電子機器は、前記画面の表示領域上への手書き入力が可能なように構成された第1のアプリケーションプログラムのアクティブ状態への遷移の検出に応答して、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更する。

Description

本発明の実施形態は、手書き文書を処理する技術に関する。
近年、タブレット、PDA、スマートフォンといった種々の電子機器が開発されている。この種の電子機器の多くは、ユーザによる入力操作を容易にするために、タッチスクリーンディスプレイを備えている。
ユーザは、タッチスクリーンディスプレイ上に表示されるメニューまたはオブジェクトを指などでタッチすることにより、これらメニューまたはオブジェクトに関連づけられた機能の実行を電子機器に指示することができる。
しかし、タッチスクリーンディスプレイを備える既存の電子機器の多くは、画像、音楽、他の各種メディアデータに対する操作性を追求したコンシューマ向け製品であり、会議、商談、商品開発などのビジネスシーンにおける利用については必ずしも適していない場合がある。このため、ビジネスシーンにおいては、いまなお、紙の手帳が広く利用されている。
最近では、手書き入力が可能な電子機器も開発され始めている。手書き入力が可能な電子機器においては、手書き入力中のユーザによる意図しない画面へのタッチ操作による描画を抑制することが要求される。
意図しないタッチ操作を抑制するための機能としては、いわゆる「パームリジェクション」機能が知られている。このパームリジェクション機能は、手書き入力エリアに掌を接触させた状態でペンを使って手書きすることを可能にする。
特開2012−208637号公報
しかし、従来では、画面上のオペレーティングシステムのソフトウェアボタン(アイコン、ボタン等)に対する意図しないタッチ操作を抑制する技術については考慮されていないのが現状である。
本発明の一形態の目的は、手書き入力を容易に行うことができる電子機器および処理方法を提供することである。
実施形態によれば、電子機器は、表示処理手段と、変更手段とを具備する。前記表示処理手段は、コンテンツを表示するための表示領域と前記表示領域の下のバーとを含む画面であって、オペレーティングシステムの1以上の第1ソフトウェアボタンが前記バー上の第1の場所に表示される画面を、タッチスクリーンディスプレイ上に表示する。前記変更手段は、前記画面の表示領域上への手書き入力が可能なように構成された第1のアプリケーションプログラムのアクティブ状態への遷移の検出に応答して、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更する。
図1は実施形態に係る電子機器の外観を示す斜視図である。 図2は同実施形態の電子機器と外部装置との連携動作を示す図である。 図3は同実施形態の電子機器のタッチスクリーンディスプレイ上に手書きされる手書き文書の例を示す図である。 図4は同実施形態の電子機器によって記憶媒体に保存される、図3の手書き文書に対応する時系列情報を説明するための図である。 図5は同実施形態の電子機器のシステム構成を示すブロック図である。 図6は同実施形態の電子機器の画面の構成要素を説明するための図である。 図7は同実施形態の電子機器によって実行される手書きノートアプリケーションプログラムがアクティブ状態である時の画面の例を示す図である。 図8は同実施形態の電子機器によってオペレーティングシステムのソフトウェアボタンの表示場所がデフォルトの表示場所の左側に変更された状態を示す図である。 図9は同実施形態の電子機器によってオペレーティングシステムのソフトウェアボタンの表示場所がデフォルトの表示場所の右側に変更された状態を示す図である。 図10は同実施形態の電子機器によって表示されるボタン表示位置設定画面の例を示す図である。 図11は同実施形態の電子機器によって実行される、手書きノートアプリケーションプログラムとオペレーティングシステムとの連携動作を説明するための図である。 図12は同実施形態の電子機器によって表示されるデスクトップ画面を示す図である。 図13は同実施形態の電子機器によって表示される設定画面を示す図である。 図14は同実施形態の電子機器によって表示されるノートプレビュー画面を示す図である。 図15は同実施形態の電子機器によって表示されるページ編集画面を示す図である。 図16は同実施形態の電子機器によって表示される検索ダイアログを示す図である。 図17は同実施形態の電子機器によって表示される、ブラウザの画面を示す図である。 図18は同実施形態の電子機器によって表示される、キャプチャされたブラウザの画面イメージが表示されるページ編集画面を示す図である。 図19は同実施形態の電子機器によって実行される手書きノートアプリケーションプログラムの機能構成を示すブロック図である。 図20は同実施形態の電子機器によって実行されるソフトウェアボタン表示制御処理の手順を示すフローチャートである。 図21は同実施形態の電子機器によって表示されるメモボタンの操作に応答して実行される一連の処理の手順を示すフローチャートである。
以下、実施の形態について図面を参照して説明する。
図1は、一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えば、ペンまたは指によって手書き入力可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDA等として実現され得る。以下では、この電子機器がタブレットコンピュータ10として実現されている場合を想定する。タブレットコンピュータ10は、タブレットまたはストレートコンピュータとも称される携帯型電子機器であり、図1に示すように、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。以下では、デジタイザとタッチパネルの2種類のセンサの双方がタッチスクリーンディスプレイ17に組み込まれている場合を想定する。
このタッチスクリーンディスプレイ17は、指を使用した画面に対するタッチ操作のみならず、ペン100を使用した画面に対するタッチ操作も検出することができる。ペン100は例えばデジタイザペン(電磁誘導ペン)であってもよい。ユーザは、ペン100を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる。手書き入力操作中においては、画面上のペン100の動きの軌跡、つまり手書き入力操作によって手書きされるストローク(手書きストロークの軌跡)がリアルタイムに描画され、これによって手書きにより入力された複数のストロークが画面上に表示される。ペン100が画面に接触されている間のペン100の動きの軌跡が1つのストロークに相当する。手書きされた文字、手書きされた図形、手書きされた表、などに対応する多数のストロークの集合が手書き文書を構成する。
本実施形態では、この手書き文書は、イメージデータではなく、各ストロークの軌跡の座標列とストローク間の順序関係を示す時系列情報(手書き文書データ)として記憶媒体に保存される。この時系列情報の詳細は図4を参照して後述するが、この時系列情報は、複数のストロークが手書きされた順を示し、且つ複数のストロークにそれぞれ対応する複数のストロークデータを含む。換言すれば、この時系列情報は、複数のストロークにそれぞれ対応する時系列のストロークデータの集合を意味する。各ストロークデータは、ある一つのストロークに対応し、このストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)を含む。これらストロークデータの並びの順序は、ストロークそれぞれが手書きされた順序に相当する。
タブレットコンピュータ10は、記憶媒体から既存の任意の時系列情報を読み出し、この時系列情報に対応する手書き文書、つまりこの時系列情報によって示される複数のストロークを画面上に表示することができる。時系列情報によって示される複数のストロークも、手書きによって入力される複数のストロークである。
さらに、本実施形態のタブレットコンピュータ10は、ペン100を使用せずに、指で手書き入力操作を行うためのタッチ入力モードも有している。タッチ入力モードが有効な場合、ユーザは、指を使用してタッチスクリーンディスプレイ17上で手書き入力操作を行うことができる。手書き入力操作中においては、画面上の指の動きの軌跡、つまり手書き入力操作によって手書きされるストローク(手書きストロークの軌跡)がリアルタイムに描画され、これによって手書きにより入力された複数のストロークが画面上に表示される。
さらに、タブレットコンピュータ10は編集機能を有している。この編集機能は、「消しゴム」ツール、範囲選択ツール、および他の各種ツール等を用いたユーザによる編集操作に応じて、範囲選択ツールによって選択される表示中の手書き文書内の任意の手書き部分(手書き文字、手書きマーク、手書き図形、手書き表、等)を削除または移動することができる。またさらに、範囲選択ツールによって選択される手書き文書内の任意の手書き部分を、手書き文書を検索するための検索キーとして指定することもできる。またさらに、範囲選択ツールによって選択される手書き文書内の任意の手書き部分に対して、手書き文字認識/手書き図形認識/手書き表認識のような認識処理を実行することもできる。
本実施形態では、手書き文書は、1つまたは複数のページとして管理されうる。この場合、時系列情報(手書き文書データ)を1つの画面に収まる面積単位で区切ることによって、1つの画面に収まる時系列情報のまとまりを1つのページとして記録してもよい。あるいは、ページのサイズを可変できるようにしてもよい。この場合、ページのサイズは1つの画面のサイズよりも大きい面積に広げることができるので、画面のサイズよりも大きな面積の手書き文書を一つのページとして扱うことができる。1つのページ全体をディスプレイに同時に表示できない場合は、そのページを縮小してするようにしてもよいし、縦横スクロールによってページ内の表示対象部分を移動するようにしてもよい。
図2は、タブレットコンピュータ10と外部装置との連携動作の例を示している。タブレットコンピュータ10は、パーソナルコンピュータ1やクラウドと連携することができる。すなわち、タブレットコンピュータ10は、無線LANなどの無線通信デバイスを備えており、パーソナルコンピュータ1との無線通信を実行することができる。さらに、タブレットコンピュータ10は、インターネット上のサーバ2との通信を実行することもできる。サーバ2はオンラインストレージサービス、他の各種クラウドコンピューティングサービスを実行するサーバであってもよい。
パーソナルコンピュータ1はハードディスクドライブ(HDD)のようなストレージデバイスを備えている。タブレットコンピュータ10は、時系列情報(手書き文書データ)をネットワーク越しにパーソナルコンピュータ1に送信して、パーソナルコンピュータ1のHDDに記録することができる(アップロード)。タブレットコンピュータ10とパーソナルコンピュータ1との間のセキュアな通信を確保するために、通信開始時には、パーソナルコンピュータ1がタブレットコンピュータ10を認証するようにしてもよい。この場合、タブレットコンピュータ10の画面上にユーザに対してIDまたはパスワードの入力を促すダイアログを表示してもよいし、タブレットコンピュータ10のIDなどを自動的にタブレットコンピュータ10からパーソナルコンピュータ1に送信してもよい。
これにより、タブレットコンピュータ10内のストレージの容量が少ない場合でも、タブレットコンピュータ10が多数の時系列情報あるいは大容量の時系列情報を扱うことが可能となる。
さらに、タブレットコンピュータ10は、パーソナルコンピュータ1のHDDに記録されている任意の1以上の時系列情報を読み出し(ダウンロード)、その読み出した時系列情報によって示されるストロークをタブレットコンピュータ10のディスプレイ17の画面に表示することができる。この場合、複数の時系列情報それぞれのページを縮小することによって得られるサムネイルの一覧をディスプレイ17の画面上に表示してもよいし、これらサムネイルから選ばれた1ページをディスプレイ17の画面上に通常サイズで表示してもよい。
さらに、タブレットコンピュータ10が通信する先はパーソナルコンピュータ1ではなく、上述したように、ストレージサービスなどを提供するクラウド上のサーバ2であってよい。タブレットコンピュータ10は、時系列情報(手書き文書データ)をネットワーク越しにサーバ2に送信して、サーバ2のストレージデバイス2Aに記録することができる(アップロード)。さらに、タブレットコンピュータ10は、サーバ2のストレージデバイス2Aに記録されている任意の時系列情報を読み出して(ダウンロード)、その時系列情報によって示されるストロークそれぞれの軌跡をタブレットコンピュータ10のディスプレイ17の画面に表示することができる。
このように、本実施形態では、時系列情報が保存される記憶媒体は、タブレットコンピュータ10内のストレージデバイス、パーソナルコンピュータ1内のストレージデバイス、サーバ2のストレージデバイスのいずれであってもよい。
次に、図3および図4を参照して、ユーザによって手書きされたストローク(文字、図形、表など)と時系列情報との関係について説明する。図3は、ペン100などを使用してタッチスクリーンディスプレイ17上に手書きされる手書き文書(手書き文字列)の例を示している。
手書き文書では、一旦手書きによって入力される文字や図形などの上に、さらに別の文字や図形などが手書きによって入力されるというケースが多い。図3においては、「ABC」の手書き文字列が「A」、「B」、「C」の順番で手書きによって入力され、この後に、手書きの矢印が、手書き文字「A」のすぐ近くに手書きによって入力された場合が想定されている。
手書き文字「A」は、ペン100などを使用して手書きされる2つのストローク(「∧」形状の軌跡、「−」形状の軌跡)によって、つまり2つの軌跡によって表現される。最初に手書きされる「∧」形状のペン100の軌跡は例えば等時間間隔でリアルタイムにサンプリングされ、これによって「∧」形状のストロークの時系列座標SD11、SD12、…SD1nが得られる。同様に、次に手書きされる「−」形状のペン100の軌跡も等時間間隔でリアルタイムにサンプリングされ、これによって「−」形状のストロークの時系列座標SD21、SD21、…SD2nが得られる。
手書き文字「B」は、ペン100などを使用して手書きされた2つのストローク、つまり2つの軌跡によって表現される。手書き文字「C」は、ペン100などを使用して手書きされた手書きされた1つのストローク、つまり1つの軌跡によって表現される。手書きの「矢印」は、ペン100などを使用して手書きされた手書きされた2つのストローク、つまり2つの軌跡によって表現される。
図4は、図3の手書き文書に対応する時系列情報200を示している。時系列情報は、複数のストロークデータSD1、SD2、…、SD7を含む。時系列情報200内においては、これらストロークデータSD1、SD2、…、SD7は、これらストロークが手書きされた順に時系列に並べている。
時系列情報200において、先頭の2つのストロークデータSD1、SD2は、手書き文字「A」の2つのストロークをそれぞれ示している。3番目と4番目のストロークデータSD3、SD4は、手書き文字「B」を構成する2つのストロークをそれぞれ示している。5番目のストロークデータSD5は、手書き文字「C」を構成する1つのストロークを示している。6番目と7番目のストロークデータSD6、SD7は、手書き「矢印」を構成する2つのストロークをそれぞれ示している。
各ストロークデータは、一つのストロークに対応する座標データ系列(時系列座標)、つまり一つのストロークの軌跡上の複数の点それぞれに対応する複数の座標を含む。各ストロークデータにおいては、複数の座標はストロークが書かれた順に時系列に並べられている。例えば、手書き文字「A」に関しては、ストロークデータSD1は、手書き文字「A」の「∧」形状のストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)、つまりn個の座標データSD11、SD12、…SD1nを含む。ストロークデータSD2は、手書き文字「A」の「−」形状のストロークの軌跡上の点それぞれに対応する座標データ系列、つまりn個の座標データSD21、SD22、…SD2nを含む。なお、座標データの数はストロークデータ毎に異なっていてもよい。
各座標データは、対応する軌跡内のある1点に対応するX座標およびY座標を示す。例えば、座標データSD11は、「∧」形状のストロークの始点のX座標(X11)およびY座標(Y11)を示す。SD1nは、「∧」形状のストロークの終点のX座標(X1n)およびY座標(Y1n)を示す。
さらに、各座標データは、その座標に対応する点が手書きされた時点に対応するタイムスタンプ情報Tを含んでいてもよい。手書きされた時点は、絶対時間(例えば、年月日時分秒)またはある時点を基準とした相対時間のいずれであってもよい。例えば、各ストロークデータに、ストロークが書き始められた絶対時間(例えば、年月日時分秒)をタイムスタンプ情報として付加し、さらに、ストロークデータ内の各座標データに、絶対時間との差分を示す相対時間をタイムスタンプ情報Tとして付加してもよい。
このように、各座標データにタイムスタンプ情報Tが追加された時系列情報を使用することにより、ストローク間の時間的関係をより精度よく表すことができる。
さらに、各座標データには、筆圧を示す情報(Z)を追加してもよい。
図4で説明したような構造を有する時系列情報200は、個々のストロークの筆跡だけでなく、ストローク間の時間的関係も表すことができる。したがって、この時系列情報200を使用することにより、図3に示すようにたとえ手書き「矢印」の先端部が手書き文字「A」上に重ねてまたは手書き文字「A」に近接して書かれたとしても、手書き文字「A」と手書き「矢印」の先端部とを異なる文字または図形として扱うことが可能となる。
さらに、本実施形態では、上述したように、手書き文書データは、イメージまたは文字認識結果ではなく、時系列のストロークデータの集合から構成される時系列情報200として記憶されるので、手書き文字の言語に依存せずに手書き文字を扱うことができる。よって、本実施形態の時系列情報200の構造は、使用言語の異なる世界中の様々な国で共通に使用できる。
図5は、タブレットコンピュータ10のシステム構成を示す図である。
タブレットコンピュータ10は、図5に示されるように、CPU101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107、エンベデッドコントローラ(EC)108等を備える。
CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストレージデバイスである不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)201、および各種アプリケーションプログラムが含まれている。アプリケーションプログラムには、手書きノートアプリケーションプログラム202が含まれている。この手書きノートアプリケーションプログラム202は、上述の手書き文書データを作成および表示する機能、手書き文書データを編集する機能、所望の手書き部分を含む手書き文書データや、ある手書き文書データ内の所望の手書き部分を検索するための手書き文書検索機能を有している。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、本タブレットコンピュータ10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。タッチパネル17B、LCD17Aおよびデジタイザ17Cは互いに重ね合わされている。タッチパネル17Bは、LCD17Aの画面上で入力を行うための静電容量式のポインティングデバイスである。指が接触される画面上の接触位置および接触位置の動き等はタッチパネル17Bによって検出される。デジタイザ17CはLCD17Aの画面上で入力を行うための電磁誘導式のポインティングデバイスである。ペン(デジタイザペン)100が接触される画面上の接触位置および接触位置の動き等はデジタイザ17Cによって検出される。
無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じて本タブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
図6は、タッチスクリーンディスプレイ17に表示される画面の構成要素を示す。
画面は、表示領域(コンテンツ領域とも云う)51と、表示領域51の下のバー(ナビゲーションバーとも云う)52とを備える。表示領域51はコンテンツを表示するための領域である。アクティブ状態のアプリケーションプログラムのコンテンツは表示領域51上に表示される。図6では、ランチャープログラムがアクティブ状態である場合が想定されている。この場合、複数のアプリケーションプログラムに対応する複数のアイコン51Aがランチャープログラムによって表示領域51上に表示される。
なお、あるアプリケーションプログラムがアクティブであるとは、このアプリケーションプログラムがフォアグラウンドに移行していること、換言すればこのアプリケーションプログラムが起動されており且つフォーカスされていることを意味する。
バー52はOS201の1以上のソフトウェアボタン(ソフトウェアキーとも云う)を表示するための領域である。各ソフトウェアボタンには予め決められた機能が割り当てられている。あるソフトウェアボタンが指またはペン100によってタップされると、このソフトウェアボタンに割り当てられた機能がOS201によって実行される。例えば、Andoroid(登録商標)環境においては、図6に示されているように、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cがバー52上に表示される。これらソフトウェアボタンはバー52上のデフォルトの表示場所に表示される。図6では、これらソフトウェアボタン群のデフォルトの表示場所がバー52上の中央部である場合が想定されている。
図7は、手書きノートアプリケーションプログラム202がアクティブ状態である時の画面の例を示す。
手書きノートアプリケーションプログラム202は、様々なビュー(画面)を表示領域51上に選択的に表示することが出来る。これらビュー(画面)には、ページ編集画面が含まれる。ページ編集画面は上述の表示領域51上に手書き入力が可能な画面であり、手書きページを閲覧および編集するための画面として使用される。ページ編集画面が表示領域51に表示されている間は、表示領域51のほとんど全ての領域は手書き入力エリアとして使用することが出来る。手書きノートアプリケーションプログラム202は、デジタイザ17Cを用いて検出される手書き入力エリア上のペン100の動きに応じて複数の手書きストロークを表示領域51に表示することができる。また、手書きノートアプリケーションプログラム202は、表示領域51(手書き入力領域)上の指のジェスチャに対応する処理、例えば、ページ送り、ページ戻し等、を行うことも出来る。
ソフトウェアボタン群はバー52上のデフォルトの表示場所に表示される。したがって、手書き入力操作中においては、ユーザの手が誤ってバー52上のあるソフトウェアボタン(戻るボタン52A、ホームボタン52B、またはリーセントアプリケーションボタン52C)に接触してしまい(意図しないタッチ操作の発生)、これによってユーザが意図しない処理が実行されてしまう可能性がある。
そこで、本実施態のタブレットコンピュータ10は、手書きノートアプリケーションプログラム202がアクティブであるか否かに応じて、バー52上の3つのソフトウェアボタン(戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52C)の表示場所を自動的に変更する機能を有している。この機能は、例えば、手書きノートアプリケーションプログラム202とOS201との共同動作によって実現し得る。
図8は、3つのソフトウェアボタン(戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52C)をバー52上の左部分に表示した状態を示している。この場合、3つのソフトウェアボタンは、デフォルトの表示場所(ここでは中央部)よりも左側に表示されればよく、例えば、バー52上の左半分のエリアに表示されてもよく、あるいはバー52上の左端部分に表示されても良い。
ユーザが右手でペン100を持つ場合には右手がバー52上の右部分に接触する可能性が高いので、図8に示すように、3つのソフトウェアボタンの表示場所をデフォルトの表示場所(中央部)の左側に変更することにより、意図しないタッチ操作の発生を抑制することができる。
図9は、3つのソフトウェアボタン(戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52C)をバー52上の右部分に表示した状態を示している。ユーザが左手でペン100を持つ場合には左手がバー52上の左部分に接触する可能性が高いので、図9に示すように、3つのソフトウェアボタンの表示場所をデフォルトの表示場所(中央部)の右側に変更することにより、意図しないタッチ操作の発生を抑制することができる。3つのソフトウェアボタンは、デフォルトの表示場所(ここでは中央部)よりも右側に表示されればよく、例えば、バー52上の右半分のエリアに表示されてもよく、あるいはバー52上の右端部分に表示されても良い。
図10は、手書きノートアプリケーションプログラム202によって表示されるボタン表示位置設定画面の例を示す。
ボタン表示位置設定画面は、「デフォルト」ボタン、「左」ボタン、「右」ボタンを表示する。ユーザは、「デフォルト」ボタン、「左」ボタン、または「右」ボタンのいずれかを指又はペン100でタップすることにより、手書きノートアプリケーションプログラム202がアクティブな時に表示される3つのソフトウェアボタン群の位置を、デフォルトの表示場所、デフォルトの表示場所の左側の位置、またはデフォルトの表示場所の右側の位置のいずれかに設定することが出来る。
なお、もしデフォルトの表示場所がバー52の右部分である場合には、ボタン表示位置設定画面は「デフォルト」ボタンおよび「左」ボタンのみを備える構成であっても良い。また、もしデフォルトの表示場所がバー52の左部分である場合には、ボタン表示位置設定画面は「デフォルト」ボタンおよび「右」ボタンのみを備える構成であっても良い。
図11は、対象アプリケーションプログラムとOS201の連係動作の例を示す。
ここでは、OS201がAndoroid-OSで(登録商標)ある場合を想定して対象アプリケーションプログラムとOS201の連係動作の一例を説明する。対象アプリケーションプログラムは、例えば、画面の表示領域(コンテンツ領域)51上への手書き入力が可能な任意のアプリケープログラムである。ここでは、対象アプリケーションプログラムが手書きノートアプリケーションプログラム202である場合を想定する。
OS201はユーザインタフェースを管理するためのシステムモジュール211を備える。このシステムモジュール211は、対象アプリケーション(ここでは、手書きノートアプリケーションプログラム202)がアクティブであるか否かに応じてソフトウェアボタンの表示場所を自動的に変更する処理を実行するように構成されている。
ユーザが図10のボタン表示位置設定画面を用いてソフトウェアボタン群の表示位置の設定操作を行った時に、あるいは手書きノートアプリケーションプログラム202が起動された時に、手書きノートアプリケーションプログラム202は、ソフトウェアボタン群の表示位置をOS201の記憶領域(システム記憶領域)に設定する。例えば、手書きノートアプリケーションプログラム202は、ソフトウェアボタン群の表示位置(中央/左/右)を示すユーザ設定値をシステムモジュール211の記憶領域(システム記憶領域)に格納する。
システムモジュール211は手書きノートアプリケーションプログラム202がアクティブであるか否かを判定することができる。手書きノートアプリケーションプログラム202がアクティブであるか否かを判定する処理としては、手書きノートアプリケーションプログラム202がアクティブであるか否かを判定可能な任意の処理を使用しえる。例えば、手書きノートアプリケーションプログラム202がフォアグラウンドに移行(手書きノートアプリケーションプログラム202の起動を含む)する時に、手書きノートアプリケーションプログラム202は、手書きノートアプリケーションプログラム202がアクティブであることを示す情報をシステム記憶領域に格納してもよい。また、手書きノートアプリケーションプログラム202がバックグラウンドに移行する時に、手書きノートアプリケーションプログラム202は、手書きノートアプリケーションプログラム202がアクティブでないことを示す情報をシステム記憶領域に格納してもよい。
システムモジュール211は、システム記憶領域を、定期的に、例えば画面のリフレッシュサイクルの度に、チェックしてもよい。これにより、システムモジュール211は、ソフトウェアボタンのユーザ設定値(中央/左/右)と手書きノートアプリケーションプログラム202のアクティブ/インアクティブ状態とを確認することが出来る。
手書きノートアプリケーションプログラム202のアクティブ状態への遷移を検出したならば、システムモジュール211は、ユーザ設定値によって指定される表示場所(中央/左/右)にソフトウェアボタン群を表示する。例えば、もしユーザ設定値によって指定される表示場所が左であるならば、システムモジュール211は、ソフトウェアボタン群の表示場所を、デフォルトの表示場所の左側、例えば、バー52の左部分に変更する。また、もしユーザ設定値によって指定される表示場所が右であるならば、システムモジュール211は、ソフトウェアボタン群の表示場所を、デフォルトの表示場所の右側、例えば、バー52の右部分に変更する。
手書きノートアプリケーションプログラム202のインアクティブ状態への遷移を検出したならば、システムモジュール211は、ソフトウェアボタン群の表示場所をデフォルトの表示場所に戻す。
なお、ソフトウェアボタン群の表示位置を変更するか否かを判断するための要因に、手書きノートアプリケーションプログラム202がアクティブであるかだけでなく、画面の向き(ポートレートまたはライドスケープ)を加えても良い。
上述したように、手書きノートアプリケーションプログラム202は、手書き可能な上述のページ編集画面のみならず、他の様々な画面を表示することが出来る。タブレットコンピュータ10は、タッチパネルディスプレイ17上の画面イメージの向きが重力の方向に整合するように画面の向きを回転する機能を有している。しかし、ページ編集画面に関しては、その性質上、画面の向きがポートレートアングルに固定されていることが好ましい場合がある。意図しないタッチ操作の発生の抑制は、概して、手書き入力操作時(ページ編集画面表示時)に必要とされる。このため、手書きノートアプリケーションプログラム202がアクティブであり且つ画面の向きがポートレートアングルであることを条件に、ソフトウェアボタン群の表示位置を変更してもよい。これにより、たとえ手書きノートアプリケーションプログラム202がアクティブであっても、手書き入力操作以外の操作が行われている間はソフトウェアボタン群をデフォルトの表示場所に表示することができる。
また、タブレットコンピュータ10がデジタイザを備えたペン入力モデルでない場合には、ソフトウェアボタン群の表示位置を変更する機能を無効にしてもよい。また、ソフトウェアボタン群が表示されていないような状態の場合にはソフトウェアボタン群の表示位置を変更する必要が無いので、手書きノートアプリケーションプログラム202がアクティブであり、画面の向きがポートレートアングルであり、且つ1以上のソフトウェアボタンが表示状態であることを条件に、1以上のソフトウェアボタンの表示位置を変更してもよい。
システムモジュール211は、その機能モジュールとして表示処理部212、変更部213および制御部214を備え得る。
表示処理部212は、アクティブ状態のアプリケーションプログラムのコンテンツが表示される表示領域51と表示領域51の下のバー52とを含む上述の画面をタッチスクリーンディスプレイ17上に表示する。さらに、表示処理部212は、バー52上に上述のソフトウェアボタン群(戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52C)を表示する。
変更部213は、画面の表示領域51上への手書き入力が可能なように構成された特定のアプリケーションプログラム(ここでは、手書きノートアプリケーションプログラム202)のアクティブ状態への遷移(フォアグラウンドへの移行)の検出に応答して、バー52上のソフトウェアボタン群の表示場所をデフォルトの表示場所の右側または左側のいずれか一方に変更する。さらに、変更部213は、手書きノートアプリケーションプログラム202のインアクティブ状態への遷移(バックグラウンドへの移行)の検出に応答してバー52上のソフトウェアボタン群の表示場所をデフォルトの表示場所に戻す。
制御部214は、現在表示中の画面のイメージをメモとして容易に残せるようにするためのメモ機能を実現するためのモジュールである。この制御部214は、必ずしもシステムモジュール211内にある必要は無い。制御部214は、例えば、一つのサービスプログラムとして実現されていてもよい。制御部214は、ユーザによって行われる特定の操作が検出された際に、現在表示中の画面のイメージをキャプチャすると共に、手書きノートアプリケーションプログラム202をアクティブにする。手書きノートアプリケーションプログラム202は、キャプチャされるイメージを、手書きストロークをこのイメージ上に描画可能な上述のページ編集画面上に表示する。これにより、ユーザは現在表示中の画面(キャプチャされたイメージ)上にペン10で手書き入力することができる。
次に、手書きノートアプリケーションプログラム202によってユーザに提示される幾つかの代表的な画面の例を説明する。
図12は、手書きノートアプリケーションプログラム202によって表示されるデスクトップ画面を示す。デスクトップ画面は複数の手書き文書データを扱うための基本画面である。以下では、手書き文書データを手書きノートと称する。
デスクトップ画面は、デスクトップ画面領域70とドロア画面領域71とを含む。デスクトップ画面領域70は作業中の複数の手書きノートに対応する複数のノートアイコン801〜805を表示するテンポラリ領域である。ノートアイコン801〜805の各々は、対応する手書きノート内のあるページのサムネイルを表示する。デスクトップ画面領域70は、さらに、ペンアイコン771、カレンダーアイコン772、スクラップノート(ギャラリー)アイコン773、タグ(ラベル)アイコン774を表示する。
ペンアイコン771は、表示画面をデスクトップ画面からページ編集画面に切り替えるためのグラフィカルユーザインタフェース(GUI)である。カレンダーアイコン772は現在の日付を示すアイコンである。スクラップノートアイコン773は、他のアプリケーションプログラムからまたは外部ファイルから取り込んだデータ(スクラップデータまたはギャラリーデータと称する)を閲覧するためのGUIである。タグアイコン774は、任意の手書きノート内の任意のページにラベル(タグ)を貼り付けるためのGUIである。
ドロア画面領域71は、作成済みの全ての手書きノートを格納するためのストレージ領域を閲覧するための表示領域である。ドロア画面領域71は、全ての手書きノート内の幾つかの手書きノートに対応するノートアイコン80A,80B,80Cを表示する。ノートアイコン80A,80B,80Cの各々は、対応する手書きノート内のあるページのサムネイルを表示する。手書きノートアプリケーションプログラム202は、ペン100または指を使用してユーザによって行われるドロア画面領域71上のジェスチャ(例えばスワイプジェスチャ等)を検出することができる。このジェスチャ(例えばスワイプジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム202は、ドロア画面領域71上の画面イメージを左方向または右方向にスクロールする。これにより、ドロア画面領域71に任意の手書きノートそれぞれに対応するノートアイコンを表示することができる。
さらに、手書きノートアプリケーションプログラム202は、ペン100または指を使用してユーザによって行われるドロア画面領域71のノートアイコン上のジェスチャ(例えばタップジェスチャ等)を検出することができる。ドロア画面領域71上のあるノートアイコン上のジェスチャ(例えばタップジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム202は、このノートアイコンをデスクトップ画面領域70の中央部に移動する。そして、手書きノートアプリケーションプログラム202は、このノートアイコンに対応する手書きノートを選択し、そして、デスクトップ画面の代わりに、図14に示すノートプレビュー画面を表示する。図14のノートプレビュー画面は、選択された手書きノート内の任意のページを閲覧可能な画面である。
さらに、手書きノートアプリケーションプログラム202は、ペン100または指を使用してユーザによって行われるデスクトップ画面領域70上のジェスチャ(例えばタップジェスチャ等)も検出することができる。デスクトップ画面領域70の中央部に位置するノートアイコン上のジェスチャ(例えばタップジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム202は、中央部に位置するノートアイコンに対応する手書きノートを選択し、そして、デスクトップ画面の代わりに、図14に示すノートプレビュー画面を表示する。
さらに、デスクトップ画面はメニューを表示することができる。このメニューは、リストノートボタン81A、ノート追加ボタン81B、ノート削除ボタン81C、検索ボタン81D、設定ボタン81Eを備える。リストノートボタン81Aは手書きノートの一覧を表示するためのボタンである。ノート追加ボタン81Bは、新しい手書きノートを作成(追加)するためのボタンである。ノート削除ボタン81Cは手書きノートを削除するためのボタンである。検索ボタン81Dは検索画面(検索ダイアログ)を開くためのボタンである。設定ボタン81Eは設定画面を開くためのボタンである。
バー52においては、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cが表示される。ユーザの操作によってソフトウェアボタン群の表示位置が左に予め設定されている場合には、図12に示されているように、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cはデフォルトの表示場所の左側、つまりバー52の左部分に表示される。
図13は、設定ボタン81Eがペン100または指でタップされた際に開かれる設定画面を示す。
この設定画面は様々な設定項目を表示する。これら設定項目には、「バーの設定」が含まれる。設定項目「バーの設定」に対応するボタン90がペン100または指でタップされると、図10で説明したボタン表示位置設定画面が表示される。
図14は上述のノートプレビュー画面を示す。
ノートプレビュー画面は、選択された手書きノート内の任意のページを閲覧可能な画面である。ここでは、ノートアイコン801に対応する手書きノートが選択された場合を想定する。この場合、手書きノートアプリケーションプログラム202は、この手書きノートに含まれる複数のページ901,902,903,904,905を、これらページ901,902,903,904,905それぞれの少なくとも一部分が視認可能で且つこれらページ901,902,903,904,905が重なった形態で表示する。
ノートプレビュー画面は、さらに、上述のペンアイコン771、カレンダーアイコン772、スクラップノートアイコン773、タグアイコン774を表示する。
ノートプレビュー画面は、さらに、メニューを表示することができる。このメニューは、デスクトップボタン82A、リストページボタン82B、ページ追加ボタン82C、編集ボタン82D、ページ削除ボタン82E、ラベルボタン82F、および検索ボタン82Gを備える。デスクトップボタン82Aは、デスクトップ画面を表示するためのボタンである。リストページボタン82Bは、現在選択されている手書きノート内のページの一覧を表示するためのボタンである。ページ追加ボタン82Cは、新しいページを作成(追加)するためのボタンである。編集ボタン82Dはページ編集画面を表示するためのボタンである。ページ削除ボタン82Eは、ページを削除するためのボタンである。ラベルボタン82Fは、使用可能なラベルの種類の一覧を表示するためのボタンである。検索ボタン82Gは検索画面を表示するためのボタンである。
バー52においては、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cが表示される。ユーザの操作によってソフトウェアボタン群の表示位置が左に予め設定されている場合には、図14に示されているように、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cはデフォルトの表示場所の左側、つまりバー52の左部分に表示される。
手書きノートアプリケーションプログラム202はユーザによって行われるノートプレビュー画面上の様々なジェスチャを検出することができる。例えば、あるジェスチャの検出に応答して、手書きノートアプリケーションプログラム202は、一番上に表示されるべきページを任意のページに変更する(ページ送り、ページ戻し)。また、一番上のページ上で行われるあるジェスチャ(例えばタップジェスチャ)の検出に応答して、またはペンアイコン771上で行われるあるジェスチャ(例えばタップジェスチャ)の検出に応答して、あるいは編集ボタン82D上で行われるあるジェスチャ(例えばタップジェスチャ)の検出に応答して、手書きノートアプリケーションプログラム202は、一番上のページを選択し、そしてノートプレビュー画面の代わりに、図15に示すページ編集画面を表示する。
図15のページ編集画面は、ページ(手書きページ)の新規作成、および既存のページの閲覧および編集が可能な画面である。図14のノートプレビュー画面上のページ901が選択された場合には、図15に示すように、ページ編集画面は、ページ901の内容を表示する。
このページ編集画面において、破線で囲まれた矩形の領域500は手書き入力可能な手書き入力エリアである。手書き入力エリア500においては、デジタイザ17Cからの入力イベントは手書きストロークの表示(描画)のために使用され、タップ等のジェスチャを示すイベントとしては使用されない。一方、ページ編集画面において、手書き入力エリア500以外の領域においては、デジタイザ17Cからの入力イベントはタップ等のジェスチャを示すイベントとしても使用され得る。
タッチパネル17Bからの入力イベントは、手書きストロークの表示(描画)には使用されず、タップ、スワイプ等のジェスチャを示すイベントとして使用される。
ページ編集画面は、さらに、ユーザによって予め登録された3種類のペン501〜503と、範囲選択ペン504、消しゴムペン505とを含むクイックセレクトメニューを表示する。ここでは、黒ペン501、赤ペン502、マーカー503がユーザによって予め登録されている場合が想定されている。ユーザは、ペン100または指でクイックセレクトメニュー内のあるペン(ボタン)をタップすることにより、使用するペンの種類を切り替えることが出来る。例えば、黒ペン501がユーザによるペン100または指を使用したタップジェスチャによって選択された状態で、ペン100を用いた手書き入力操作がページ編集画面上で行われると、手書きノートアプリケーションプログラム202は、ペン100の動きに合わせて黒色のストローク(軌跡)をページ編集画面上に表示する。
クイックセレクトメニュー内の上述の3種類のペンは、ペン100のサイドボタンの操作によっても切り替えることが出来る。クイックセレクトメニュー内の上述の3種類のペンの各々には、よく使うペンの色やペンの太さの組み合わせを設定することができる。
ページ編集画面は、さらに、メニューボタン511、ページ戻しボタン512、ページ送りボタン513を表示する。メニューボタン511はメニューを表示するためのボタンである。
このメニューは、例えば、ノートプレビュー画面に戻るためのボタン、新規ページを追加するためのボタン、検索画面を開くための検索ボタンをそなえていてもよい。さらに、このメニューは、エクスポートまたはインポートのためのサブメニューを備えていても良い。エクスポートのためのサブメニューとしては、ページ編集画面上に表示されている手書きページを認識して電子文書ファイル、プレゼンテーションファイル等に変換する機能をユーザに選択させるためのメニューを使用しても良い。
さらに、メニューは、手書きページをテキストに変換して電子メールによって送信する処理を起動するためのボタンを備えていても良い。またさらに、メニューは、クイックセレクトメニュー内の3種類のペンの各々の色(描画される線の色)および太さ(描画される線の太さ)を変更可能なペン設定画面を呼び出すためのボタンを備えていても良い。
バー52においては、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cが表示される。ユーザの操作によってソフトウェアボタン群の表示位置が左に予め設定されている場合には、図15に示されているように、戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52Cはデフォルトの表示場所の左側、つまりバー52の左部分に表示される。
図16は、検索画面(検索ダイアログ)の例を示す。図16では、ノートプレビュー画面上に検索画面(検索ダイアログ)が開かれた場合が想定されている。
検索画面は、検索キー入力領域530、筆跡検索ボタン531、テキスト検索ボタン532、デリートボタン533、検索実行ボタン534を表示する。筆跡検索ボタン531は筆跡検索を選択するためのボタンである。テキスト検索ボタン532はテキスト検索を選択するためのボタンである。検索実行ボタン534は、検索処理の実行を要求するためのボタンである。
筆跡検索においては、検索キー入力領域530は、検索キーとすべき文字列、図形、表などを手書きするための入力領域として使用される。図16においては、検索キー入力領域530に手書き文字列「Determine」が検索キーとして入力された場合が例示されている。ユーザは、手書き文字列に限らず、手書き図形、手書き表などを検索キー入力領域530にペン100で手書きすることができる。検索キー入力領域530に手書き文字列「Determine」が検索キーとして入力された状態で検索実行ボタン434がユーザによって選択されると、手書き文字列「Determine」のストローク群(クエリーストローク群)を用いて、このクエリーストローク群に対応するストローク群を含む手書きノートを検索するための筆跡検索が実行される。筆跡検索では、ストローク間のマッチングによって、クエリーストローク群に類似するストローク群が検索される。クエリーストローク群とある別のストローク群との間の類似度の算出においては、DP(Dynamic Programming)マッチングを使用してもよい。
テキスト検索においては、例えばソフトウェアキーボードが画面上に表示される。ユーザは、ソフトウェアキーボードを操作することによって任意のテキスト(文字列)を検索キーとして検索キー入力領域530に入力することができる。検索キー入力領域530にテキストが検索キーとして入力された状態で検索実行ボタン534がユーザによって選択されると、このテキスト(クエリーテキスト)に対応するストロークデータ群を含む手書きノートを検索するためのテキスト検索が実行される。
筆跡検索/テキスト検索は、全ての手書きノートを対象に実行することも出来るし、選択された手書きノートのみを対象に実行することも出来る。筆跡検索/テキスト検索が実行されると、検索結果画面が表示される。検索結果画面においては、クエリーストローク群(またはクエリーテキスト)に対応するストローク群を含む手書きページの一覧が表示される。ヒットワード(クエリーストローク群またはクエリーテキストに対応するストローク群)は強調表示される。
次に、図17および図18を参照して、上述のメモ機能について説明する。
図17は、手書きノートアプリケーションプログラム202以外の他のアプリケーションプログラムに対応する画面を示す。ここでは、他のアプリケーションプログラムがブラウザ(Webブラウザ)である場合を想定する。WebブラウザはWebページのようなコンテンツを画面上の表示領域51に表示する。バー52においては、ソフトウェアボタン(戻るボタン52A、ホームボタン52B、またはリーセントアプリケーションボタン52C)はデフォルトの表示場所(ここではバー52の中央部)に表示される。さらに、バー52においては、メモボタン52Dも表示される。メモボタン52Dは、上述のメモ機能を実行するためのボタンである。
ペン100または指によるメモボタン52D上のジェスチャ(タップジェスチャ)が検出されると、上述の制御部214は、表示領域51上のコンテンツに対応するイメージをキャプチャする。そして、制御部214は、手書きノートアプリケーションプログラム202を呼び出して手書きノートアプリケーションプログラム202をアクティブにする。手書きノートアプリケーションプログラム202は、ページ編集画面(メモ画面)を開き、制御部214から受信されるキャプチャされたイメージをページ編集画面(メモ画面)上に表示する。
このメモ画面の例を図18に示す。
バー52においては、3つのソフトウェアボタン(戻るボタン52A、ホームボタン52B、リーセントアプリケーションボタン52C)の表示場所が自動的に変更される。さらに、メモボタン52Dはバー52上から削除される。
メモ画面においては、キャプチャされたイメージ(Webページの画面イメージ)が表示領域51上に表示される。さらに、黒ペンボタン501、赤ペンボタン502、マーカーボタン503、選択ボタン504、および消しゴムボタン505も表示される。表示領域51においては、キャプチャされたイメージ上に透明のレイヤ(手書きレイヤ)が設定される。ユーザによって手書きされる各ストロークは手書きレイヤ上に描画され、これによってWebページの画面イメージ上に各ストローク(各ストロークの軌跡)が表示される。ソフトウェアボタン群の表示場所は既に変更されているので、意図しないタッチ操作の発生を防止することが出来る。
メモ画面は、さらに、メニューを表示することが出来る。このメニューは、キャンセルボタン83A、保存ボタン83B、およびギャラリーボタン83Cを備える。キャンセルボタン83Aは、メモの作成をキャンセルして元の画面(ここではWebページの画面)に戻るためのボタンである。保存ボタン83Bは、メモ(メモ画面の内容)を保存して元の画面(ここではWebページの画面)に戻るためのボタンである。保存ボタン83Bがタップされると、手書きノートアプリケーションプログラム202は、キャプチャされたイメージに対応するイメージデータとこのキャプチャされたイメージ上の1以上の手書きストロークに対応する1以上のストロークデータとを含む手書きページデータを生成し、この手書きページデータをギャラリーデータとして記憶媒体に保存する。なお、メモ画面の画面イメージをギャラリーデータとして記憶媒体に保存してもよい。ギャラリーボタン83Cはメモ(メモ画面の内容)を保存してギャラリーデータの一覧を開くためのボタンである。
次に、図19を参照して、手書きノートアプリケーションプログラム202の機能構成について説明する。
手書きノートアプリケーションプログラム202は、手書き文書データを扱うことが可能なWYSIWYGアプリケーションである。この手書きノートアプリケーションプログラム202は、例えば、ペン設定部300A、バー設定部300B、制御部300C、表示処理部301、時系列情報生成部302、検索/認識部303、ページ保存処理部306、ページ取得処理部307、およびインポート部308等を備える。
上述したタッチパネル17Bは、「タッチ(接触)」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上にオブジェクト(指)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(指)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(指)が離されたことを示すイベントである。
上述したデジタイザ17Cも、「タッチ(接触)」、「移動(スライド)」、「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上にオブジェクト(ペン100)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(ペン100)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(ペン100)が離されたことを示すイベントである。
手書きノートアプリケーションプログラム202は手書きページデータの作成、閲覧、編集を行うためのページ編集画面をタッチスクリーンディスプレイ17上に表示する。ペン設定部300Aは、ユーザインタフェース(例えば、上述の複数のペンアイコン、またはペンスタイルの詳細を設定するためのメニュー画面、等)を表示し、ユーザによって行われるこのユーザインタフェースの操作に応じてストロークの描画の形態を設定する。
バー設定部300Bは、図10で説明したボタン表示位置設定画面を表示し、ユーザによって行われるボタン表示位置設定画面上の操作に応じてOS201のソフトウェアボタン群の表示位置を設定する。制御部300CはOS201内のシステムモジュール211との通信を行う。
表示処理部301および時系列情報生成部302は、デジタイザ17Cによって発生される「タッチ(接触)」、「移動(スライド)」または「リリース」のイベントを受信し、これによって手書き入力操作を検出する。「タッチ(接触)」イベントには、接触位置の座標が含まれている。「移動(スライド)」イベントには、移動先の接触位置の座標が含まれている。したがって、表示処理部301および時系列情報生成部302は、デジタイザ17Cから接触位置の動きの軌跡に対応する座標列を受信することができる。
表示処理部301は、デジタイザ17Cを用いて検出される画面上のオブジェクト(ペン100)の動きに応じて手書きストロークを画面上に表示する。この表示処理部301により、画面にペン100が接触している間のペン100の軌跡、つまり各ストロークの軌跡がページ編集画面上に表示される。さらに、表示処理部301は、インポート部308によって外部アプリケーション/外部ファイルからインポートされる様々なコンテンツデータ(画像データ、音声データ、テキストデータ、ドロー系アプリケーションによって作成されたデータ)をページ編集画面上に表示することができる。
時系列情報生成部302は、デジタイザ17Cから出力される上述の座標列を受信し、この座標列に基づいて、図4で詳述したような構造を有する時系列情報(座標データ系列)を含む手書きデータを生成する。時系列情報生成部302は、生成された手書きデータを作業メモリ401に一時保存する。
検索/認識部303は、手書きページデータ中の手書き文字列をテキスト(文字コード列)に変換する筆跡認識処理、手書きページデータ中の画像内に含まれる文字列をテキスト(文字コード列)に変換する文字認識処理(OCR)を実行する。さらに、検索/認識部303は、上述の筆跡検索およびテキスト検索を実行することができる。
ページ保存処理部306は、作成中の手書きページ上の複数の手書きストロークに対応する複数のストロークデータを含む手書きページデータを記憶媒体402に保存する。記憶媒体402は、例えば、タブレットコンピュータ10内のストレージデバイスであってもよいし、サーバコンピュータ2のストレージデバイスであってもよい。
ページ取得処理部307は、記憶媒体402から任意の手書きページデータを取得する。この取得された手書きページデータは表示処理部301に送られる。表示処理部301は、手書きページデータに含まれる複数のストロークデータに対応する複数のストロークを画面上に表示する。
図20のフローチャートは、システムモジュール211によって実行されるソフトウェアボタン表示制御処理の手順を示す。
ここでは、ソフトウェアボタン群の表示位置(左または右)を示すユーザ設定値が手書きノートアプリケーションプログラム202によってシステム記憶領域に既に格納されている場合を想定する。
システムモジュール211は、手書きノートアプリケーションプログラム202がアクティブであるか否か、つまり手書きノートアプリケーションプログラム202がフォアグラウンドに移行したか(手書きノートアプリケーションプログラム202の起動を含む)否かを判定する(ステップS11)。手書きノートアプリケーションプログラム202がアクティブであるならば、つまり手書きノートアプリケーションプログラム202がフォアグラウンドに移行したならば、システムモジュール211は、バー52上のソフトウェアボタン群の表示場所をデフォルトの表示場所の右側または左側に変更する(ステップS12)。
この後、システムモジュール211は、手書きノートアプリケーションプログラム202がインアクティブであるか否か、つまり手書きノートアプリケーションプログラム202がバックグラウンドに移行したか否かを判定する(ステップS13)。手書きノートアプリケーションプログラム202がインアクティブであるならば、つまり他のアプリケーションプログラムがアクティブであるならば、システムモジュール211は、バー52上のソフトウェアボタン群の表示場所をデフォルトの表示場所に戻す(ステップS14)。
図21のフローチャートは、上述のメモボタン52Dの操作に応答して実行される一連の処理の手順を示す。
ペン100または指によってメモボタン52Dがタップされると(ステップS21のYES)、システムモジュール211の制御部214は、表示領域51上に現在表示されているコンテンツに対応するイメージをキャプチャする(ステップS22)。ステップS22では、表示領域51上の画面イメージに相当するスナップショットが、現在表示されているコンテンツに対応するイメージとして生成される。
そして、システムモジュール211の制御部214は、手書きノートアプリケーションプログラム202を呼び出して手書きノートアプリケーションプログラム202をアクティブにする(ステップS23)。手書きノートアプリケーションプログラム202は、ページ編集画面(メモ画面)を開き、制御部214から受信されるキャプチャされたイメージを、このイメージ上に手書き入力が可能なメモ画面の表示領域上に表示する(ステップS24)。システムモジュール211の変更部213は、手書きノートアプリケーションプログラム202がアクティブになったことを検出し、バー52上のソフトウェアボタン群の表示場所をデフォルトの表示場所の右側または左側に変更する(ステップS25)。ステップS25では、変更部213は、さらに、メモボタン52Dを非表示にする。
以上説明したように、本実施形態においては、画面の表示領域上に手書き入力が可能なアプリケーションプログラム(ここでは、手書きノートアプリケーションプログラム202)がアクティブである場合、バー62上のソフトウェアボタン群の表示場所がデフォルトの表示場所の右側または左側のいずれか一方に自動的に変更される。したがって、ソフトウェアボタン群に割り当てられた機能を無効にすること無く、手書き入力操作中の意図しないタッチ操作の発生を抑制することが出来る。
なお、バー62上に、接触に反応しないステータス表示用のアイコン等が表示される場合もある。このステータス表示用のアイコンの表示位置は必ずしも変更しなくても良い。
なお、本実施形態の各種処理はコンピュータプログラムによって実現することができるので、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムを通常のコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (16)

  1. コンテンツを表示するための表示領域と前記表示領域の下のバーとを含む画面であって、オペレーティングシステムの1以上の第1ソフトウェアボタンが前記バー上の第1の場所に表示される画面を、タッチスクリーンディスプレイ上に表示する表示処理手段と、
    前記画面の表示領域上への手書き入力が可能なように構成された第1のアプリケーションプログラムのアクティブ状態への遷移の検出に応答して、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更する変更手段とを具備する電子機器。
  2. 前記第1のアプリケーションプログラムは、ユーザによって行われる操作に従って前記ソフトウェアボタンの表示場所を設定し、
    前記変更手段は、前記設定に従って、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更する請求項1記載の電子機器。
  3. 前記変更手段は、前記第1のアプリケーションプログラムのインアクティブ状態への遷移の検出に応答して、前記第1ソフトウェアボタンの表示場所を前記第1の場所に戻す請求項1記載の電子機器。
  4. 前記第1のアプリケーションプログラムとは異なる別のアプリケーションプログラムがアクティブ状態である期間中にユーザによって行われる第1の操作の検出に応答して、前記別のアプリケーションプログラムによって表示されるコンテンツに対応するイメージをキャプチャすると共に前記第1のアプリケーションプログラムをアクティブにする制御手段をさらに具備し、
    前記第1のアプリケーションプログラムは、前記キャプチャされるイメージを、前記イメージ上に手書き入力可能な可能な前記画面の表示領域上に表示する請求項1記載の電子機器。
  5. 前記別のアプリケーションプログラムはブラウザである請求項4記載の電子機器。
  6. 前記第1の操作は、前記バー上に表示される第2のソフトウェアボタン上のジェスチャである請求項4記載の電子機器。
  7. 前記変更手段は、前記第1のアプリケーションプログラムのアクティブ状態への遷移の検出に応答して、前記第2ソフトウェアボタンを非表示にし、且つ前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更する請求項6記載の電子機器。
  8. 前記第1のアプリケーションプログラムは、前記イメージに対応するイメージデータと前記イメージ上の手書きストロークに対応するストロークデータとを含む手書き文書を記憶媒体に保存する保存する請求項4記載の電子機器。
  9. コンテンツを表示するための表示領域と前記表示領域の下のバーとを含む画面であって、オペレーティングシステムの1以上の第1ソフトウェアボタンが前記バー上の第1の場所に表示される画面を、電子機器のタッチスクリーンディスプレイ上に表示することと、
    前記画面の表示領域への手書き入力が可能なように構成された第1のアプリケーションプログラムのアクティブ状態への遷移の検出に応答して、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更することとを具備する処理方法。
  10. ユーザによって行われる操作に従って前記ソフトウェアボタンの表示場所を設定することをさらに具備し、
    前記変更することは、
    前記設定に従って、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更することを含む請求項9記載の処理方法。
  11. 前記第1のアプリケーションプログラムのインアクティブ状態への遷移の検出に応答して、前記第1ソフトウェアボタンの表示場所を前記第1の場所に戻すことをさらに具備する請求項9記載の処理方法。
  12. 前記第1のアプリケーションプログラムとは異なる別のアプリケーションプログラムがアクティブ状態である期間中にユーザによって行われる第1の操作の検出に応答して、
    前記別のアプリケーションプログラムによって表示されるコンテンツに対応するイメージをキャプチャすることと、
    前記第1のアプリケーションプログラムをアクティブにすることとをさらに具備し、
    前記第1のアプリケーションプログラムは、前記キャプチャされるイメージを、前記イメージ上に手書き入力が可能な前記画面の表示領域上に表示する請求項9記載の処理方法。
  13. コンピュータによって実行されるプログラムであって、
    コンテンツを表示するための表示領域と前記表示領域の下のバーとを含む画面であって、オペレーティングシステムの1以上の第1ソフトウェアボタンが前記バー上の第1の場所に表示される画面を、前記コンピュータのタッチスクリーンディスプレイ上に表示することと、
    前記画面の表示領域上への手書き入力が可能なように構成された第1のアプリケーションプログラムのアクティブ状態への遷移の検出に応答して、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更することを前記コンピュータに実行させるためのプログラム。
  14. 前記プログラムは、さらに、前記コンピュータに、ユーザによって行われる操作に従って前記ソフトウェアボタンの表示場所を設定させ、
    前記変更することは、
    前記設定に従って、前記バー上の前記第1ソフトウェアボタンの表示場所を前記第1の場所の右側または左側のいずれか一方に変更することを含む請求項13記載のプログラム。
  15. さらに、前記コンピュータに、前記第1のアプリケーションプログラムのインアクティブ状態への遷移の検出に応答して、前記第1ソフトウェアボタンの表示場所を前記第1の場所に戻させる請求項13記載のプログラム。
  16. 前記第1のアプリケーションプログラムとは異なる別のアプリケーションプログラムがアクティブ状態である期間中にユーザによって行われる第1の操作の検出に応答して、
    前記プログラムは、さらに、前記コンピュータに、前記別のアプリケーションプログラムによって表示されるコンテンツに対応するイメージをキャプチャすることと、
    前記第1のアプリケーションプログラムをアクティブにすることとを実行させ、
    前記第1のアプリケーションプログラムは、前記キャプチャされるイメージを、前記イメージ上に手書き入力が可能な前記画面の表示領域上に表示する請求項13記載のプログラム。
JP2013541099A 2013-05-30 2013-05-30 電子機器および処理方法 Active JP5634617B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/065100 WO2014192125A1 (ja) 2013-05-30 2013-05-30 電子機器および処理方法

Publications (2)

Publication Number Publication Date
JP5634617B1 true JP5634617B1 (ja) 2014-12-03
JPWO2014192125A1 JPWO2014192125A1 (ja) 2017-02-23

Family

ID=51984532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013541099A Active JP5634617B1 (ja) 2013-05-30 2013-05-30 電子機器および処理方法

Country Status (3)

Country Link
US (1) US20140354559A1 (ja)
JP (1) JP5634617B1 (ja)
WO (1) WO2014192125A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150058369A1 (en) * 2013-08-23 2015-02-26 Samsung Electronics Co., Ltd. Electronic device and method for using captured image in electronic device
US20160154555A1 (en) * 2014-12-02 2016-06-02 Lenovo (Singapore) Pte. Ltd. Initiating application and performing function based on input
KR20180067855A (ko) * 2016-12-13 2018-06-21 엘지전자 주식회사 이동단말기 및 그 제어 방법
US11314391B2 (en) 2017-09-08 2022-04-26 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Navigation bar controlling method and terminal
CN109614178A (zh) * 2018-09-04 2019-04-12 广州视源电子科技股份有限公司 批注显示方法、装置、设备和存储介质
US11230189B2 (en) * 2019-03-29 2022-01-25 Honda Motor Co., Ltd. System and method for application interaction on an elongated display screen

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04287117A (ja) * 1991-03-18 1992-10-12 Fujitsu Ltd 左きき者用マンマシンインタフェース方式
JPH11203015A (ja) * 1998-01-08 1999-07-30 Sharp Corp 表示装置および表示装置制御プログラムを記録した媒体
JP2011204172A (ja) * 2010-03-26 2011-10-13 Ntt Docomo Inc 情報端末及びソフトキー表示方法
JP2012142033A (ja) * 2005-03-04 2012-07-26 Apple Inc 多機能ハンドヘルド装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337698B1 (en) * 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US7224991B1 (en) * 2000-09-12 2007-05-29 At&T Corp. Method and system for handwritten electronic messaging
US20040036680A1 (en) * 2002-08-26 2004-02-26 Mark Davis User-interface features for computers with contact-sensitive displays
JP5220278B2 (ja) * 2006-01-27 2013-06-26 任天堂株式会社 ゲーム装置および手書き入力プログラム
US8547347B2 (en) * 2008-09-26 2013-10-01 Htc Corporation Method for generating multiple windows frames, electronic device thereof, and computer program product using the method
US9250768B2 (en) * 2012-02-13 2016-02-02 Samsung Electronics Co., Ltd. Tablet having user interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04287117A (ja) * 1991-03-18 1992-10-12 Fujitsu Ltd 左きき者用マンマシンインタフェース方式
JPH11203015A (ja) * 1998-01-08 1999-07-30 Sharp Corp 表示装置および表示装置制御プログラムを記録した媒体
JP2012142033A (ja) * 2005-03-04 2012-07-26 Apple Inc 多機能ハンドヘルド装置
JP2011204172A (ja) * 2010-03-26 2011-10-13 Ntt Docomo Inc 情報端末及びソフトキー表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6014039229; bamka_t: 'ホームボタンが効きが悪いなら使わなければいい。iOS5のAssistiveTouchが超絶便利な件。,[online]' 旧:あなたのスイッチを押すブログ , 20111015 *

Also Published As

Publication number Publication date
WO2014192125A1 (ja) 2014-12-04
US20140354559A1 (en) 2014-12-04
JPWO2014192125A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP5728592B1 (ja) 電子機器および手書き入力方法
JP6180888B2 (ja) 電子機器、方法およびプログラム
JP5813780B2 (ja) 電子機器、方法及びプログラム
JP6092418B2 (ja) 電子機器、方法及びプログラム
JP5989903B2 (ja) 電子機器、方法及びプログラム
JP5925957B2 (ja) 電子機器および手書きデータ処理方法
JP5395927B2 (ja) 電子機器および手書き文書検索方法
JP5634617B1 (ja) 電子機器および処理方法
JP6092462B2 (ja) 電子機器、方法及びプログラム
JP2016071382A (ja) 電子機器、方法及びプログラム
JP5869179B2 (ja) 電子機器および手書き文書処理方法
JP2016085512A (ja) 電子機器、方法及びプログラム
JP6100013B2 (ja) 電子機器および手書き文書処理方法
JP6430198B2 (ja) 電子機器、方法及びプログラム
US20150149894A1 (en) Electronic device, method and storage medium
JP6202997B2 (ja) 電子機器、方法及びプログラム
JP6251408B2 (ja) 電子機器、方法及びプログラム
JP6062487B2 (ja) 電子機器、方法及びプログラム
JP6315996B2 (ja) 電子機器、方法及びプログラム
JP6430199B2 (ja) 電子機器、方法及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141014

R151 Written notification of patent or utility model registration

Ref document number: 5634617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350