[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5735075B2 - Electronic device, display method, and program - Google Patents

Electronic device, display method, and program Download PDF

Info

Publication number
JP5735075B2
JP5735075B2 JP2013210071A JP2013210071A JP5735075B2 JP 5735075 B2 JP5735075 B2 JP 5735075B2 JP 2013210071 A JP2013210071 A JP 2013210071A JP 2013210071 A JP2013210071 A JP 2013210071A JP 5735075 B2 JP5735075 B2 JP 5735075B2
Authority
JP
Japan
Prior art keywords
information
screen
unit
web page
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013210071A
Other languages
Japanese (ja)
Other versions
JP2014002795A (en
Inventor
祥恵 横山
祥恵 横山
筒井 秀樹
秀樹 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2013210071A priority Critical patent/JP5735075B2/en
Publication of JP2014002795A publication Critical patent/JP2014002795A/en
Application granted granted Critical
Publication of JP5735075B2 publication Critical patent/JP5735075B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明の実施形態は、webページ処理方法、ブラウザ操作方法に係わる電子機器、表示方法、およびプログラムに関する。   Embodiments described herein relate generally to a web page processing method, an electronic apparatus related to a browser operation method, a display method, and a program.

webサイトを表示可能なテレビが販売されている。また、音声操作でブラウジングが可能な先行技術がある。例えば画面内の操作可能な物にすべて番号付けを行い、番号で操作対象を選択させるものや、発話のコマンド体系が決まっており、それに沿った発話で操作させるものといった種類がある。しかしながら両者とも、webページのコンテンツに対して、描画位置を指定した操作やユーザが思った通りの発話によって操作を行うことはできない。   TVs that can display websites are on sale. There is also a prior art that allows browsing by voice operation. For example, there is a type in which all operable items in the screen are numbered and an operation target is selected by the number, and an utterance command system is determined, and an operation is performed in accordance with the utterance. However, in both cases, it is not possible to operate the content of the web page by specifying the drawing position or by speaking as the user thinks.

また、複数のウェブページから指定のページを優先的に表示させるための工夫をしたものもある。操作対象を絞り込む際にあらかじめページごとのインデックスを生成しておき、ユーザからの入力によってそのインデックスに検索処理を施し、最終的に操作対象を決定するというものである(例えば、特許文献1参照。)。   There is also a device for preferentially displaying a specified page from a plurality of web pages. When narrowing down the operation target, an index for each page is generated in advance, search processing is performed on the index according to an input from the user, and the operation target is finally determined (see, for example, Patent Document 1). ).

即ち、表示画面内の対象の描画位置を指定した発話による操作への要望があるが、かかる要望を実現するための手段は知られていない。   That is, there is a request for an operation by utterance designating a target drawing position in the display screen, but means for realizing such a request is not known.

特開2010−198350号公報JP 2010-198350 A

本発明の実施の形態は、表示画面内の対象の描画位置を指定した発話による操作をすることができる技術を提供することを目的とする。   An object of the embodiment of the present invention is to provide a technique capable of performing an operation by utterance designating a drawing position of a target in a display screen.

上記課題を解決するために、実施形態の電子機器は、ユーザの音声を用いて、画面上の対象とこの対象に関する操作を決定し、当該決定した操作を実行する制御部を備え、前記画面上には、ウェブページの一部のみが表示されうるものである。前記制御部は、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報とが含まれる場合に、当該位置に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能である。   In order to solve the above-described problem, the electronic apparatus according to the embodiment includes a control unit that determines a target on the screen and an operation related to the target using a user's voice, and executes the determined operation. Only a part of the web page can be displayed. The control unit is a case where only a part of the web page is displayed on the screen, and when the voice of the user includes information on the position and information on the operation, information on the position, The target is determined according to the information on which drawing position on the screen one or more elements included in the web page are drawn, and the operation is determined according to the information related to the operation. The determined operation can be performed on the determined target.

実施形態の電子機器のシステム構成の一例を示すブロック図。1 is an exemplary block diagram showing an example of the system configuration of an electronic apparatus according to an embodiment. 同実施形態の要部を示す機能ブロック構成図。The functional block block diagram which shows the principal part of the embodiment. 同実施形態の操作決定部におけるフローチャート。The flowchart in the operation determination part of the embodiment. 同実施形態の一例を示すユーザの発話内容(入力)とwebコンテンツへの操作(出力)のイメージ。An image of a user's utterance content (input) and web content operation (output) showing an example of the embodiment.

以下、実施の形態について図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、実施形態の電子機器のシステム構成を示すブロック図である。この電子機器は、例えば映像表示装置10として実現される。また、この電子機器は、パーソナルコンピュータ(PC)、タブレットPC、スレートPC、 テレビジョン受信機、映像データを保存するためのレコーダ(例えば、ハードディスクレコーダ、DVDレコーダ、 セットトップボックス)、PDA、カーナビゲーション装置、スマートフォン等として実現され得る。   FIG. 1 is a block diagram illustrating a system configuration of an electronic apparatus according to an embodiment. This electronic apparatus is realized as the video display device 10, for example. In addition, this electronic device includes a personal computer (PC), a tablet PC, a slate PC, a television receiver, a recorder for storing video data (for example, a hard disk recorder, a DVD recorder, a set top box), a PDA, a car navigation system. It can be realized as a device, a smartphone or the like.

映像表示装置10は、操作信号受信部11、制御部12、ネットワークI/F部13、Web情報解析部14、Web情報統合画面生成部15、記憶部16、装置内情報取得部18、キー情報取得部19、表示画面特定部20、表示データ出力部21、および音声入力部22等を備えている。   The video display device 10 includes an operation signal receiving unit 11, a control unit 12, a network I / F unit 13, a web information analysis unit 14, a web information integrated screen generation unit 15, a storage unit 16, an in-device information acquisition unit 18, and key information. An acquisition unit 19, a display screen specifying unit 20, a display data output unit 21, a voice input unit 22, and the like are provided.

操作信号受信部11は、リモートコントローラ40から送信された、ユーザによって操作されたボタンに応じた操作信号を受信し、受信した操作信号に応じた信号を制御部12に出力する。なお、リモートコントローラ40にはWeb情報統合画面の表示を指示するための表示指示ボタンが設けられており、表示指示ボタンが操作された場合に、リモートコントローラ40は、表示指示信号を送信する。操作信号受信部11が表示指示受信信号を受信すると、表示指示受信信号を制御部12に送信する。なおリモートコントローラ40は、映像表示装置10を音声を入力するモードにするために対話的に用いても良いし、この機能は他の手段によってもよい。   The operation signal reception unit 11 receives an operation signal transmitted from the remote controller 40 and corresponding to the button operated by the user, and outputs a signal corresponding to the received operation signal to the control unit 12. Note that the remote controller 40 is provided with a display instruction button for instructing display of the Web information integration screen. When the display instruction button is operated, the remote controller 40 transmits a display instruction signal. When the operation signal reception unit 11 receives the display instruction reception signal, the display instruction reception signal is transmitted to the control unit 12. The remote controller 40 may be used interactively to set the video display device 10 to a mode for inputting sound, or this function may be provided by other means.

ネットワークI/F部13は、インターネット上のWebサイトと通信を行って、Webページデータを受信する。Web情報解析部14は、ネットワークI/F部13によって受信されたWebページデータを解析し、表示画面上に表示される文字や画像などオブジェクトの配置を計算する。   The network I / F unit 13 communicates with a Web site on the Internet and receives Web page data. The Web information analysis unit 14 analyzes the Web page data received by the network I / F unit 13 and calculates the arrangement of objects such as characters and images displayed on the display screen.

Web情報統合画面生成部15は、Web情報解析部14の解析結果とリモートコントローラ40の操作に基づいた操作信号に基づいて、Web情報統合画面を生成する。表示画面上に表示されるWeb情報統合画面の一例を図4に示す。図4で示すように、Web情報統合画面内には、複数の文字や画像などのオブジェクトが画面に配置されている。   The Web information integration screen generation unit 15 generates a Web information integration screen based on the analysis result of the Web information analysis unit 14 and the operation signal based on the operation of the remote controller 40. An example of the Web information integration screen displayed on the display screen is shown in FIG. As shown in FIG. 4, objects such as a plurality of characters and images are arranged on the screen in the Web information integration screen.

Web情報統合画面生成部15は、生成したWeb情報統合画面のWeb情報統合画面データ(Webサイトのアドレス、配置位置等)を記憶部16に格納する。なお、記憶部16は複数のWeb情報統合画面データを格納することが可能である。Web情報統合画面データは、複数のWebページから生成されることもあれば、単一のWebページから生成されることもある。また、WebページそのものをWeb情報統合画面と同等のものとすることも可能である。   The Web information integration screen generation unit 15 stores the Web information integration screen data (Web site address, arrangement position, etc.) of the generated Web information integration screen in the storage unit 16. Note that the storage unit 16 can store a plurality of Web information integrated screen data. The Web information integration screen data may be generated from a plurality of Web pages or may be generated from a single Web page. Also, the Web page itself can be equivalent to the Web information integration screen.

制御部12は、操作信号受信部11から送信された表示指示受信信号を受信すると、放送データ受信部17および表示画面特定部20にWeb情報統合画面を表示させるための表示命令を送信する。   When receiving the display instruction reception signal transmitted from the operation signal receiving unit 11, the control unit 12 transmits a display command for causing the broadcast data receiving unit 17 and the display screen specifying unit 20 to display the Web information integrated screen.

装置内情報取得部18は、表示命令の受信に応じて、受信した放送データに重畳されているEPG(Electronic Program Guide)データから、現在受信している番組の名称(番組名)を抽出し、番組名を表示画面特定部20に送信する。   In response to reception of the display command, the in-device information acquisition unit 18 extracts the name of the currently received program (program name) from EPG (Electronic Program Guide) data superimposed on the received broadcast data, The program name is transmitted to the display screen specifying unit 20.

キー情報取得部19は、記憶部16に格納されているWeb情報統合画面データからキー情報を取得する。キー情報取得部19は、取得したキー情報をWeb情報統合画面データに対応づけて記憶部16に格納する。キー情報は、例えばサイト名である。   The key information acquisition unit 19 acquires key information from the Web information integrated screen data stored in the storage unit 16. The key information acquisition unit 19 stores the acquired key information in the storage unit 16 in association with the Web information integrated screen data. The key information is, for example, a site name.

表示データ出力部21は、Web情報統合画面データを受信すると、Web情報統合画面データに基づいたWebページの受信をネットワークI/F部13に命令する。Web情報解析部14は、ネットワークI/F部13によって受信されたWebページデータを解析し、表示画面上に表示される文字や画像などオブジェクトの配置を計算する。Web情報統合画面生成部15は、Web情報解析部14の解析結果とWeb情報統合画面データとに基づいて、1以上のWebページまたはWebクリップが配置されたWeb情報統合画面を表示するためのデータを生成する。表示データ出力部21は、生成されたデータに基づいてディスプレイ30の表示画面上に表示するための表示データを生成する。   When receiving the Web information integration screen data, the display data output unit 21 instructs the network I / F unit 13 to receive a Web page based on the Web information integration screen data. The Web information analysis unit 14 analyzes the Web page data received by the network I / F unit 13 and calculates the arrangement of objects such as characters and images displayed on the display screen. The web information integration screen generation unit 15 displays data for displaying a web information integration screen on which one or more web pages or web clips are arranged based on the analysis result of the web information analysis unit 14 and the web information integration screen data. Is generated. The display data output unit 21 generates display data to be displayed on the display screen of the display 30 based on the generated data.

図2は、実施形態の要部を示す機能ブロック構成図である。音声認識部210、認識結果解析部201、操作決定部200、DOM操作部208、DOM管理部209、画面出力部220および対話部230を含んで構成されている。   FIG. 2 is a functional block configuration diagram illustrating a main part of the embodiment. The voice recognition unit 210, the recognition result analysis unit 201, the operation determination unit 200, the DOM operation unit 208, the DOM management unit 209, the screen output unit 220, and the dialogue unit 230 are configured.

音声認識部210は、図示せぬマイクやアンプを含む音声入力部22と制御部12などから構成される。認識結果解析部201は、主に制御部12に拠る。操作決定部200は、操作信号受信部11と制御部12などから構成される。DOM操作部208は、主に制御部12に拠る。DOM管理部209は、主に記憶部16に拠る。画面出力部220は、主に表示データ出力部21に拠る。対話部230は、リモコン40と操作信号受信部11と制御部12、表示データ出力部21などに拠る。   The voice recognition unit 210 includes a voice input unit 22 including a microphone and an amplifier (not shown), the control unit 12, and the like. The recognition result analysis unit 201 mainly depends on the control unit 12. The operation determining unit 200 includes an operation signal receiving unit 11 and a control unit 12. The DOM operation unit 208 mainly depends on the control unit 12. The DOM management unit 209 mainly depends on the storage unit 16. The screen output unit 220 mainly depends on the display data output unit 21. The dialogue unit 230 depends on the remote controller 40, the operation signal receiving unit 11, the control unit 12, the display data output unit 21, and the like.

音声認識部210は、音声入力部22に入力され増幅や例えば場合によりFFTなどの手法を用いて時間領域から周波数領域への変換がされた音声信号を、制御部12で文字情報へと圧縮するものである。この文字情報を用いて認識結果解析部201は、文字列を出力する。操作決定部200を中心とする各部の連携動作については、図3のフローチャートの説明において後述する。   The voice recognition unit 210 compresses the voice signal input to the voice input unit 22 and amplified or converted from the time domain to the frequency domain using, for example, FFT or the like into character information by the control unit 12. Is. Using this character information, the recognition result analysis unit 201 outputs a character string. The cooperative operation of each unit centering on the operation determination unit 200 will be described later in the description of the flowchart of FIG.

ここで、DOM(Document Object Model)とDOMメンバについて簡単に説明しておく。DOMは、xmlやhtmlの各要素、例えば<p<や<img>といった類の要素にアクセスする仕組みといえる。このDOMを操作することによって、要素の値をダイレクトに操作できる。例えば<p>の中身のテキストを変更したり、のsrcの中身を変更して別の画像に差し替えるといったことを可能とする。まとめると文書オブジェクトモデル(DOM)とは、HTML文書およびXML文書のためのアプリケーション=プログラミング=インターフェイス(API)である。これは、文書の論理的構造や、文書へのアクセスや操作の方法を定義するものである。   Here, the DOM (Document Object Model) and DOM members will be briefly described. The DOM can be said to be a mechanism for accessing elements of xml and html, for example, elements such as <p <and <img>. By manipulating this DOM, the value of the element can be manipulated directly. For example, it is possible to change the text of <p> or change the content of src to replace it with another image. In summary, the Document Object Model (DOM) is an application = programming = interface (API) for HTML and XML documents. This defines the logical structure of the document and how to access and manipulate the document.

DOMメンバと処理内容に関しては、後述の操作ルールDBには例えば以下のような処理ルールが複数登録されている。   Regarding the DOM member and processing contents, for example, a plurality of processing rules as described below are registered in the operation rule DB described later.

(L)リンク …URLを開く
(T)テキストボックス …引数の文字列を入力
(B)ボタン …テキストボックスに入力された文字列を引数にデータ送信
さて図3は、本提案の実施例である音声操作ブラウザにおいて、ユーザ発話の認識結果を解析した文字列cを入力とし、HTML言語で記述されたwebページ内のDOMメンバへの操作内容を出力とする操作決定部200の処理を説明するフローチャートである。
(L) Link ... Open URL (T) Text box ... Input argument string (B) button ... Send data with the string entered in the text box as an argument Figure 3 is an example of this proposal. A flowchart for explaining processing of the operation determination unit 200 that receives a character string c obtained by analyzing a recognition result of a user utterance and outputs an operation content to a DOM member in a web page described in an HTML language in a voice operation browser. It is.

まずステップ201では音声認識結果を形態素解析するなどして1個以上の単語を取得済みなことを前提としている。   First, in step 201, it is assumed that one or more words have been acquired by performing a morphological analysis on the speech recognition result.

音声認識の解析結果の文字列c(201a)について、ステップ202にて「入力欄」「絵」「リンク」などと操作対象であるDOMメンバを特定可能である文字列が含まれているか否かを判定する。たとえば「入力欄」という文字列が含まれていれば、ステップ203にて表示ページ中のDOMメンバのうち <input>要素のtype属性が”textbox”であるオブジェクトを配列Array1として取得し、ステップ205へとぶ。   Whether or not the character string c (201a) of the speech recognition analysis result includes a character string that can identify the DOM member to be operated, such as “input field”, “picture”, and “link” in step 202 Determine. For example, if the character string “input field” is included, in step 203, objects whose type attribute of the <input> element is “textbox” among the DOM members in the display page are acquired as an array Array1, and step 205 He jumps.

またステップ204にて、文字列cに、描画位置を指定するための「上」「下」「左」「右」「中」などの語彙が含まれているか否かを判定する。含まれていれば、それを位置情報p(204a)とする。ステップ205にて、Array1の操作対象候補のうち、位置情報pに合致するものが含まれているものを取得する。   In step 204, it is determined whether or not the character string c includes words such as “upper”, “lower”, “left”, “right”, and “middle” for designating the drawing position. If it is included, it is set as position information p (204a). In step 205, an operation target candidate of Array1 that includes an object that matches the position information p is acquired.

ステップ206にて、操作対象候補が1つに絞られれば、ステップ209で別途保持している操作ルールDB(DOM管理部209の内容の一つ)に照合し、ステップ209aで操作対象のDOMメンバとその処理内容を出力し、DOM操作部208の入力とする。この操作ルールDBには、操作対象のDOMメンバの要素の種類と要素ごとの操作内容が記述されており、例えば <a>要素の場合、「href属性の文字列を入力として新規ページをロードする」といった処理内容を操作ルールとして定義してある。   If the number of operation target candidates is reduced to one in step 206, the operation rule DB (one of the contents of the DOM management unit 209) separately stored in step 209 is collated, and in step 209a, the operation target DOM member is checked. And the processing contents are output as inputs to the DOM operation unit 208. This operation rule DB describes the type of element of the DOM member to be operated and the operation content for each element. For example, in the case of <a> element, “Load a new page with the character string of the href attribute as input. Is defined as an operation rule.

ステップ204、ステップ206において条件に合致しない場合は、ステップ207にて新規のユーザ発話を指示する表示を行う。   If the conditions are not met in step 204 and step 206, a display for instructing a new user utterance is performed in step 207.

図4は、実施形態の一例を示すユーザの発話内容(入力)とwebコンテンツへの操作(出力)のイメージである。ページ表示範囲の画像のうち相対的に左に描画されているものにフォーカスし、拡大を行う。これはWeb情報解析部14がレンダリングエンジンとして機能し、またWeb情報統合画面生成部15がブラウザ表示部として機能することによって、実現されている。具体的には、「左の絵を大きく!」との発話による音声認識と解析後にこれらの機能が実行される(図4(a)の左の絵の表示状態から図4(b)の左の絵の表示状態への移行)。   FIG. 4 is an image of a user's utterance content (input) and web content operation (output) showing an example of the embodiment. The image displayed on the left relative to the image in the page display range is focused and enlarged. This is realized by the Web information analysis unit 14 functioning as a rendering engine and the Web information integrated screen generation unit 15 functioning as a browser display unit. Specifically, these functions are executed after speech recognition and analysis by uttering “Large picture on the left!” (From the display state of the left picture in FIG. 4A to the left in FIG. 4B). Transition to the picture display state).

以上説明した実施例によれば音声を用いたブラウザ操作時に、webページに含まれるリンクやボタンやテキストボックスなどの操作対象について、ユーザ視点で見えている情報を用いることで、見たままの情報を含む自然な発話での操作(例えばwebサーフィン)を可能にする。即ち実施形態の効果として、webページのコンテンツに対して、描画位置を指定した操作やユーザが思った通りの発話によって操作を行うことができる。コンテンツ中の言語情報だけに依存せず、視覚情報である描画位置を利用して、ユーザ視点から以下のような自然な発話での操作を可能とする。   According to the embodiment described above, information that is seen from the viewpoint of the user is used for operation targets such as links, buttons, and text boxes included in web pages during browser operations using voice. Enables operations with natural speech including web surfing (eg web surfing). That is, as an effect of the embodiment, it is possible to perform an operation on a web page content by an operation specifying a drawing position or an utterance as the user thinks. The following natural utterances can be operated from the user's viewpoint using the drawing position which is visual information without depending on only the language information in the content.

(1)既存デバイス(マウス+キーボード)の入力によって実現しているwebサーフィンを音声入力で行うための技術であり、ユーザにとって見えている情報であるページ内での描画位置を使って操作対象を特定することにより、コマンド体系に縛られない自然な発話での操作を可能とする。 (1) Web surfing that is realized by inputting from an existing device (mouse + keyboard) by voice input, and the operation target is determined using the drawing position in the page, which is the information visible to the user. By specifying, it is possible to operate with natural utterances that are not bound by the command system.

(2)1回の発話から、webサーフィン時の操作内容を限定するための複数の情報を抽出可能なため、従来デバイスでの操作に比べ操作ステップ数を大きく減らすことが可能になる。 (2) Since a plurality of pieces of information can be extracted from one utterance to limit the operation content during web surfing, the number of operation steps can be greatly reduced compared to the operation using a conventional device.

なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。   In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications.

また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。   Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.

10 映像表示装置
11 操作信号受信部
12 制御部
13 ネットワークI/F部
14 Web情報解析部
15 情報統合画面生成部
16 記憶部、
18 装置内情報取得部
19 キー情報取得部
20 表示画面特定部
21 表示データ出力部
22 音声入力部
30 ディスプレイ
40 リモートコントローラ
200 操作決定部
201 認識結果解析部
208 DOM操作部
209 DOM管理部
210 音声認識部
220 画面出力部
230 対話部
DESCRIPTION OF SYMBOLS 10 Image display apparatus 11 Operation signal receiving part 12 Control part 13 Network I / F part 14 Web information analysis part 15 Information integrated screen production | generation part 16 Storage part,
18 In-device information acquisition unit 19 Key information acquisition unit 20 Display screen specification unit 21 Display data output unit 22 Voice input unit 30 Display 40 Remote controller 200 Operation determination unit 201 Recognition result analysis unit 208 DOM operation unit 209 DOM management unit 210 Voice recognition Unit 220 screen output unit 230 dialogue unit

Claims (10)

ユーザの音声を用いて、画面上の対象とこの対象に関する操作を決定し、当該決定した操作を実行する制御部
を備え、
前記画面上には、ウェブページの一部のみが表示されうるものであって、
前記制御部は、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
電子機器。
A control unit that determines a target on the screen and an operation related to the target using the user's voice, and executes the determined operation;
On the screen, only a part of the web page can be displayed,
In the case where only a part of the web page is displayed on the screen, the control unit includes information on a position, information on an operation, and information on an element included in the web page in the user's voice. A target is determined based on information on the position, information on the element, and information on which drawing position on the screen one or more elements included in the web page are drawn. And determining the operation according to the information related to the operation, and executing the determined operation on the determined target.
Electronics.
前記操作は、ウェブページの要素にアクセスする仕組みに基づいて実行する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the operation is executed based on a mechanism for accessing an element of a web page. 更に前記画面を備えた請求項1または2に記載の電子機器。   The electronic device according to claim 1, further comprising the screen. 前記制御部は、前記決定した対象に対する処理が1つである場合は、当該処理を行う、請求項1から3のいずれかに記載の電子機器。   The said control part is an electronic device in any one of Claim 1 to 3 which performs the said process, when the process with respect to the determined said object is one. 電子機器の表示方法であって、
ユーザの音声を用いて、画面上の対象とこの対象に関する操作を決定する操作を決定し、当該決定した操作を実行する制御ステップ
を含み、
前記画面上には、ウェブページの一部のみが表示されうるのであって、
前記制御ステップでは、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
表示方法。
An electronic device display method,
Using a user's voice, including a control step for determining an operation on the screen and an operation for determining an operation related to the target, and executing the determined operation;
Only a part of the web page can be displayed on the screen,
In the control step, only a part of the web page is displayed on the screen, and the voice of the user includes information on position, information on operation, and information on elements included in the web page. A target is determined based on information on the position, information on the element, and information on which drawing position on the screen one or more elements included in the web page are drawn. And determining the operation according to the information related to the operation, and executing the determined operation on the determined target.
Display method.
前記操作は、ウェブページの要素にアクセスする仕組みに基づいて実行する請求項に記載の表示方法。 The display method according to claim 5 , wherein the operation is executed based on a mechanism for accessing an element of a web page. 前記制御ステップでは、前記決定した対象に対する処理が1つである場合は、当該処理を行う、請求項またはに記載の表示方法。 In the control step, when the processing for the object with the determined is one, performing the processing, the display method according to claim 5 or 6. ユーザの音声を用いて、画面上の対象とこの対象に関する操作を決定し、当該決定した操作を実行する制御ステップ
を電子機器に実行させるプログラムであって、
前記画面上には、ウェブページの一部のみが表示されうるのであって、
前記制御ステップでは、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
プログラム。
A program for determining an object on the screen and an operation related to the object using a user's voice, and causing the electronic device to execute a control step for executing the determined operation,
Only a part of the web page can be displayed on the screen,
In the control step, only a part of the web page is displayed on the screen, and the voice of the user includes information on position, information on operation, and information on elements included in the web page. A target is determined based on information on the position, information on the element, and information on which drawing position on the screen one or more elements included in the web page are drawn. And determining the operation according to the information related to the operation, and executing the determined operation on the determined target.
program.
前記操作は、ウェブページの要素にアクセスする仕組みに基づいて実行する請求項に記載のプログラム。 The program according to claim 8 , wherein the operation is executed based on a mechanism for accessing an element of a web page. 前記制御ステップでは、前記決定した対象に対する処理が1つである場合は、当該処理を行う、請求項またはに記載のプログラム。 The program according to claim 8 or 9 , wherein in the control step, when there is one process for the determined target, the process is performed.
JP2013210071A 2013-10-07 2013-10-07 Electronic device, display method, and program Expired - Fee Related JP5735075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013210071A JP5735075B2 (en) 2013-10-07 2013-10-07 Electronic device, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013210071A JP5735075B2 (en) 2013-10-07 2013-10-07 Electronic device, display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011287007A Division JP5710464B2 (en) 2011-12-27 2011-12-27 Electronic device, display method, and program

Publications (2)

Publication Number Publication Date
JP2014002795A JP2014002795A (en) 2014-01-09
JP5735075B2 true JP5735075B2 (en) 2015-06-17

Family

ID=50035824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013210071A Expired - Fee Related JP5735075B2 (en) 2013-10-07 2013-10-07 Electronic device, display method, and program

Country Status (1)

Country Link
JP (1) JP5735075B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114968164A (en) * 2021-02-25 2022-08-30 阿里巴巴集团控股有限公司 Voice processing method, system, device and terminal equipment

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001350621A (en) * 2000-06-06 2001-12-21 Advanced Media Inc Method for inputting or starting coordinate position on display screen, and device for inputting or starting coordinate position on display screen
JP2002123288A (en) * 2000-10-12 2002-04-26 Canon Inc Portable telephone, user interface device, contents display method, and storage medium
EP1405169B1 (en) * 2001-03-22 2006-11-15 Canon Kabushiki Kaisha Information processing apparatus and method, and program product
JP2004029933A (en) * 2002-06-21 2004-01-29 Mitsubishi Heavy Ind Ltd Display controller and display control method
JP4157418B2 (en) * 2003-05-02 2008-10-01 日本放送協会 Data browsing support device, data browsing method, and data browsing program
WO2008136081A1 (en) * 2007-04-20 2008-11-13 Mitsubishi Electric Corporation User interface device and user interface designing device
JP2011065467A (en) * 2009-09-17 2011-03-31 Sharp Corp Conference relay device and computer program
JP5463922B2 (en) * 2010-01-12 2014-04-09 株式会社デンソー In-vehicle machine

Also Published As

Publication number Publication date
JP2014002795A (en) 2014-01-09

Similar Documents

Publication Publication Date Title
JP6375521B2 (en) Voice search device, voice search method, and display device
US9733895B2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP6102588B2 (en) Information processing apparatus, information processing method, and program
JP6603754B2 (en) Information processing device
JP5710464B2 (en) Electronic device, display method, and program
US20130035942A1 (en) Electronic apparatus and method for providing user interface thereof
US20130033649A1 (en) Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same
KR20170014353A (en) Apparatus and method for screen navigation based on voice
US10250935B2 (en) Electronic apparatus controlled by a user&#39;s voice and control method thereof
CN112839261B (en) Method for improving matching degree of voice instruction and display equipment
US11442991B2 (en) Using natural language to control structured web page data
US20120278719A1 (en) Method for providing link list and display apparatus applying the same
KR20130018464A (en) Electronic apparatus and method for controlling electronic apparatus thereof
US20140372892A1 (en) On-demand interface registration with a voice control system
US9400850B2 (en) Systems and methods for providing a tailored user interface associated with a web page
JP2009145965A (en) Browser program and information processor
US20150199171A1 (en) Handwritten document processing apparatus and method
JP5735075B2 (en) Electronic device, display method, and program
US20220107781A1 (en) Electronic device and non-transitory storage medium
JP4972026B2 (en) Alternative content presentation device and alternative content navigation program
JP5141439B2 (en) Digital broadcast receiving apparatus and program
KR20130004050A (en) Method for providing link list using voice recognition and display apparatus thereof
JP2008191879A (en) Information display device, display method for information display device, information display program, and recording medium with information display program recorded
CN106815288A (en) A kind of video related information generation method and its device
JP5288569B2 (en) Electronic publication processing apparatus, electronic publication processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150415

LAPS Cancellation because of no payment of annual fees