JP5735075B2 - Electronic device, display method, and program - Google Patents
Electronic device, display method, and program Download PDFInfo
- Publication number
- JP5735075B2 JP5735075B2 JP2013210071A JP2013210071A JP5735075B2 JP 5735075 B2 JP5735075 B2 JP 5735075B2 JP 2013210071 A JP2013210071 A JP 2013210071A JP 2013210071 A JP2013210071 A JP 2013210071A JP 5735075 B2 JP5735075 B2 JP 5735075B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- screen
- unit
- web page
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明の実施形態は、webページ処理方法、ブラウザ操作方法に係わる電子機器、表示方法、およびプログラムに関する。 Embodiments described herein relate generally to a web page processing method, an electronic apparatus related to a browser operation method, a display method, and a program.
webサイトを表示可能なテレビが販売されている。また、音声操作でブラウジングが可能な先行技術がある。例えば画面内の操作可能な物にすべて番号付けを行い、番号で操作対象を選択させるものや、発話のコマンド体系が決まっており、それに沿った発話で操作させるものといった種類がある。しかしながら両者とも、webページのコンテンツに対して、描画位置を指定した操作やユーザが思った通りの発話によって操作を行うことはできない。 TVs that can display websites are on sale. There is also a prior art that allows browsing by voice operation. For example, there is a type in which all operable items in the screen are numbered and an operation target is selected by the number, and an utterance command system is determined, and an operation is performed in accordance with the utterance. However, in both cases, it is not possible to operate the content of the web page by specifying the drawing position or by speaking as the user thinks.
また、複数のウェブページから指定のページを優先的に表示させるための工夫をしたものもある。操作対象を絞り込む際にあらかじめページごとのインデックスを生成しておき、ユーザからの入力によってそのインデックスに検索処理を施し、最終的に操作対象を決定するというものである(例えば、特許文献1参照。)。 There is also a device for preferentially displaying a specified page from a plurality of web pages. When narrowing down the operation target, an index for each page is generated in advance, search processing is performed on the index according to an input from the user, and the operation target is finally determined (see, for example, Patent Document 1). ).
即ち、表示画面内の対象の描画位置を指定した発話による操作への要望があるが、かかる要望を実現するための手段は知られていない。 That is, there is a request for an operation by utterance designating a target drawing position in the display screen, but means for realizing such a request is not known.
本発明の実施の形態は、表示画面内の対象の描画位置を指定した発話による操作をすることができる技術を提供することを目的とする。 An object of the embodiment of the present invention is to provide a technique capable of performing an operation by utterance designating a drawing position of a target in a display screen.
上記課題を解決するために、実施形態の電子機器は、ユーザの音声を用いて、画面上の対象とこの対象に関する操作を決定し、当該決定した操作を実行する制御部を備え、前記画面上には、ウェブページの一部のみが表示されうるものである。前記制御部は、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報とが含まれる場合に、当該位置に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能である。 In order to solve the above-described problem, the electronic apparatus according to the embodiment includes a control unit that determines a target on the screen and an operation related to the target using a user's voice, and executes the determined operation. Only a part of the web page can be displayed. The control unit is a case where only a part of the web page is displayed on the screen, and when the voice of the user includes information on the position and information on the operation, information on the position, The target is determined according to the information on which drawing position on the screen one or more elements included in the web page are drawn, and the operation is determined according to the information related to the operation. The determined operation can be performed on the determined target.
以下、実施の形態について図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、実施形態の電子機器のシステム構成を示すブロック図である。この電子機器は、例えば映像表示装置10として実現される。また、この電子機器は、パーソナルコンピュータ(PC)、タブレットPC、スレートPC、 テレビジョン受信機、映像データを保存するためのレコーダ(例えば、ハードディスクレコーダ、DVDレコーダ、 セットトップボックス)、PDA、カーナビゲーション装置、スマートフォン等として実現され得る。
FIG. 1 is a block diagram illustrating a system configuration of an electronic apparatus according to an embodiment. This electronic apparatus is realized as the
映像表示装置10は、操作信号受信部11、制御部12、ネットワークI/F部13、Web情報解析部14、Web情報統合画面生成部15、記憶部16、装置内情報取得部18、キー情報取得部19、表示画面特定部20、表示データ出力部21、および音声入力部22等を備えている。
The
操作信号受信部11は、リモートコントローラ40から送信された、ユーザによって操作されたボタンに応じた操作信号を受信し、受信した操作信号に応じた信号を制御部12に出力する。なお、リモートコントローラ40にはWeb情報統合画面の表示を指示するための表示指示ボタンが設けられており、表示指示ボタンが操作された場合に、リモートコントローラ40は、表示指示信号を送信する。操作信号受信部11が表示指示受信信号を受信すると、表示指示受信信号を制御部12に送信する。なおリモートコントローラ40は、映像表示装置10を音声を入力するモードにするために対話的に用いても良いし、この機能は他の手段によってもよい。
The operation
ネットワークI/F部13は、インターネット上のWebサイトと通信を行って、Webページデータを受信する。Web情報解析部14は、ネットワークI/F部13によって受信されたWebページデータを解析し、表示画面上に表示される文字や画像などオブジェクトの配置を計算する。
The network I /
Web情報統合画面生成部15は、Web情報解析部14の解析結果とリモートコントローラ40の操作に基づいた操作信号に基づいて、Web情報統合画面を生成する。表示画面上に表示されるWeb情報統合画面の一例を図4に示す。図4で示すように、Web情報統合画面内には、複数の文字や画像などのオブジェクトが画面に配置されている。
The Web information integration
Web情報統合画面生成部15は、生成したWeb情報統合画面のWeb情報統合画面データ(Webサイトのアドレス、配置位置等)を記憶部16に格納する。なお、記憶部16は複数のWeb情報統合画面データを格納することが可能である。Web情報統合画面データは、複数のWebページから生成されることもあれば、単一のWebページから生成されることもある。また、WebページそのものをWeb情報統合画面と同等のものとすることも可能である。
The Web information integration
制御部12は、操作信号受信部11から送信された表示指示受信信号を受信すると、放送データ受信部17および表示画面特定部20にWeb情報統合画面を表示させるための表示命令を送信する。
When receiving the display instruction reception signal transmitted from the operation
装置内情報取得部18は、表示命令の受信に応じて、受信した放送データに重畳されているEPG(Electronic Program Guide)データから、現在受信している番組の名称(番組名)を抽出し、番組名を表示画面特定部20に送信する。
In response to reception of the display command, the in-device
キー情報取得部19は、記憶部16に格納されているWeb情報統合画面データからキー情報を取得する。キー情報取得部19は、取得したキー情報をWeb情報統合画面データに対応づけて記憶部16に格納する。キー情報は、例えばサイト名である。
The key
表示データ出力部21は、Web情報統合画面データを受信すると、Web情報統合画面データに基づいたWebページの受信をネットワークI/F部13に命令する。Web情報解析部14は、ネットワークI/F部13によって受信されたWebページデータを解析し、表示画面上に表示される文字や画像などオブジェクトの配置を計算する。Web情報統合画面生成部15は、Web情報解析部14の解析結果とWeb情報統合画面データとに基づいて、1以上のWebページまたはWebクリップが配置されたWeb情報統合画面を表示するためのデータを生成する。表示データ出力部21は、生成されたデータに基づいてディスプレイ30の表示画面上に表示するための表示データを生成する。
When receiving the Web information integration screen data, the display
図2は、実施形態の要部を示す機能ブロック構成図である。音声認識部210、認識結果解析部201、操作決定部200、DOM操作部208、DOM管理部209、画面出力部220および対話部230を含んで構成されている。
FIG. 2 is a functional block configuration diagram illustrating a main part of the embodiment. The
音声認識部210は、図示せぬマイクやアンプを含む音声入力部22と制御部12などから構成される。認識結果解析部201は、主に制御部12に拠る。操作決定部200は、操作信号受信部11と制御部12などから構成される。DOM操作部208は、主に制御部12に拠る。DOM管理部209は、主に記憶部16に拠る。画面出力部220は、主に表示データ出力部21に拠る。対話部230は、リモコン40と操作信号受信部11と制御部12、表示データ出力部21などに拠る。
The
音声認識部210は、音声入力部22に入力され増幅や例えば場合によりFFTなどの手法を用いて時間領域から周波数領域への変換がされた音声信号を、制御部12で文字情報へと圧縮するものである。この文字情報を用いて認識結果解析部201は、文字列を出力する。操作決定部200を中心とする各部の連携動作については、図3のフローチャートの説明において後述する。
The
ここで、DOM(Document Object Model)とDOMメンバについて簡単に説明しておく。DOMは、xmlやhtmlの各要素、例えば<p<や<img>といった類の要素にアクセスする仕組みといえる。このDOMを操作することによって、要素の値をダイレクトに操作できる。例えば<p>の中身のテキストを変更したり、のsrcの中身を変更して別の画像に差し替えるといったことを可能とする。まとめると文書オブジェクトモデル(DOM)とは、HTML文書およびXML文書のためのアプリケーション=プログラミング=インターフェイス(API)である。これは、文書の論理的構造や、文書へのアクセスや操作の方法を定義するものである。 Here, the DOM (Document Object Model) and DOM members will be briefly described. The DOM can be said to be a mechanism for accessing elements of xml and html, for example, elements such as <p <and <img>. By manipulating this DOM, the value of the element can be manipulated directly. For example, it is possible to change the text of <p> or change the content of src to replace it with another image. In summary, the Document Object Model (DOM) is an application = programming = interface (API) for HTML and XML documents. This defines the logical structure of the document and how to access and manipulate the document.
DOMメンバと処理内容に関しては、後述の操作ルールDBには例えば以下のような処理ルールが複数登録されている。 Regarding the DOM member and processing contents, for example, a plurality of processing rules as described below are registered in the operation rule DB described later.
(L)リンク …URLを開く
(T)テキストボックス …引数の文字列を入力
(B)ボタン …テキストボックスに入力された文字列を引数にデータ送信
さて図3は、本提案の実施例である音声操作ブラウザにおいて、ユーザ発話の認識結果を解析した文字列cを入力とし、HTML言語で記述されたwebページ内のDOMメンバへの操作内容を出力とする操作決定部200の処理を説明するフローチャートである。
(L) Link ... Open URL (T) Text box ... Input argument string (B) button ... Send data with the string entered in the text box as an argument Figure 3 is an example of this proposal. A flowchart for explaining processing of the
まずステップ201では音声認識結果を形態素解析するなどして1個以上の単語を取得済みなことを前提としている。
First, in
音声認識の解析結果の文字列c(201a)について、ステップ202にて「入力欄」「絵」「リンク」などと操作対象であるDOMメンバを特定可能である文字列が含まれているか否かを判定する。たとえば「入力欄」という文字列が含まれていれば、ステップ203にて表示ページ中のDOMメンバのうち <input>要素のtype属性が”textbox”であるオブジェクトを配列Array1として取得し、ステップ205へとぶ。
Whether or not the character string c (201a) of the speech recognition analysis result includes a character string that can identify the DOM member to be operated, such as “input field”, “picture”, and “link” in
またステップ204にて、文字列cに、描画位置を指定するための「上」「下」「左」「右」「中」などの語彙が含まれているか否かを判定する。含まれていれば、それを位置情報p(204a)とする。ステップ205にて、Array1の操作対象候補のうち、位置情報pに合致するものが含まれているものを取得する。
In
ステップ206にて、操作対象候補が1つに絞られれば、ステップ209で別途保持している操作ルールDB(DOM管理部209の内容の一つ)に照合し、ステップ209aで操作対象のDOMメンバとその処理内容を出力し、DOM操作部208の入力とする。この操作ルールDBには、操作対象のDOMメンバの要素の種類と要素ごとの操作内容が記述されており、例えば <a>要素の場合、「href属性の文字列を入力として新規ページをロードする」といった処理内容を操作ルールとして定義してある。
If the number of operation target candidates is reduced to one in
ステップ204、ステップ206において条件に合致しない場合は、ステップ207にて新規のユーザ発話を指示する表示を行う。
If the conditions are not met in
図4は、実施形態の一例を示すユーザの発話内容(入力)とwebコンテンツへの操作(出力)のイメージである。ページ表示範囲の画像のうち相対的に左に描画されているものにフォーカスし、拡大を行う。これはWeb情報解析部14がレンダリングエンジンとして機能し、またWeb情報統合画面生成部15がブラウザ表示部として機能することによって、実現されている。具体的には、「左の絵を大きく!」との発話による音声認識と解析後にこれらの機能が実行される(図4(a)の左の絵の表示状態から図4(b)の左の絵の表示状態への移行)。
FIG. 4 is an image of a user's utterance content (input) and web content operation (output) showing an example of the embodiment. The image displayed on the left relative to the image in the page display range is focused and enlarged. This is realized by the Web
以上説明した実施例によれば音声を用いたブラウザ操作時に、webページに含まれるリンクやボタンやテキストボックスなどの操作対象について、ユーザ視点で見えている情報を用いることで、見たままの情報を含む自然な発話での操作(例えばwebサーフィン)を可能にする。即ち実施形態の効果として、webページのコンテンツに対して、描画位置を指定した操作やユーザが思った通りの発話によって操作を行うことができる。コンテンツ中の言語情報だけに依存せず、視覚情報である描画位置を利用して、ユーザ視点から以下のような自然な発話での操作を可能とする。 According to the embodiment described above, information that is seen from the viewpoint of the user is used for operation targets such as links, buttons, and text boxes included in web pages during browser operations using voice. Enables operations with natural speech including web surfing (eg web surfing). That is, as an effect of the embodiment, it is possible to perform an operation on a web page content by an operation specifying a drawing position or an utterance as the user thinks. The following natural utterances can be operated from the user's viewpoint using the drawing position which is visual information without depending on only the language information in the content.
(1)既存デバイス(マウス+キーボード)の入力によって実現しているwebサーフィンを音声入力で行うための技術であり、ユーザにとって見えている情報であるページ内での描画位置を使って操作対象を特定することにより、コマンド体系に縛られない自然な発話での操作を可能とする。 (1) Web surfing that is realized by inputting from an existing device (mouse + keyboard) by voice input, and the operation target is determined using the drawing position in the page, which is the information visible to the user. By specifying, it is possible to operate with natural utterances that are not bound by the command system.
(2)1回の発話から、webサーフィン時の操作内容を限定するための複数の情報を抽出可能なため、従来デバイスでの操作に比べ操作ステップ数を大きく減らすことが可能になる。 (2) Since a plurality of pieces of information can be extracted from one utterance to limit the operation content during web surfing, the number of operation steps can be greatly reduced compared to the operation using a conventional device.
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。 In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary, it can implement in various modifications.
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。 Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described embodiments. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements according to different embodiments may be appropriately combined.
10 映像表示装置
11 操作信号受信部
12 制御部
13 ネットワークI/F部
14 Web情報解析部
15 情報統合画面生成部
16 記憶部、
18 装置内情報取得部
19 キー情報取得部
20 表示画面特定部
21 表示データ出力部
22 音声入力部
30 ディスプレイ
40 リモートコントローラ
200 操作決定部
201 認識結果解析部
208 DOM操作部
209 DOM管理部
210 音声認識部
220 画面出力部
230 対話部
DESCRIPTION OF
18 In-device
Claims (10)
を備え、
前記画面上には、ウェブページの一部のみが表示されうるものであって、
前記制御部は、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
電子機器。 A control unit that determines a target on the screen and an operation related to the target using the user's voice, and executes the determined operation;
On the screen, only a part of the web page can be displayed,
In the case where only a part of the web page is displayed on the screen, the control unit includes information on a position, information on an operation, and information on an element included in the web page in the user's voice. A target is determined based on information on the position, information on the element, and information on which drawing position on the screen one or more elements included in the web page are drawn. And determining the operation according to the information related to the operation, and executing the determined operation on the determined target.
Electronics.
ユーザの音声を用いて、画面上の対象とこの対象に関する操作を決定する操作を決定し、当該決定した操作を実行する制御ステップ
を含み、
前記画面上には、ウェブページの一部のみが表示されうるのであって、
前記制御ステップでは、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
表示方法。 An electronic device display method,
Using a user's voice, including a control step for determining an operation on the screen and an operation for determining an operation related to the target, and executing the determined operation;
Only a part of the web page can be displayed on the screen,
In the control step, only a part of the web page is displayed on the screen, and the voice of the user includes information on position, information on operation, and information on elements included in the web page. A target is determined based on information on the position, information on the element, and information on which drawing position on the screen one or more elements included in the web page are drawn. And determining the operation according to the information related to the operation, and executing the determined operation on the determined target.
Display method.
を電子機器に実行させるプログラムであって、
前記画面上には、ウェブページの一部のみが表示されうるのであって、
前記制御ステップでは、前記画面に前記ウェブページの一部のみが表示されている場合であって、前記ユーザの音声に位置に関する情報と操作に関する情報と前記ウェブページに含まれる要素に関する情報とが含まれる場合に、当該位置に関する情報と、当該要素に関する情報と、前記ウェブページに含まれる1以上の要素が前記画面上のいずれの描画位置に描画されているかに関する情報とに応じて、対象を決定すると共に、当該操作に関する情報に応じて操作を決定し、当該決定した対象に対して、当該決定した操作を実行可能な、
プログラム。 A program for determining an object on the screen and an operation related to the object using a user's voice, and causing the electronic device to execute a control step for executing the determined operation,
Only a part of the web page can be displayed on the screen,
In the control step, only a part of the web page is displayed on the screen, and the voice of the user includes information on position, information on operation, and information on elements included in the web page. A target is determined based on information on the position, information on the element, and information on which drawing position on the screen one or more elements included in the web page are drawn. And determining the operation according to the information related to the operation, and executing the determined operation on the determined target.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013210071A JP5735075B2 (en) | 2013-10-07 | 2013-10-07 | Electronic device, display method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013210071A JP5735075B2 (en) | 2013-10-07 | 2013-10-07 | Electronic device, display method, and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011287007A Division JP5710464B2 (en) | 2011-12-27 | 2011-12-27 | Electronic device, display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014002795A JP2014002795A (en) | 2014-01-09 |
JP5735075B2 true JP5735075B2 (en) | 2015-06-17 |
Family
ID=50035824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013210071A Expired - Fee Related JP5735075B2 (en) | 2013-10-07 | 2013-10-07 | Electronic device, display method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5735075B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114968164A (en) * | 2021-02-25 | 2022-08-30 | 阿里巴巴集团控股有限公司 | Voice processing method, system, device and terminal equipment |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001350621A (en) * | 2000-06-06 | 2001-12-21 | Advanced Media Inc | Method for inputting or starting coordinate position on display screen, and device for inputting or starting coordinate position on display screen |
JP2002123288A (en) * | 2000-10-12 | 2002-04-26 | Canon Inc | Portable telephone, user interface device, contents display method, and storage medium |
EP1405169B1 (en) * | 2001-03-22 | 2006-11-15 | Canon Kabushiki Kaisha | Information processing apparatus and method, and program product |
JP2004029933A (en) * | 2002-06-21 | 2004-01-29 | Mitsubishi Heavy Ind Ltd | Display controller and display control method |
JP4157418B2 (en) * | 2003-05-02 | 2008-10-01 | 日本放送協会 | Data browsing support device, data browsing method, and data browsing program |
WO2008136081A1 (en) * | 2007-04-20 | 2008-11-13 | Mitsubishi Electric Corporation | User interface device and user interface designing device |
JP2011065467A (en) * | 2009-09-17 | 2011-03-31 | Sharp Corp | Conference relay device and computer program |
JP5463922B2 (en) * | 2010-01-12 | 2014-04-09 | 株式会社デンソー | In-vehicle machine |
-
2013
- 2013-10-07 JP JP2013210071A patent/JP5735075B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014002795A (en) | 2014-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6375521B2 (en) | Voice search device, voice search method, and display device | |
US9733895B2 (en) | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same | |
JP6102588B2 (en) | Information processing apparatus, information processing method, and program | |
JP6603754B2 (en) | Information processing device | |
JP5710464B2 (en) | Electronic device, display method, and program | |
US20130035942A1 (en) | Electronic apparatus and method for providing user interface thereof | |
US20130033649A1 (en) | Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same | |
KR20170014353A (en) | Apparatus and method for screen navigation based on voice | |
US10250935B2 (en) | Electronic apparatus controlled by a user's voice and control method thereof | |
CN112839261B (en) | Method for improving matching degree of voice instruction and display equipment | |
US11442991B2 (en) | Using natural language to control structured web page data | |
US20120278719A1 (en) | Method for providing link list and display apparatus applying the same | |
KR20130018464A (en) | Electronic apparatus and method for controlling electronic apparatus thereof | |
US20140372892A1 (en) | On-demand interface registration with a voice control system | |
US9400850B2 (en) | Systems and methods for providing a tailored user interface associated with a web page | |
JP2009145965A (en) | Browser program and information processor | |
US20150199171A1 (en) | Handwritten document processing apparatus and method | |
JP5735075B2 (en) | Electronic device, display method, and program | |
US20220107781A1 (en) | Electronic device and non-transitory storage medium | |
JP4972026B2 (en) | Alternative content presentation device and alternative content navigation program | |
JP5141439B2 (en) | Digital broadcast receiving apparatus and program | |
KR20130004050A (en) | Method for providing link list using voice recognition and display apparatus thereof | |
JP2008191879A (en) | Information display device, display method for information display device, information display program, and recording medium with information display program recorded | |
CN106815288A (en) | A kind of video related information generation method and its device | |
JP5288569B2 (en) | Electronic publication processing apparatus, electronic publication processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140916 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150317 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150415 |
|
LAPS | Cancellation because of no payment of annual fees |