[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7115061B2 - Notation conversion device, conversion display device, conversion display system, control method and recording medium - Google Patents

Notation conversion device, conversion display device, conversion display system, control method and recording medium Download PDF

Info

Publication number
JP7115061B2
JP7115061B2 JP2018120363A JP2018120363A JP7115061B2 JP 7115061 B2 JP7115061 B2 JP 7115061B2 JP 2018120363 A JP2018120363 A JP 2018120363A JP 2018120363 A JP2018120363 A JP 2018120363A JP 7115061 B2 JP7115061 B2 JP 7115061B2
Authority
JP
Japan
Prior art keywords
notation
display
display area
data
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018120363A
Other languages
Japanese (ja)
Other versions
JP2020003892A (en
Inventor
顕司 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018120363A priority Critical patent/JP7115061B2/en
Publication of JP2020003892A publication Critical patent/JP2020003892A/en
Application granted granted Critical
Publication of JP7115061B2 publication Critical patent/JP7115061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、日本語、英語のような言語表記、標準語と方言のような方言表記、漢字、片仮名、平仮名のような文字表示を含む表記方法において好適に利用できる表記変換技術に関し、特に、一の表記法により表記されたデータを別の表記法による表記に変換する技術に関する。 The present invention relates to a notation conversion technology that can be suitably used in notation methods including language notation such as Japanese and English, dialect notation such as standard language and dialect, and character display such as kanji, katakana, and hiragana. The present invention relates to a technique for converting data written in one notation system into notation in another notation system.

プリンター、複写機、複合機等の画像形成装置においては、各種設定を受け付ける操作パネルが設けられている。特許文献1の画像形成装置は、携帯端末から近距離無線通信により、利用者の国籍が含まれる個人情報データを受信し、受信した国籍に基づいて利用者の公用語を判断し、表示言語を設定する。これにより、利用者は、当該利用者が理解できる言語を用いて表示される操作パネルにより、画像形成装置に対する操作を行うことができる。 2. Description of the Related Art Image forming apparatuses such as printers, copiers, multi-function machines, etc. are provided with an operation panel for receiving various settings. The image forming apparatus disclosed in Patent Document 1 receives personal information data including the nationality of the user from a mobile terminal via short-range wireless communication, determines the official language of the user based on the received nationality, and sets the display language. set. Accordingly, the user can operate the image forming apparatus using the operation panel displayed using a language that the user can understand.

しかし、異なる言語を使用する複数の利用者が共同して当該画像形成装置を操作しようとする場合を想定すると、第一の利用者が使用する第一の言語により、操作パネルの表示言語が設定されているなら、第一の利用者は、操作パネルの表示内容を理解でき、当該画像形成装置の操作を行えるものの、第二の言語を使用する第二の利用者にとっては、第一の言語では操作パネルの表示内容を理解できず、当該画像形成装置の操作は困難となる。 However, assuming that a plurality of users using different languages jointly operate the image forming apparatus, the display language of the operation panel is set according to the first language used by the first user. If so, the first user can understand the display contents of the operation panel and can operate the image forming apparatus, but the second user who uses the second language will not understand the first language. In this case, the contents displayed on the operation panel cannot be understood, and the operation of the image forming apparatus becomes difficult.

この問題を解決するため、特許文献2によると、透過性タイプの頭部装着型の映像表示装置を装着し、利用者は、映像表示装置越しに見える風景に重ねて、映像表示装置に表示された映像を視認することができる。利用者が、この映像表示装置越しに英語の文字列を見ると、その文字列が注目領域に特定され、映像表示装置は、利用者情報に基づいて翻訳先の言語を日本語に決定し、注目領域内の英語の文字列を自動的に日本語に翻訳し、翻訳前の視界内の注目領域の英語の文字列に重なるように、日本語の文字列を表示する。 In order to solve this problem, according to Patent Document 2, the user wears a transmissive head-mounted image display device, and the user is superimposed on the scenery seen through the image display device and displayed on the image display device. You can visually recognize the image. When the user sees an English character string through this video display device, the character string is identified as an attention area, and the video display device determines the language to be translated to Japanese based on the user information, The English character string in the attention area is automatically translated into Japanese, and the Japanese character string is displayed so as to overlap the English character string in the attention area within the visual field before translation.

例えば、英語を理解する第一の利用者が頭部装着型の映像表示装置を通して、日本語文字列を見ると、当該映像表示装置に日本語文字列を英語に翻訳した文字列が表示される。同様に、スペイン語を理解する第二の利用者が同じ映像表示装置を通して、上記の日本語文字列を見ると、当該映像表示装置に日本語文字列をスペイン語に翻訳した文字列が表示される。このため、第一の利用者及び第二の利用者は、日本語が理解できない場合であっても、上記の日本語文字列の意味を知ることができる。 For example, when a first user who understands English sees a Japanese character string through a head-mounted image display device, the image display device displays the character string translated into English from the Japanese character string. . Similarly, when a second user who understands Spanish sees the above Japanese character string through the same video display device, the video display device displays the Japanese character string translated into Spanish. be. Therefore, the first user and the second user can know the meaning of the Japanese character string even if they cannot understand Japanese.

このようにして、異なる言語を使用する複数の利用者が共同して装置を操作しようとする場合における上記特許文献1の問題を解決している。 In this way, the problem of Patent Document 1 is solved when a plurality of users using different languages try to operate the device together.

特開2017-211853号公報JP 2017-211853 A 特開2014-93050号公報JP 2014-93050 A

しかし、特許文献2により開示された技術によると、第一の利用者は、第二の利用者がどこに注目しているか分からないし、第二の利用者も、第一の利用者がどこに注目しているか分からない。このように、互いに相手の注目箇所が分からないので、複数の利用者が共同して作業する場合に、複数の利用者間の意思疎通を阻害する一要因となっている。 However, according to the technology disclosed in Patent Document 2, the first user does not know where the second user is paying attention, and the second user does not know where the first user is paying attention. I don't know if In this way, since the attention points of the other party are not known to each other, this is one of the factors that hinder communication between a plurality of users when a plurality of users work together.

なお、以上においては、日本語、英語、スペイン語のような言語表現における問題を指摘したが、標準語と方言のような表現、漢字、片仮名、平仮名のような表記等においても、同様の問題が存在する。 In the above, we have pointed out problems in language expressions such as Japanese, English, and Spanish. exists.

本発明は、上記の点に鑑み、異なる表記法に親和性のある複数の利用者が共同して作業する場合に、利用者間の意思疎通を図ることができる表記変換装置、変換表示装置、変換表示システム、制御方法及び記録媒体を提供することを目的とする。 In view of the above points, the present invention provides a notation conversion device, a conversion display device, a notation conversion device, a conversion display device, An object of the present invention is to provide a conversion display system, a control method, and a recording medium.

上記目的を達成するため、本発明の一態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段とを備え、(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現であることを特徴とする。 In order to achieve the above object, one aspect of the present invention is a notation conversion device that converts first data notated in a first display area on a display surface in a first notation into notation in a second notation, , viewpoint determination means for determining whether or not a plurality of viewpoints of viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display region; Determining means for determining, as a second notation, a notation that has an affinity with a plurality of users who focus their eyes on the first display area, except for the first notation, only when there are multiple viewpoints in the display area. and notation conversion means for converting the first data written in the first display area into second data written in the second notation, and the position of the second display area on the display surface. and output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area. (a) the first notation is an expression in a first language, the second notation is an expression in a second language, and (b) the first notation is an expression in Chinese characters. , the second notation is an expression in katakana, hiragana or romaji; (c) the first notation is an expression in katakana, hiragana or romaji, and the second notation is an expression in kanji , (d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the The first notation is an expression in a dialect, and the second notation is an expression in a standard language .

また、本発明の一態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段とを備え、前記決定手段により、決定される親和性のある表記法とは、利用者毎に馴染みのある表記法として予め登録されている表記法であることを特徴とする。 Further, one aspect of the present invention is a notation conversion device that converts first data notated in a first notation in a first display area on a display surface into notation in a second notation, wherein the display surface is viewpoint determination means for determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users who are gazing are within the first display area; and a plurality of viewpoints within the first display area. Determination means for determining, as a second notation, a notation that has an affinity for a plurality of users who focus their eyes on the first display area, except for the first notation, only when there is a second notation; Notation conversion means for converting the first data written in the display area into second data written in the second notation, and position information indicating the position of the second display area on the display surface. generating means for generating; and output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area; , the notation with affinity to be determined is a notation that is registered in advance as a notation that is familiar to each user .

ここで、前記決定手段は、前記複数の利用者に親和性のある表記法が複数存在する場合、前記複数の利用者のうち、最も多くの利用者に親和性のある一つの表記法を、前記第二表記法として決定する、としてもよい。 Here, when there are a plurality of notations with affinity for the plurality of users, the determining means selects one notation with the greatest affinity among the plurality of users, It may be determined as the second notation.

また、本発明の一態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段とを備え、前記決定手段により、前記複数の利用者に親和性のある複数の表記法が、前記第二表記法として決定された場合、前記表記変換手段は、前記第一データを、それぞれ、決定された複数の表記法により変換することを特徴とする。 Further, one aspect of the present invention is a notation conversion device that converts first data notated in a first notation in a first display area on a display surface into notation in a second notation, wherein the display surface is viewpoint determination means for determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users who are gazing are within the first display area; and a plurality of viewpoints within the first display area. Determination means for determining, as a second notation, a notation that has an affinity for a plurality of users who focus their eyes on the first display area, except for the first notation, only when there is a second notation; Notation conversion means for converting the first data written in the display area into second data written in the second notation, and position information indicating the position of the second display area on the display surface. generating means for generating; and output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area; , when a plurality of notations having an affinity for the plurality of users are determined as the second notation, the notation conversion means converts the first data to each of the determined notations Characterized by converting.

ここで、前記第二表示領域は、前記複数の表記法により、それぞれ、変換された前記第一データを表示する複数の部分領域に区分され、前記生成手段は、さらに、前記複数の部分領域を示す部分領域情報を生成し、前記出力手段は、さらに、前記部分領域情報を出力する、としてもよい。 Here, the second display area is divided into a plurality of partial areas each displaying the converted first data according to the plurality of notations, and the generating means further divides the plurality of partial areas into and the output means may output the partial area information.

ここで、前記出力手段は、前記第二表示領域に、複数の前記変換された第一データの各々を、切り換えて表示させるため、複数の前記変換された第一データを、順次、出力する、としてもよい。 Here, the output means sequentially outputs the plurality of converted first data in order to switch and display each of the plurality of converted first data in the second display area; may be

ここで、前記生成手段は、前記第一表示領域の位置を示す前記位置情報を生成し、前記出力手段は、前記第二表示領域として、前記第一表示領域に前記第二データを表示させるため、前記位置情報を出力する、としてもよい。 Here, the generating means generates the position information indicating the position of the first display area, and the output means displays the second data in the first display area as the second display area. , and output the position information.

ここで、さらに、前記第一表示領域の周辺の領域に、前記第二データのサイズより大きく、データが表示されていない空白領域が存在するか否かを判断する空白判断手段を備え、空白領域が存在すると判断される場合に、前記生成手段は、当該空白領域内において、前記第二表示領域の位置を示す前記位置情報を生成する、としてもよい。 Here, the blank area is further provided with blank determination means for determining whether or not there is a blank area in which data is not displayed and which is larger than the size of the second data in an area around the first display area. is determined to exist, the generating means may generate the position information indicating the position of the second display area within the blank area.

ここで、前記視点判断手段は、さらに、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、第三表示領域内に存する前記視点の数が、所定数以上であるか否かを判断し、前記生成手段は、さらに、所定数以上である場合、前記第三表示領域を拡大した拡大領域の範囲を示す拡大範囲情報を生成し、前記出力手段は、さらに、前記第三表示領域を拡大して表示するため、前記拡大範囲情報を前記表示装置に対して出力する、としてもよい。 Here, the viewpoint determination means further determines that the number of the viewpoints existing within the third display area is a predetermined number or more among the viewpoints on the display surface of the plurality of users gazing at the display surface. If the number is equal to or greater than a predetermined number, the generating means further generates enlarged range information indicating the range of the enlarged area obtained by enlarging the third display area, and the output means further comprises the The enlarged range information may be output to the display device in order to enlarge and display the third display area.

ここで、前記表示面上において、前記第一表示領域から所定距離内に前記第二表示領域が存し、前記第一表示領域に接して前記第二表示領域が存し、前記第一表示領域に重複して前記第二表示領域が存し、又は、前記第一表示領域に包含されて前記第二表示領域が存する、としてもよい。 Here, on the display surface, the second display area exists within a predetermined distance from the first display area, the second display area exists in contact with the first display area, and the first display area exists. The second display area may overlap with the second display area, or the second display area may be included in the first display area.

ここで、前記生成手段は、さらに、前記第一表示領域内における表示色又は表示パターンと、前記第二表示領域内における表示色又は表示パターンとを示す同一の色パターン情報を生成し、前記出力手段は、さらに、前記表示色又は前記表示パターンを用いて表示させるため、前記色パターン情報を前記表示装置に対して出力する、としてもよい。 Here, the generating means further generates the same color pattern information indicating the display color or display pattern in the first display area and the display color or display pattern in the second display area, and outputs The means may further output the color pattern information to the display device for displaying using the display color or the display pattern.

ここで、さらに、前記表示面を注視する利用者の前記表示面における視点を検出する検出手段を備える、としてもよい。 Here, the apparatus may further include detection means for detecting a viewpoint on the display surface of the user who gazes at the display surface.

ここで、前記検出手段は、前記利用者を被写体とする画像データを取得するカメラと、前記画像データから前記利用者の立ち位置と前記利用者の視線方向とを抽出し、抽出した前記立ち位置と前記視線方向に基づいて、前記表示面に注視する前記利用者の当該表示面における視点を算出する算出部とを備える、としてもよい。 Here, the detection means includes a camera that obtains image data of the user as a subject, and extracts the standing position of the user and the line-of-sight direction of the user from the image data, and extracts the standing position. and a calculation unit that calculates the viewpoint of the user who gazes at the display surface on the display surface based on the line-of-sight direction.

ここで、前記表示装置は、矩形状の前記表示面を上方に向けた姿勢で設けられ、前記利用者は、前記表示装置の周囲に立ち、前記生成手段は、さらに、前記第二データを構成する文字が、前記利用者の立ち位置から、正立して見えるように、前記第二データを回転させて配した画像データを生成し、前記出力手段は、前記第二データとして、前記画像データを出力し、前記表示装置は、前記第二表示領域に前記画像データを表示する、としてもよい。 Here, the display device is provided in a posture with the rectangular display surface facing upward, the user stands around the display device, and the generating means further configures the second data. image data is generated by rotating the second data so that the characters appear erect from the standing position of the user, and the output means outputs the image data as the second data and the display device may display the image data in the second display area.

また、本発明の一態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段と、前記複数の利用者について、各々の利用者に親和性のある表記法を示す表記法情報を記憶している記憶手段を備え、前記決定手段は、前記記憶手段から前記表記法情報を取得し、取得した前記表記法情報により示される表記法を用いて、前記複数の利用者に親和性のある表記法を決定することを特徴とする。 Further, one aspect of the present invention is a notation conversion device that converts first data notated in a first notation in a first display area on a display surface into notation in a second notation, wherein the display surface is viewpoint determination means for determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users who are gazing are within the first display area; and a plurality of viewpoints within the first display area. Determination means for determining, as a second notation, a notation that has an affinity for a plurality of users who focus their eyes on the first display area, except for the first notation, only when there is a second notation; Notation conversion means for converting the first data written in the display area into second data written in the second notation, and position information indicating the position of the second display area on the display surface. generating means for generating; output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area; and the plurality of users and storage means for storing notation information indicating a notation with affinity for each user, and the determination means acquires the notation information from the storage means, and acquires the notation It is characterized by determining a notation method that is compatible with the plurality of users by using the notation method indicated by the legal information.

ここで、前記視点判断手段は、利用者の顔面に装着され、カメラと算出部とを備えた当該表記変換装置外部の眼鏡から前記視点を取得し、前記カメラは、利用者の視線方向を撮影して画像データを生成し、前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出する、としてもよい。 Here, the viewpoint judging means acquires the viewpoint from spectacles attached to the user's face and provided with a camera and a calculation unit, and the camera captures the direction of the user's line of sight. and the calculation unit may calculate the position of the object appearing in the center of the image data as the viewpoint.

ここで、前記視点判断手段は、利用者の顔面に装着され、カメラを備えた眼鏡型の前記表示装置から前記視点を取得し、前記表示装置は、前記カメラにより、利用者の視線方向を撮影して画像データを生成し、生成した前記画像データの中央部に写るオブジェクトの位置を視点として算出する、としてもよい。 Here, the viewpoint determining means acquires the viewpoint from the eyeglass-type display device equipped with a camera and worn on the user's face, and the display device captures the direction of the user's line of sight with the camera. image data, and the position of the object appearing in the center of the generated image data may be calculated as the viewpoint.

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示装置であって、前記第一表示領域に前記第一データを表示する表示手段と、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点を取得する視点取得手段と、取得した前記視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二データ及び前記位置情報を前記表示手段に対して出力する出力手段とを備え、前記表示手段は、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示し、(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現であること特徴とする。 Further, another aspect of the present invention is a conversion display device that converts and displays first data written in a first notation in a first display area on a display surface into notation in a second notation, display means for displaying the first data in the first display area; viewpoint acquisition means for acquiring respective viewpoints on the display surface of a plurality of users who are gazing at the display surface; Determination means for determining whether or not a plurality of viewpoints exist within the first display area; determining means for determining, as a second notation, a notation that has an affinity with a plurality of users who gaze at the area; notation conversion means for converting into second data notated by; generating means for generating position information indicating the position of the second display area on the display surface; and displaying the second data and the position information on the display means and output means for outputting to, the display means receives the second data and the position information, displays the second data in the second display area, (a) the first notation modalities are expressions in a first language, said second notation is expressions in a second language, (b) said first notation is expressions in kanji, and said second notation is in katakana , hiragana or romaji, (c) the first notation is katakana, hiragana, or romaji, the second notation is kanji, (d) the first notation is an expression in a standard language that is used nationwide as a norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first notation is an expression in a dialect , and the second notation is characterized in that it is an expression in standard language .

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、表記変換装置、表示装置及び検出装置を備え、前記検出装置は、利用者の顔面に装着され、カメラと算出部とを備えた眼鏡であり、前記カメラは、利用者の視線方向を撮影して画像データを取得し、前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出し、前記表記変換装置は、前記検出装置から取得し、前記表示面を注視する複数の利用者の当該表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二データ及び前記位置情報を前記表示装置に対して出力する出力手段とを備え、前記表示装置は、前記表示面を有し、前記表示面の前記第一表示領域に前記第一データを表示し、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示し、(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現であることを特徴とする。 Another aspect of the present invention is a conversion display system that converts and displays first data written in a first notation in a first display area on a display surface into a notation in a second notation, A notation conversion device, a display device, and a detection device, wherein the detection device is spectacles worn on the user's face and provided with a camera and a calculation unit, and the camera captures the direction of the user's line of sight. Image data is acquired, the calculation unit calculates the position of an object appearing in the center of the image data as a viewpoint, and the notation conversion device acquires from the detection device and gazes at the display surface. viewpoint determination means for determining whether or not a plurality of viewpoints of the respective viewpoints of the person on the display surface exist within the first display area; , determination means for determining, as a second notation, a notation excluding the first notation that has an affinity with a plurality of users who focus their eyes on the first display area; notation conversion means for converting the first data written in the second notation into second data notated according to the second notation; generating means for generating position information indicating the position of the second display area on the display surface; and output means for outputting the second data and the position information to the display device, the display device having the display surface, and the first data being displayed in the first display area of the display surface. receiving the second data and the location information; displaying the second data in the second display area ; (a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in kanji; the second notation is an expression in katakana, hiragana or romaji; (c) The first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, and (d) the first notation is in a standard language used as a norm nationwide or (e) said first notation is an expression in a dialect and said second notation is in a standard language It is characterized by being an expression .

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、表記変換装置、掲示板及び検出表示装置を備え、前記掲示板は、前記表示面を有し、前記検出表示装置は、利用者の顔面に装着され、カメラを備えたメガネ型の表示装置であって、前記カメラにより、利用者の視線方向を撮影して画像データを取得し、取得した前記画像データの中央部に写るオブジェクトの位置を視点として算出し、前記画像データを表示し、前記表記変換装置は、前記検出表示装置から取得し、前記表示面に注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、前記第二データ及び前記位置情報を前記検出表示装置に対して出力する出力手段とを備え、前記検出表示装置は、前記第二データ及び前記位置情報を受信し、前記位置情報により示される前記第二表示領域に、前記第二データを表示し、(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現であることを特徴とする。 Another aspect of the present invention is a conversion display system that converts and displays first data written in a first notation in a first display area on a display surface into a notation in a second notation, A notation conversion device, a bulletin board, and a detection display device, wherein the bulletin board has the display surface, the detection display device is attached to the user's face, and is a glasses-type display device equipped with a camera, The camera acquires image data by photographing the line-of-sight direction of the user, calculates the position of an object appearing in the center of the acquired image data as a viewpoint, displays the image data, and the notation conversion device and viewpoint determination for determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users gazing at the display surface obtained from the detection display device are within the first display area. means, and only when a plurality of viewpoints exist within the first display area, a notation method that is compatible with a plurality of users who focus their eyes on the first display area, except for the first notation method. Determination means for determining two notations; Notation conversion means for converting the first data written in the first display area into second data notated in the second notation; , generating means for generating position information indicating the position of the second display area, and output means for outputting the second data and the position information to the detection display device, wherein the detection display device receiving the second data and the location information, and displaying the second data in the second display area indicated by the location information ; (a) the first notation is an expression in a first language; The second notation is an expression in a second language; (b) the first notation is an expression in kanji; the second notation is an expression in katakana, hiragana or romaji; ) The first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, and (d) the first notation is a standard language used as a national norm. and the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first notation is an expression in a dialect, and the second notation is a standard language It is characterized by being an expression by

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御方法であって、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップとを含み、(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現であることを特徴とする。 Another aspect of the present invention is a control method used in a notation conversion device that converts first data notated in a first notation in a first display area on a display surface into notation in a second notation. a viewpoint determination step of determining whether or not a plurality of viewpoints among viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area; Determination of determining, as a second notation, a notation that has an affinity with a plurality of users who focus their eyes on the first display area, except for the first notation, only when a plurality of viewpoints exist within the area. a notation conversion step of converting the first data written in the first display area into second data written in the second notation; a generation step of generating position information indicating a position; and an output step of outputting the second data and the position information to an external display device in order to display the second data in the second display area. (a) the first notation is in a first language; the second notation is in a second language; (b) the first notation is in Chinese characters; , the second notation is an expression in katakana, hiragana or romaji; (c) the first notation is an expression in katakana, hiragana or romaji, and the second notation is an expression in kanji , (d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the The first notation is an expression in a dialect, and the second notation is an expression in a standard language .

また、本発明の別の態様は、表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御用のコンピュータープログラムを記録しているコンピューター読み取り可能な記録媒体であって、コンピューターである前記表記変換装置に、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップとを実行させるためのコンピュータープログラムを記録し、(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現であることを特徴とする。 Further, another aspect of the present invention is a control computer used in a notation conversion device that converts first data notated in a first notation in a first display area on a display surface into notation in a second notation A computer-readable recording medium recording a program, wherein a plurality of viewpoints among the respective viewpoints of a plurality of users gazing at the display surface on the display surface are stored in the notation conversion device, which is a computer. a visual point determination step of determining whether or not it exists within the first display area; a determination step of determining, as a second notation, a notation that is compatible with a plurality of users; a notation conversion step of converting to second data; a generating step of generating position information indicating the position of the second display area on the display surface; and displaying the second data in the second display area, an output step of outputting the second data and the position information to an external display device; (a) the first notation is an expression in a first language; , the second notation is an expression in a second language; (b) the first notation is an expression in kanji; the second notation is an expression in katakana, hiragana or romaji; c) the first notation is an expression in katakana, hiragana or romaji; the second notation is an expression in kanji; and (d) the first notation is a standard used nationwide as a norm or (e) said first notation is a dialect expression and said second notation is a standard It is characterized by being an expression in words .

上記の態様によると、第一表記法により第一データが表示されている第一表示領域に、複数の利用者の視点が存するときに限り、これらの視点に視線を注ぐ複数の利用者に親和性のある第二表記法(第一表記法を除く)により、第一データを変換して、第二表示領域に、第二データを表示する。 According to the above aspect, only when the viewpoints of a plurality of users exist in the first display area where the first data is displayed according to the first notation, the display is compatible with a plurality of users who look at these viewpoints. The second data is displayed in the second display area by converting the first data according to the second notation (excluding the first notation) having the correctness.

このように第二表示領域に第二データが表示されることにより、複数の利用者が第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人の利用者は、自分以外にも、第一表示領域に注目している利用者が存在し、その利用者が、自分と同様に、第一表示領域に表示されている第一データに関心を持っていることを知ることができる。その結果、複数の利用者の間で、意思疎通を図ることができる。また、第二表示領域には、第二データが表示されるので、第一表記法に親和性のない利用者であっても、第一表示領域に表示された第一データの意味を知ることができる。 By displaying the second data in the second display area in this manner, it can be seen that a plurality of users are paying attention to the first display area. In other words, one user who is paying attention to the first display area has another user who is also paying attention to the first display area. You can know that you are interested in the first data displayed in the area. As a result, communication can be achieved among a plurality of users. In addition, since the second data is displayed in the second display area, even a user who is not familiar with the first notation can understand the meaning of the first data displayed in the first display area. can be done.

実施の形態の翻訳表示装置1の外観斜視図を示す。1 shows an external perspective view of a translation display device 1 of an embodiment. FIG. 翻訳表示装置1が備えるカメラ12a~12dのそれぞれの水平画角321~324を示す。Horizontal angles of view 321 to 324 of cameras 12a to 12d provided in the translation display device 1 are shown. 翻訳表示装置1の内部の構成を示すブロック図である。2 is a block diagram showing the internal configuration of the translation display device 1. FIG. 表示データテーブル171のデータ構造の一例を示す。An example of the data structure of the display data table 171 is shown. 翻訳表示装置1の表示部102に表示されるテキストデータとユーザーの立ち位置との関係を示す。4 shows the relationship between the text data displayed on the display unit 102 of the translation display device 1 and the standing position of the user. ユーザー属性テーブル191のデータ構造の一例及び顔画像データの一例を示す。An example of the data structure of the user attribute table 191 and an example of face image data are shown. 画像データの一例を示す。An example of image data is shown. オブジェクト情報テーブル121のデータ構造の一例及びオブジェクトデータの一例を示す。An example of the data structure of the object information table 121 and an example of object data are shown. パーツ情報テーブル131のデータ構造の一例及びパーツデータの一例を示す。An example of the data structure of the parts information table 131 and an example of parts data are shown. ユーザー位置テーブル141のデータ構造の一例を示す。An example of the data structure of the user position table 141 is shown. 水平方向テーブル156のデータ構造の一例を示す。An example of the data structure of the horizontal direction table 156 is shown. 視線情報テーブル151のデータ構造の一例を示す。An example of the data structure of the line-of-sight information table 151 is shown. 視点位置テーブル161のデータ構造の一例を示す。An example of the data structure of the viewpoint position table 161 is shown. 表示領域テーブル181のデータ構造の一例を示す。An example of the data structure of the display area table 181 is shown. 翻訳テキストデータテーブル201のデータ構造の一例を示す。An example of the data structure of the translation text data table 201 is shown. (a)三方向に向いたユーザーの頭部の概略図を示す。(b)ユーザーの頭部の水平方向の向きを示す。(c)鉛直方向に対して三つの傾きを有するユーザーの頭部の概略図を示す。(d)ユーザーの頭部の鉛直方向からの傾きを示す。(a) Schematic representation of a user's head oriented in three directions. (b) indicates the horizontal orientation of the user's head; (c) Schematic representation of a user's head with three tilts relative to the vertical. (d) Shows the inclination of the user's head from the vertical direction. 翻訳表示装置1の表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。An example of text data and translation text data displayed on the display unit 102 of the translation display device 1 is shown. (a)第一表示領域351aと第二表示領域352aとが接触している場合の一例を示す。(b)第一表示領域351bから、所定距離内に、第二表示領域352bが存する場合の一例を示す。(c)第一表示領域351cに重複して、第二表示領域352cが存する場合の一例を示す。(d)第一表示領域351dに包含されて第二表示領域352dが存する場合の一例を示す。(e)第一表示領域351e内の背景に施されたハッチングパターンと、第二表示領域352e内の背景に施されたハッチングパターンとが一致する場合の一例を示す。(f)第一表示領域351f内の背景に施されたドットパターンと、第二表示領域352f内の背景に施されたドットパターンとが一致する場合の一例を示す。(g)第一表示領域351gと、第二表示領域352gとが、線画像353によりリンクされている場合の一例を示す。(h)第一表示領域351hの枠の表示パターンと、第二表示領域352hの枠の表示パターンとが一致する場合の一例を示す。(a) shows an example when the first display area 351a and the second display area 352a are in contact with each other. (b) shows an example in which the second display area 352b exists within a predetermined distance from the first display area 351b. (c) An example of a case where a second display area 352c exists overlapping the first display area 351c is shown. (d) An example of a case where the second display area 352d is included in the first display area 351d is shown. (e) Shows an example in which the hatching pattern applied to the background within the first display area 351e and the hatching pattern applied to the background within the second display area 352e match. (f) Shows an example where the dot pattern applied to the background in the first display area 351f and the dot pattern applied to the background in the second display area 352f match. (g) An example in which the first display area 351g and the second display area 352g are linked by the line image 353 is shown. (h) Shows an example in which the display pattern of the frame of the first display area 351h and the display pattern of the frame of the second display area 352h match. 翻訳表示装置1の動作を示すフローチャートである。図20へ続く。4 is a flow chart showing the operation of the translation display device 1; Continue to FIG. 翻訳表示装置1の動作を示すフローチャートである。図19から続く。4 is a flow chart showing the operation of the translation display device 1; Continued from FIG. (a)変形例(1)としての翻訳表示装置1の表示部102に表示されるテキストデータとユーザーの立ち位置との関係を示す。(b)翻訳表示装置1の表示部102に大きく表示されるテキストデータ及び翻訳テキストデータの一例を示す。(a) shows the relationship between the text data displayed on the display unit 102 of the translation display device 1 as Modification (1) and the standing position of the user. (b) shows an example of text data and translation text data displayed in a large size on the display unit 102 of the translation display device 1; 変形例(2)としての翻訳表示装置1の表示部102に表示されるテキストデータとユーザーの立ち位置との関係、及び、表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。FIG. 10 shows an example of the relationship between the text data displayed on the display unit 102 of the translation display device 1 and the user's standing position, and the text data and translation text data displayed on the display unit 102 as Modified Example (2). 変形例(3)としての翻訳表示システム501の概略構成を示す。A schematic configuration of a translation display system 501 as a modified example (3) is shown. (a)変形例(4)としての翻訳表示システム531の概略構成を示す。(b)メガネ533の表示部533bに表示される画像の一例を示す。(a) shows a schematic configuration of a translation display system 531 as a modified example (4); (b) shows an example of an image displayed on the display unit 533b of the glasses 533;

1 実施の形態
本発明の一の実施の形態としての翻訳表示装置1について説明する。
1 Embodiment A translation display device 1 as one embodiment of the present invention will be described.

1.1 翻訳表示装置1
図1は、翻訳表示装置1の外観斜視図を示す。
1.1 Translation display device 1
FIG. 1 shows an external perspective view of a translation display device 1. As shown in FIG.

翻訳表示装置1は、この図に示すように、テーブル型の表示装置である。翻訳表示装置1の天板には、矩形の表示部102が組み込まれ、天板の4つの隅には、それぞれ、カメラ12a、12b、12c及び12dが設置されている。翻訳表示装置1の本体部は、脚部11により支持されている。また、天板の四周辺には、等間隔で、例えば、5cm間隔で、目盛り15a、15b、15c、15dが付されている。 The translation display device 1 is a table-type display device, as shown in this figure. A rectangular display unit 102 is incorporated in the top plate of the translation display device 1, and cameras 12a, 12b, 12c, and 12d are installed at four corners of the top plate, respectively. A main body of the translation display device 1 is supported by legs 11 . In addition, scales 15a, 15b, 15c, and 15d are provided at equal intervals, for example, at intervals of 5 cm, on the four peripheries of the top plate.

表示部102は、矩形状の表示面を上方に向けた姿勢で設けられている。ユーザーは、表示部102を備えた翻訳表示装置1の周囲に立つ。 The display unit 102 is provided with a rectangular display surface facing upward. The user stands around the translation display device 1 having the display unit 102 .

本明細書において、矩形の表示部102の一頂点102aに原点を設定し、矩形の表示部102の短辺102b及び長辺102cに沿って、X軸及びY軸を設定し、鉛直方向にZ軸を設定する。また、翻訳表示装置1が存在する空間を、X-Y-Z座標により特定し、表示部102の表示面をX-Y座標により特定する。 In this specification, the origin is set at one vertex 102a of the rectangular display section 102, the X axis and the Y axis are set along the short side 102b and the long side 102c of the rectangular display section 102, and the Z axis is set in the vertical direction. Set axis. Also, the space in which the translation display device 1 exists is specified by the XYZ coordinates, and the display surface of the display unit 102 is specified by the XY coordinates.

図2は、カメラ12a~12dのそれぞれの水平画角321~324を示す。 FIG. 2 shows horizontal angles of view 321-324 of cameras 12a-12d, respectively.

カメラ12aは、その光軸が、水平面から略22.5度上方、対角の隅側に向くように、設置されており、その撮影方向は、固定されている。カメラ12aの水平画角321は、例えば、略90度であり、垂直画角は、例えば、略45度である。カメラ12b、12c及び12dについても、カメラ12aと同様である。 The camera 12a is installed such that its optical axis is oriented approximately 22.5 degrees upward from the horizontal plane and toward a diagonal corner, and its photographing direction is fixed. The horizontal angle of view 321 of the camera 12a is, for example, approximately 90 degrees, and the vertical angle of view is, for example, approximately 45 degrees. Cameras 12b, 12c and 12d are similar to camera 12a.

図2に示すように、カメラ12a~12dによる撮影範囲は、翻訳表示装置1の周囲をほぼ覆い尽くしているので、カメラ12a~12dにより、翻訳表示装置1の周囲に立つユーザー、特に、そのユーザーの顔を撮影することができる。 As shown in FIG. 2, the imaging range of the cameras 12a to 12d covers almost all the surroundings of the translation display device 1, so that the cameras 12a to 12d can capture the image of a user standing around the translation display device 1, particularly the user. face can be photographed.

1.2 翻訳表示装置1の内部の構成
図3は、翻訳表示装置1の内部の構成を示すブロック図である。
1.2 Internal Configuration of Translation Display Device 1 FIG. 3 is a block diagram showing the internal configuration of the translation display device 1 .

この図に示すように、翻訳表示装置1は、カメラ12a~12d、主制御部101、表示部102、出力部103、記憶部104、入力部105a~105d、顔認識処理部106、位置算出部107、視線視点算出部108、表示領域検出部109、表示制御部110、翻訳部111及び合成部229から構成されている。 As shown in this figure, the translation display device 1 includes cameras 12a to 12d, a main control unit 101, a display unit 102, an output unit 103, a storage unit 104, input units 105a to 105d, a face recognition processing unit 106, a position calculation unit. 107 , line-of-sight point calculation unit 108 , display area detection unit 109 , display control unit 110 , translation unit 111 and synthesis unit 229 .

ここで、主制御部101、記憶部104の一部、表示制御部110及び翻訳部111は、表示面上の一の表示領域に第一言語(第一表記法)により表記されたデータを第二言語(第二表記法)による表記に翻訳(変換)する翻訳装置(表記変換装置)を構成している。ここで、第一表記法は、第一言語による表現であり、第二表記法は、第二言語による表現である。また、カメラ12a~12d、主制御部101、記憶部104の一部、入力部105a~105d、顔認識処理部106、位置算出部107、視線視点算出部108及び表示領域検出部109は、表示面を注視するユーザーの表示面における視点を検出する検出手段を構成している。カメラ12a~12dは、それぞれ、ユーザーを被写体とする画像データを取得する。顔認識処理部106、位置算出部107、視線視点算出部108及び表示領域検出部109は、画像データからユーザーの立ち位置とユーザーの視線方向とを抽出し、抽出した立ち位置と視線方向に基づいて、表示面に注視するユーザーの表示面における視点を算出する算出部を構成している。 Here, the main control unit 101, part of the storage unit 104, the display control unit 110, and the translation unit 111 convert data written in a first language (first writing system) into one display area on the display surface. It constitutes a translation device (notation conversion device) that translates (converts) into notation in two languages (second notation). Here, the first notation is the expression in the first language and the second notation is the expression in the second language. In addition, the cameras 12a to 12d, the main control unit 101, a part of the storage unit 104, the input units 105a to 105d, the face recognition processing unit 106, the position calculation unit 107, the sight line point calculation unit 108, and the display area detection unit 109, It constitutes detection means for detecting the viewpoint on the display surface of the user who gazes at the surface. Each of the cameras 12a-12d obtains image data of the user as a subject. The face recognition processing unit 106, the position calculation unit 107, the line-of-sight point calculation unit 108, and the display area detection unit 109 extract the user's standing position and the user's line-of-sight direction from the image data, and based on the extracted standing position and line-of-sight direction. together constitute a calculation unit for calculating the viewpoint on the display surface of the user who gazes at the display surface.

翻訳表示装置1は、制御用のコンピュータープログラムを記憶しているメモリ及びコンピュータープログラムに従って動作するプロセッサーを含んでいる。主制御部101、顔認識処理部106、位置算出部107、視線視点算出部108、表示領域検出部109、表示制御部110及び翻訳部111は、それぞれ、プロセッサーがコンピュータープログラムに従って動作することにより、その機能を果たす。 The translation display device 1 includes a memory that stores a control computer program and a processor that operates according to the computer program. The main control unit 101, the face recognition processing unit 106, the position calculation unit 107, the line-of-sight point calculation unit 108, the display area detection unit 109, the display control unit 110, and the translation unit 111 each operate according to a computer program. fulfill its function.

(1)記憶部104
記憶部104は、例えば、ハードディスクから構成されている。
(1) Storage unit 104
The storage unit 104 is composed of, for example, a hard disk.

記憶部104は、画像データ111a、111b、111c、111d、オブジェクト情報テーブル121、オブジェクトデータ128、・・・、パーツ情報テーブル131、パーツデータ137a、137b、137c、・・・、ユーザー位置テーブル141、視線情報テーブル151、水平方向テーブル156、視点位置テーブル161、表示データテーブル171、表示領域テーブル181、ユーザー属性テーブル191、顔画像データ197a、197b、197c、・・・、翻訳テキストデータテーブル201、辞書データベース211、表示画像データ(図5)、及び、その他のデータ(図示していない)を記憶するための領域を備えている。 The storage unit 104 stores image data 111a, 111b, 111c, 111d, an object information table 121, object data 128, . Line-of-sight information table 151, horizontal direction table 156, viewpoint position table 161, display data table 171, display area table 181, user attribute table 191, face image data 197a, 197b, 197c, ..., translation text data table 201, dictionary It has areas for storing database 211, display image data (FIG. 5), and other data (not shown).

(表示データテーブル171)
図4は、表示データテーブル171のデータ構造の一例を示す。
(Display data table 171)
FIG. 4 shows an example of the data structure of the display data table 171. As shown in FIG.

表示データテーブル171は、表示部102により表示されるテキストデータ(第一データ)を格納するためのデータテーブルである。表示データテーブル171は、この図に示すように、予め、複数の表示データ関連情報172を含んでいる。 The display data table 171 is a data table for storing text data (first data) displayed by the display unit 102 . The display data table 171 includes a plurality of pieces of display data related information 172 in advance, as shown in this figure.

各表示データ関連情報172は、データID173、表示位置174、幅175、高さ176、テキストデータ177及び使用言語178を含んでいる。 Each display data related information 172 includes data ID 173, display position 174, width 175, height 176, text data 177 and language 178 used.

データID173は、表示データ関連情報172を識別するための識別子である。表示位置174は、テキストデータ177を表示する第一表示領域の左下点の表示部102における座標値(X座標、Y座標)を示す。幅175及び高さ176は、それぞれ、テキストデータ177を表示する第一表示領域の幅及び高さを示す。テキストデータ177は、表示部102の第一表示領域に表示される内容を示す。ここでは、翻訳の容易性を考慮して、テキストデータである。使用言語178は、テキストデータ177の言語を示す。 Data ID 173 is an identifier for identifying display data related information 172 . A display position 174 indicates the coordinate values (X coordinate, Y coordinate) on the display unit 102 of the lower left point of the first display area where the text data 177 is displayed. Width 175 and height 176 indicate the width and height, respectively, of the first display area displaying text data 177 . Text data 177 indicates the content displayed in the first display area of display unit 102 . Here, it is text data in consideration of ease of translation. The used language 178 indicates the language of the text data 177 .

図5は、一例として、表示データテーブル171に基づいて、翻訳表示装置1の表示部102に表示される表示画像データを示す。 FIG. 5 shows display image data displayed on the display unit 102 of the translation display device 1 based on the display data table 171 as an example.

第一表示領域301、302、303、304、・・・には、それぞれ、表示データテーブル171において、データID「K001」、「K002」、「K003」、「K004」、・・・により識別される表示データ関連情報内のテキストデータが表示される。 Identified by data IDs "K001", "K002", "K003", "K004", . The text data in the display data related information is displayed.

(ユーザー属性テーブル191)
図6は、ユーザー属性テーブル191のデータ構造の一例を示す。
(User attribute table 191)
FIG. 6 shows an example of the data structure of the user attribute table 191. As shown in FIG.

ユーザー属性テーブル191は、各ユーザーの属性を保持するデータテーブルである。 The user attribute table 191 is a data table that holds attributes of each user.

ユーザー属性テーブル191は、この図に示すように、予め、複数のユーザー属性情報192を含んでいる。 The user attribute table 191 contains a plurality of pieces of user attribute information 192 in advance, as shown in this figure.

各ユーザー属性情報192は、ユーザーID193、ユーザー名194、使用言語195及び顔画像ID196から構成されている。 Each user attribute information 192 is composed of a user ID 193 , a user name 194 , a language used 195 and a face image ID 196 .

ユーザーID193は、ユーザーを識別する識別子である。ユーザー名194は、ユーザーを示す名称である。使用言語195(表記法情報)は、当該ユーザーが理解可能な言語である。ここで、理解可能とは、当該ユーザーがその言語の文字を読んで(見て)理解できることを言うが、さらに、聞いて理解し、話すことができ、書くことができることを言うとしてもよい。このように、使用言語195は、各々のユーザーに親和性のある言語(表記法)を示す。顔画像ID196は、当該ユーザーの顔画像を表す顔画像データを識別する識別子である。 A user ID 193 is an identifier that identifies a user. User name 194 is a name indicating a user. The language used 195 (notation information) is a language that the user can understand. Here, comprehensible means that the user can read (see) and understand the characters of the language, but it may also mean that the user can hear, understand, speak, and write. In this way, the language used 195 indicates a language (notation) that is familiar to each user. The face image ID 196 is an identifier for identifying face image data representing the face image of the user.

(顔画像データ)
記憶部104は、複数の顔画像データを記憶するための領域を備えている。
(face image data)
The storage unit 104 has an area for storing a plurality of face image data.

図6には、顔画像データの一例も示している。 FIG. 6 also shows an example of face image data.

図6に示す顔画像データ197a、197b、197c、197d、・・・は、それぞれ、図6のユーザー属性テーブル191のユーザーID「U001」、「U002」、「U003」、「U004」、・・・に対応している。 The face image data 197a, 197b, 197c, 197d, . . . shown in FIG.・Compatible with

顔画像データは、ユーザーを認識するために用いられるので、ユーザーの顔の正面から撮影した顔画像が好ましい。さらに、ユーザーの顔の左側から撮影した顔画像、及び、顔の右側から撮影した顔画像を含めるとしてもよい。 Since the face image data is used for recognizing the user, the face image taken from the front of the user's face is preferable. In addition, a face image taken from the left side of the user's face and a face image taken from the right side of the face may be included.

(画像データ)
記憶部104は、画像データ111a、111b、111c、111d(図3)を記憶するための領域を備えている。
(image data)
The storage unit 104 has areas for storing image data 111a, 111b, 111c, and 111d (FIG. 3).

画像データ111a、111b、111c、111dは、それぞれ、カメラ12a、12b、12c、12dによる撮影により、生成された多階調の画像データである。画像データには、複数の画素が行列状に配されている。 The image data 111a, 111b, 111c, and 111d are multi-tone image data generated by shooting with the cameras 12a, 12b, 12c, and 12d, respectively. A plurality of pixels are arranged in a matrix in the image data.

図7は、画像データの一例として、カメラ12aによる撮影により、生成された画像データ111aを示す。画像データ111aには、翻訳表示装置1の周囲に立つ複数のユーザーの画像343a、343b、343c、343d、及び、翻訳表示装置1の天板の一部の画像343eが含まれている。カメラ12aの撮影方向は、固定されているので、画像データ111aには、常に、翻訳表示装置1の天板の同じ部分が写り込んでいる。また、画像343eには、天板の周辺に付された目盛り344a、344b、344cが写り込んでいる。このため、画像343e内の目盛り344a、344b、344cと、画像343a、343b、343c、343dとの位置関係から、画像343a、343b、343c、343dが表すユーザーの立ち位置を知ることができる。 FIG. 7 shows image data 111a generated by photographing with the camera 12a as an example of image data. The image data 111 a includes images 343 a , 343 b , 343 c , and 343 d of a plurality of users standing around the translation display device 1 and a partial image 343 e of the top plate of the translation display device 1 . Since the photographing direction of the camera 12a is fixed, the same portion of the tabletop of the translation display device 1 is always reflected in the image data 111a. Scales 344a, 344b, and 344c attached to the periphery of the tabletop are reflected in the image 343e. Therefore, the standing position of the user represented by the images 343a, 343b, 343c, and 343d can be known from the positional relationship between the scales 344a, 344b, and 344c in the image 343e and the images 343a, 343b, 343c, and 343d.

図7に示す画像データ111aには、画像343a、343b、343c、343dのうち、ユーザーのそれぞれの顔部分であるオブジェクトデータ342a、342b、342c、342dを示している。各オブジェクトデータの形状は、矩形である。 The image data 111a shown in FIG. 7 shows object data 342a, 342b, 342c, and 342d, which are respective face portions of the user, among images 343a, 343b, 343c, and 343d. The shape of each object data is a rectangle.

カメラ12b、12c、12dによる撮影により、生成された画像データ111b、111c、111dについても、画像データ111aと同様である。 Image data 111b, 111c, and 111d generated by shooting with the cameras 12b, 12c, and 12d are similar to the image data 111a.

なお、画像データ111a、111b、111c、111dは、それぞれ、静止画であるが、動画像であるとしてもよい。 The image data 111a, 111b, 111c, and 111d are still images, respectively, but may be moving images.

(オブジェクト情報テーブル121)
図8は、オブジェクト情報テーブル121のデータ構造の一例を示す。
(Object information table 121)
FIG. 8 shows an example of the data structure of the object information table 121. As shown in FIG.

オブジェクト情報テーブル121は、カメラ12a~12dによる撮影により生成された画像データに写り込んだユーザーの顔部分であるオブジェクトデータを示すオブジェクト情報を記憶するためのデータテーブルである。 The object information table 121 is a data table for storing object information indicating object data, which is a user's face part captured in image data generated by photographing by the cameras 12a to 12d.

オブジェクト情報テーブル121は、この図に示すように、複数のオブジェクト情報122を記憶するための領域を備えている。オブジェクト情報122は、一つのオブジェクトデータに対応しており、各オブジェクト情報122は、カメラID123、画像ID124、オブジェクトID125、オブジェクト範囲126及びユーザーID127を含んでいる。 The object information table 121 has areas for storing a plurality of pieces of object information 122, as shown in this figure. Object information 122 corresponds to one piece of object data, and each object information 122 includes camera ID 123 , image ID 124 , object ID 125 , object range 126 and user ID 127 .

カメラID123は、当該オブジェクトデータを含む画像データを生成したカメラを識別するための識別子である。画像ID124は、当該オブジェクトデータを含む画像データを識別するための識別子である。オブジェクトIDは、当該オブジェクトデータを識別するための識別子である。オブジェクト範囲126は、画像データ内において、矩形状の当該オブジェクトデータの左下点と右上点が存在する座標を示す。ユーザーIDは、当該オブジェクトデータとしてその顔が写り込んだユーザーを識別する識別子である。 The camera ID 123 is an identifier for identifying the camera that generated the image data including the object data. The image ID 124 is an identifier for identifying image data including the object data. The object ID is an identifier for identifying the object data. The object range 126 indicates the coordinates of the lower left point and upper right point of the rectangular object data in the image data. A user ID is an identifier that identifies a user whose face is included in the object data.

なお、異なるカメラが一人のユーザーを撮影することもありうるので、オブジェクト情報テーブル121には、同一のユーザーについて、複数のオブジェクト情報が含まれる場合がある。 In addition, since different cameras may photograph one user, the object information table 121 may contain a plurality of pieces of object information for the same user.

(オブジェクトデータ)
記憶部104は、複数のオブジェクトデータ128、・・・を記憶するための領域を備えている。
(object data)
The storage unit 104 has areas for storing a plurality of object data 128, . . .

記憶部104に記憶されているオブジェクトデータ128、・・・は、画像データから、ユーザーの顔部分の画像データが切り出されたものである。 The object data 128, .

図8には、オブジェクトデータの一例も示している。 FIG. 8 also shows an example of object data.

図8に示すオブジェクトデータ128は、図8のオブジェクト情報テーブル121のオブジェクトID「OB0001」に対応している。 The object data 128 shown in FIG. 8 corresponds to the object ID "OB0001" of the object information table 121 shown in FIG.

オブジェクトデータは、ユーザーの立ち位置及びユーザーの視線を検出するために用いられる。 Object data is used to detect the user's standing position and the user's line of sight.

(パーツ情報テーブル131)
図9は、パーツ情報テーブル131のデータ構造の一例を示す。
(Parts information table 131)
FIG. 9 shows an example of the data structure of the parts information table 131. As shown in FIG.

パーツ情報テーブル131は、この図に示すように、複数のパーツ情報132を記憶するための領域を備えている。 The parts information table 131 has areas for storing a plurality of parts information 132 as shown in this figure.

ここで、オブジェクト(顔)を構成する部分(左目、右目、口、鼻、左耳、右耳等)をパーツと呼び、画像データ内のユーザーの顔部分であるオブジェクトデータから、左目、右目、口、鼻、左耳、右耳等の部分画像であるパーツデータが切り出される。ここで、パーツデータの形状は、矩形である。 Here, the parts (left eye, right eye, mouth, nose, left ear, right ear, etc.) that make up the object (face) are called parts. Part data, which are partial images of the mouth, nose, left ear, right ear, etc., are cut out. Here, the shape of the parts data is a rectangle.

パーツ情報132は、一つのパーツデータに対応しており、各パーツ情報132は、オブジェクトID133、パーツID134、パーツ範囲135及びパーツタイプ136を含んでいる。 The parts information 132 corresponds to one part data, and each parts information 132 includes an object ID 133 , a parts ID 134 , a parts range 135 and a parts type 136 .

オブジェクトID133は、当該パーツデータが含まれるオブジェクトデータを識別する識別子である。パーツID134は、当該パーツデータを識別する識別子である。パーツ範囲135は、当該パーツデータが含まれるオブジェクトデータ内において、矩形状の当該パーツデータの左下点と右上点が存在する座標を示す。パーツタイプ136は、当該パーツデータの種類を示す。つまり、パーツタイプ136は、当該パーツデータが左目、右目、口、鼻、左耳、右耳のいずれであるかを示す。 The object ID 133 is an identifier that identifies object data containing the parts data. The parts ID 134 is an identifier that identifies the parts data. The parts range 135 indicates the coordinates of the lower left point and the upper right point of the rectangular parts data in the object data containing the parts data. The part type 136 indicates the type of part data. That is, the part type 136 indicates whether the part data is left eye, right eye, mouth, nose, left ear, or right ear.

(パーツデータ)
記憶部104は、複数のパーツデータ137a、・・・を記憶するための領域を備えている。
(parts data)
The storage unit 104 has an area for storing a plurality of parts data 137a, .

記憶部104に記憶されているパーツデータ137a、・・・は、ユーザーの顔部分のオブジェクトデータから、その部分であるパーツの画像データが切り出されたものである。 The parts data 137a, .

図9には、パーツデータの一例も示している。 FIG. 9 also shows an example of parts data.

図9に示すパーツデータ137a~137fは、それぞれ、図9のパーツ情報テーブル131のオブジェクトID「OB0001」のパーツID「PT0001」~「PT0006」に対応している。 The parts data 137a to 137f shown in FIG. 9 respectively correspond to the part IDs "PT0001" to "PT0006" of the object ID "OB0001" in the parts information table 131 of FIG.

パーツデータは、ユーザーの視線を検出するために用いられる。 Parts data is used to detect the line of sight of the user.

(ユーザー位置テーブル141)
図10は、ユーザー位置テーブル141のデータ構造の一例を示す。
(User position table 141)
FIG. 10 shows an example of the data structure of the user position table 141. As shown in FIG.

ユーザー位置テーブル141は、翻訳表示装置1の周囲におけるユーザーの立ち位置を示すユーザー位置情報を記憶するためのデータテーブルである。 The user position table 141 is a data table for storing user position information indicating the standing position of the user around the translation display device 1 .

ユーザー位置テーブル141は、この図に示すように、複数のユーザー位置情報142を記憶するための領域を備えている。ユーザー位置情報142は、一人のユーザーに対応している。 The user position table 141 has an area for storing a plurality of pieces of user position information 142, as shown in this figure. User location information 142 corresponds to one user.

各ユーザー位置情報142は、ユーザーID143及びユーザー位置144を含む。 Each user location information 142 includes user ID 143 and user location 144 .

ユーザーID143は、当該ユーザーを識別するための識別子である。ユーザー位置144は、翻訳表示装置1の周囲に立つユーザーの顔の中心部分の位置(つまり、ユーザーの立ち位置)を、X-Y-Z座標で示す。 User ID 143 is an identifier for identifying the user. The user position 144 indicates the position of the central portion of the user's face standing around the translation display device 1 (that is, the user's standing position) in XYZ coordinates.

(水平方向テーブル156)
図11は、水平方向テーブル156のデータ構造の一例を示す。
(Horizontal direction table 156)
FIG. 11 shows an example of the data structure of the horizontal direction table 156. As shown in FIG.

水平方向テーブル156は、ユーザーの顔の水平方向の向きを算出するために用いるデータテーブルである。 The horizontal direction table 156 is a data table used to calculate the horizontal direction of the user's face.

水平方向テーブル156は、この図に示すように、予め、複数の水平方向情報157を記憶している。水平方向情報157は、ユーザーの顔の一つの水平方向の向きに対応している。 The horizontal direction table 156 stores in advance a plurality of pieces of horizontal direction information 157 as shown in this figure. Horizontal orientation information 157 corresponds to one horizontal orientation of the user's face.

各水平方向情報157は、比率158及び水平方向角度159を含む。 Each horizontal information 157 includes a ratio 158 and a horizontal angle 159 .

比率158は、左側交差位置と右側交差位置との間における中央線の位置を比率(%)で示す。具体的には、比率「左0」は、中央線が左側交差位置に一致することを示す。比率「左25」は、左側交差位置と右側交差位置との間において、中央線が左側交差位置から25%の位置に存在することを示す。比率「50」は、中央線が、左側交差位置と右側交差位置との中央の位置に存在することを示す。比率「右25」は、左側交差位置と右側交差位置との間において、中央線が右側交差位置から25%の位置に存在することを示す。比率「右0」は、中央線が右側交差位置に一致することを示す。 Ratio 158 indicates the position of the center line in percentage between the left crossing position and the right crossing position. Specifically, a ratio of "left 0" indicates that the center line coincides with the left crossing position. The ratio "left 25" indicates that the center line is located 25% from the left crossing position between the left crossing position and the right crossing position. A ratio of "50" indicates that the center line exists at the middle position between the left crossing position and the right crossing position. The ratio "Right 25" indicates that the center line exists at a position 25% from the right crossing position between the left crossing position and the right crossing position. A ratio "Right 0" indicates that the center line coincides with the right intersection location.

ここで、中央線、左側交差位置及び右側交差位置について、図16(a)を参照しながら、説明する。 Here, the center line, the left crossing position and the right crossing position will be described with reference to FIG. 16(a).

中央線364aは、ユーザーの頭部363aにおいて、左目と右目との中間点を頭部の上下方向に貫く直線である。左側交差位置367は、両目を結ぶ線369と左側輪郭線366aが交差する位置であり、右側交差位置368は、両目を結ぶ線369と右側輪郭線365aが交差する位置である。なお、左側輪郭線366aは、頭部363aの左側の輪郭線を示し、右側輪郭線365aは、頭部363aの右側の輪郭線を示す。 The center line 364a is a straight line passing through the middle point between the left eye and the right eye in the user's head 363a in the vertical direction of the head. A left intersection position 367 is a position where a line 369 connecting both eyes and a left contour line 366a intersect, and a right intersection position 368 is a position where a line 369 connecting both eyes and a right contour line 365a intersect. The left contour line 366a indicates the contour line on the left side of the head 363a, and the right contour line 365a indicates the contour line on the right side of the head 363a.

ここで、中央線と左側交差位置との距離を左距離と呼び、中央線と右側交差位置との距離を右距離と呼ぶ。 Here, the distance between the center line and the left crossing position is called the left distance, and the distance between the center line and the right crossing position is called the right distance.

水平方向角度は、ユーザーの顔の水平方向の向きを角度(度)で示す。 The horizontal angle indicates the horizontal orientation of the user's face in degrees.

例えば、図11に示す水平方向テーブル156において、比率「左0」と水平方向角度「左90」とが対応している。比率「左0」の場合、ユーザーの顔は、正面から、90度だけ、左側を向いていることを示す。 For example, in the horizontal direction table 156 shown in FIG. 11, the ratio "left 0" corresponds to the horizontal direction angle "left 90". A ratio of "left 0" indicates that the user's face is facing left by 90 degrees from the front.

また、比率「左25」と水平方向角度「左45」とが対応している。ここで、比率「左25」の場合、ユーザーの顔は、正面から、45度だけ、左側を向いていることを示す。 Also, the ratio "left 25" corresponds to the horizontal angle "left 45". Here, the ratio "left 25" indicates that the user's face is facing leftward by 45 degrees from the front.

さらに、比率「50」と水平方向角度「0」とが対応している。ここで、比率「50」の場合、ユーザーの顔は、正面を向いていることを示す。 Furthermore, the ratio "50" corresponds to the horizontal angle "0". Here, the ratio "50" indicates that the user's face is facing forward.

その他の場合についても、同様である。 The same applies to other cases.

(視線情報テーブル151)
図12は、視線情報テーブル151のデータ構造の一例を示す。
(Line-of-sight information table 151)
FIG. 12 shows an example of the data structure of the line-of-sight information table 151. As shown in FIG.

視線情報テーブル151は、ユーザーの視線を示す視線情報を記憶するためのデータテーブルである。 The line-of-sight information table 151 is a data table for storing line-of-sight information indicating the user's line of sight.

視線情報テーブル151は、この図に示すように、複数の視線情報152を記憶するための領域を備えている。視線情報152は、一人のユーザーの視線に対応している。 The line-of-sight information table 151 has areas for storing a plurality of pieces of line-of-sight information 152, as shown in this figure. The line-of-sight information 152 corresponds to the line-of-sight of one user.

各視線情報152は、ユーザーID153、ユーザー位置154及び方向情報155を含む。 Each line-of-sight information 152 includes user ID 153 , user location 154 and direction information 155 .

ユーザーID153は、当該ユーザーを識別するための識別子である。ユーザー位置144は、翻訳表示装置1の周囲に立つユーザーの顔の中心部分の位置を、X-Y-Z座標で示す。方向情報155は、ユーザーの視線の向く方向を、ユーザー位置144からのベクトル(X、Y、Z)により、示す。 User ID 153 is an identifier for identifying the user. The user position 144 indicates the position of the central portion of the user's face standing around the translation display device 1 in XYZ coordinates. Direction information 155 indicates the direction in which the user's line of sight is directed by a vector (X, Y, Z) from user position 144 .

(視点位置テーブル161)
図13は、視点位置テーブル161のデータ構造の一例を示す。
(Viewpoint position table 161)
FIG. 13 shows an example of the data structure of the viewpoint position table 161. As shown in FIG.

視点位置テーブル161は、表示部102の表示面における、ユーザーの視点を示す視点位置情報を記憶するためのデータテーブルである。 The viewpoint position table 161 is a data table for storing viewpoint position information indicating the user's viewpoint on the display surface of the display unit 102 .

視点位置テーブル161は、この図に示すように、複数の視点位置情報162を記憶するための領域を備えている。視点位置情報162は、一人のユーザーの視点に対応している。 The viewpoint position table 161 has an area for storing a plurality of viewpoint position information 162, as shown in this figure. The viewpoint position information 162 corresponds to the viewpoint of one user.

各視点位置情報162は、ユーザーID163及び視点位置164を含む。 Each viewpoint position information 162 includes a user ID 163 and a viewpoint position 164 .

ユーザーID163は、当該ユーザーを識別するための識別子である。視点位置164は、表示部102の表示面における、ユーザーの視点の位置を、X-Y座標で示す。 User ID 163 is an identifier for identifying the user. The viewpoint position 164 indicates the position of the user's viewpoint on the display surface of the display unit 102 in XY coordinates.

(表示領域テーブル181)
図14は、表示領域テーブル181のデータ構造の一例を示す。
(Display area table 181)
FIG. 14 shows an example of the data structure of the display area table 181. As shown in FIG.

表示領域テーブル181は、表示部102により表示される各第一表示領域に注目しているユーザーを示す表示領域情報を記憶するためのデータテーブルである。 The display area table 181 is a data table for storing display area information indicating a user who pays attention to each first display area displayed by the display unit 102 .

表示領域テーブル181は、この図に示すように、複数の表示領域情報182を記憶するための領域を備えている。表示領域情報182は、一つのテキストデータに対応している。 The display area table 181 has areas for storing a plurality of pieces of display area information 182, as shown in this figure. The display area information 182 corresponds to one piece of text data.

各表示領域情報182がデータID183のみを含む場合と、各表示領域情報182がデータID183及び一つ以上のユーザーID184を含む場合とがある。 There are cases where each display area information 182 includes only the data ID 183 and cases where each display area information 182 includes the data ID 183 and one or more user IDs 184 .

データID183は、表示部102により表示されるテキストデータを識別するための識別子である。ユーザーID184は、ユーザーを識別する識別子である。 Data ID 183 is an identifier for identifying text data displayed by display unit 102 . A user ID 184 is an identifier that identifies a user.

表示領域情報182がデータID183のみを含む場合、データID183により示されるテキストデータが表示される第一表示領域に注目しているユーザーが存在しないことを示す。また、表示領域情報182がデータID183及び一つのユーザーID184を含む場合、データID183により示されるテキストデータが表示される第一表示領域に、一人のユーザーが注目していることを示す。さらに、表示領域情報182がデータID183及び複数のユーザーID184を含む場合、データID183により示されるテキストデータが表示される第一表示領域に、複数のユーザーが注目していることを示す。 When the display area information 182 includes only the data ID 183, it indicates that no user is paying attention to the first display area where the text data indicated by the data ID 183 is displayed. Also, when the display area information 182 includes the data ID 183 and one user ID 184, it indicates that one user is paying attention to the first display area where the text data indicated by the data ID 183 is displayed. Furthermore, when the display area information 182 includes the data ID 183 and multiple user IDs 184, it indicates that multiple users are paying attention to the first display area where the text data indicated by the data ID 183 is displayed.

(翻訳テキストデータテーブル201)
図15は、翻訳テキストデータテーブル201のデータ構造の一例を示す。
(Translation text data table 201)
FIG. 15 shows an example of the data structure of the translated text data table 201. As shown in FIG.

翻訳テキストデータテーブル201は、翻訳されたテキスト(翻訳テキストデータ、第二データ)を示す翻訳情報を記憶するためのデータテーブルである。 The translation text data table 201 is a data table for storing translation information indicating translated text (translation text data, second data).

翻訳テキストデータテーブル201は、この図に示すように、複数の翻訳情報202を記憶するための領域を備えている。翻訳情報202は、一つのテキストデータに対応している。 The translation text data table 201 has areas for storing a plurality of pieces of translation information 202, as shown in this figure. The translation information 202 corresponds to one piece of text data.

各翻訳情報202は、データID203、翻訳テキスト204及び使用言語205を含む。 Each translation information 202 includes data ID 203 , translation text 204 and language 205 used.

データID203は、表示部102により表示されるテキストデータを識別するための識別子である。翻訳テキスト204は、表示データテーブル171において、データID203により識別されるテキストデータを翻訳した結果の文字列である。使用言語205は、翻訳の際に用いられた言語を示す。 A data ID 203 is an identifier for identifying text data displayed by the display unit 102 . The translated text 204 is a character string resulting from translating the text data identified by the data ID 203 in the display data table 171 . The used language 205 indicates the language used for translation.

(辞書データベース211)
辞書データベース211は、翻訳部111により用いられ、複数の言語について、第一言語の用語と第二言語の用語との対応関係を記憶しているデータベースである。
(Dictionary database 211)
The dictionary database 211 is used by the translation unit 111 and is a database that stores correspondence relationships between terms in a first language and terms in a second language for a plurality of languages.

(2)カメラ12a~12d及び入力部105a~105d
カメラ12aは、対象を撮影して、画像データを生成し、生成した画像データを入力部105aに対して出力する。入力部105aは、カメラ12aから画像データを受信し、受信した画像データを画像データ111aとして、カメラ12aを識別するカメラIDとともに、記憶部104に、書き込む。
(2) Cameras 12a-12d and input units 105a-105d
The camera 12a photographs an object, generates image data, and outputs the generated image data to the input unit 105a. The input unit 105a receives image data from the camera 12a and writes the received image data as image data 111a into the storage unit 104 together with the camera ID that identifies the camera 12a.

カメラ12b~12d及び入力部105b~105dについても、カメラ12a及び入力部105aと同様であり、カメラ12b~12dは、それぞれ、撮影により画像データを生成し、入力部105b~105dは、画像データを記憶部104に、カメラIDとともに、画像データ111b~111dとして、書き込む。 The cameras 12b to 12d and the input units 105b to 105d are the same as the camera 12a and the input unit 105a. The image data 111b to 111d are written in the storage unit 104 together with the camera ID.

(3)顔認識処理部106
顔認識処理部106は、記憶部104から、カメラIDとともに、各々の画像データを読み出し、読み出した画像データから、ユーザーの顔部分であるオブジェクトデータを切り出す。オブジェクトデータの切り出しは、例えば、画像データにおいて、目、鼻、口、耳のセットを認識することにより、行う。また、顔認識処理部106は、目、鼻、口、耳も、パーツデータとして、切り出す。さらに、顔認識処理部106は、パーツデータ毎に、当該パーツデータが目、鼻、口、耳のいずれであるかを判断して、そのパーツタイプを特定する。
(3) Face recognition processing unit 106
The face recognition processing unit 106 reads each image data together with the camera ID from the storage unit 104, and cuts out object data, which is the user's face portion, from the read image data. Extraction of object data is performed, for example, by recognizing a set of eyes, nose, mouth, and ears in image data. The face recognition processing unit 106 also cuts out the eyes, nose, mouth, and ears as part data. Furthermore, the face recognition processing unit 106 determines whether the part data is the eyes, nose, mouth, or ears for each part data, and specifies the part type.

顔認識処理部106は、各画像データから、切り出したオブジェクトデータ、及び、パーツデータを、記憶部104に書き込む。 The face recognition processing unit 106 writes object data and part data cut out from each image data into the storage unit 104 .

また、顔認識処理部106は、切り出したオブジェクトデータを識別するオブジェクトIDを生成し、切り出したオブジェクトデータの範囲を示すオブジェクト範囲を生成する。次に、顔認識処理部106は、カメラID、画像ID、オブジェクトID及びオブジェクト範囲からなるオブジェクト情報を、オブジェクト情報テーブル121に書き込む。 The face recognition processing unit 106 also generates an object ID for identifying the cut-out object data, and generates an object range indicating the range of the cut-out object data. Next, the face recognition processing unit 106 writes object information including the camera ID, image ID, object ID, and object range into the object information table 121 .

また、顔認識処理部106は、切り出したオブジェクトデータの特徴部分が、記憶部104に予め記憶されている顔画像データ197a、197b、197c、・・・のいずれかの特徴部分と一致するか否かを判断する。いずれかの顔画像データの特徴部分と一致する場合には、その顔画像データを識別する顔画像IDに対応するユーザーIDを、ユーザー属性テーブル191から抽出する。顔認識処理部106は、抽出したユーザーIDを、オブジェクト情報テーブル121に書き込む。切り出したオブジェクトデータの特徴部分が、いずれの顔画像データの特徴部分とも一致しないする場合には、オブジェクト情報テーブル121には、ユーザーIDは、書き込まれない。 Further, the face recognition processing unit 106 determines whether or not the characteristic portion of the extracted object data matches any of the characteristic portions of the face image data 197a, 197b, 197c, . to judge whether If the feature portion of any face image data matches, the user ID corresponding to the face image ID that identifies that face image data is extracted from the user attribute table 191 . The face recognition processing unit 106 writes the extracted user ID to the object information table 121. FIG. If the characteristic portion of the extracted object data does not match any characteristic portion of the face image data, no user ID is written in the object information table 121 .

また、顔認識処理部106は、オブジェクトデータから切り出したパーツデータ毎に、パーツデータを識別するパーツIDを生成し、切り出したパーツデータの範囲を示すパーツを生成する。次に、顔認識処理部106は、パーツデータ毎に、オブジェクトID、パーツID、パーツ範囲及びパーツタイプからなるパーツ情報を、パーツ情報テーブル131に書き込む。 In addition, the face recognition processing unit 106 generates a part ID for identifying part data for each part data cut out from the object data, and generates a part indicating the range of the cut out part data. Next, the face recognition processing unit 106 writes parts information including an object ID, a parts ID, a parts range, and a parts type into the parts information table 131 for each part data.

(4)位置算出部107
位置算出部107は、オブジェクト情報テーブル121から、オブジェクト情報毎に、オブジェクト範囲を抽出し、抽出したオブジェクト範囲と、画像データに含まれ、翻訳表示装置1の天板の周辺に付された目盛りの位置とを比較して、ユーザーの立ち位置を示すユーザー位置を、X-Y-Z座標で、算出する。なお、上記の通り、ユーザーの立ち位置とは、翻訳表示装置1の周囲に立つ当該ユーザーの顔の中心部分の位置を示す。位置算出部107は、ユーザーを識別するユーザーIDと、算出したユーザー位置とからなるユーザー位置情報を、ユーザー位置テーブル141に書き込む。
(4) Position calculator 107
The position calculation unit 107 extracts an object range for each piece of object information from the object information table 121, and calculates the extracted object range and the scales attached to the periphery of the tabletop of the translation display device 1 included in the image data. Then, the user position, which indicates the standing position of the user, is calculated by XYZ coordinates. Note that, as described above, the user's standing position indicates the position of the central portion of the user's face standing around the translation display device 1 . The position calculation unit 107 writes the user position information including the user ID for identifying the user and the calculated user position to the user position table 141 .

(5)視線視点算出部108
(ユーザーの顔の水平方向の向きの算出)
視線視点算出部108は、次のようにして、ユーザー毎に、ユーザーの顔の水平方向の向きを算出する。
(5) Line-of-sight viewpoint calculator 108
(calculating the horizontal orientation of the user's face)
The line-of-sight viewpoint calculation unit 108 calculates the horizontal orientation of the user's face for each user as follows.

図16(a)には、三方向に向いたユーザーの頭部の概略図を示す。つまり、左側を向くユーザーの頭部363a、正面を向くユーザーの頭部363b、及び、右側を向くユーザーの頭部363cを示している。 FIG. 16(a) shows a schematic diagram of the user's head facing in three directions. That is, it shows a user's head 363a facing left, a user's head 363b facing front, and a user's head 363c facing right.

左側を向く頭部363aにおいて、左目と右目との中間点を頭部363aの上下方向に貫く直線である中央線364aを設定し、頭部363aの左側の輪郭を示す左側輪郭線366aを設定し、頭部363aの右側の輪郭を示す右側輪郭線365aを設定すると、中央線364aは、右側輪郭線365aよりも、左側輪郭線366aに近い位置に存在する。 In the head 363a facing leftward, a center line 364a, which is a straight line passing vertically through the head 363a at the midpoint between the left eye and the right eye, is set, and a left contour line 366a indicating the contour of the left side of the head 363a is set. , a right contour line 365a indicating the right contour of the head 363a is set, the center line 364a is closer to the left contour line 366a than the right contour line 365a.

また、正面を向く頭部363bにおいて、頭部363aと同様に、中央線364b、左側輪郭線366b、及び、右側輪郭線365bを設定すると、中央線364bは、右側輪郭線365bと左側輪郭線366bの略中央の位置に存在する。 Also, in the head 363b facing the front, similarly to the head 363a, if a central line 364b, a left contour 366b, and a right contour 365b are set, the central line 364b is divided into a right contour 365b and a left contour 366b. It exists in the position of about the center of .

右側を向く頭部363cにおいて、頭部363aと同様に、中央線364c、左側輪郭線366c、及び、右側輪郭線365cを設定すると、中央線364cは、左側輪郭線366cよりも、右側輪郭線365cに近い位置に存在する。 In the head 363c facing right, if a central line 364c, a left contour 366c, and a right contour 365c are set in the same way as for the head 363a, the central line 364c is closer to the right contour 365c than the left contour 366c. exists in a position close to

このように、視線視点算出部108は、頭部の中央線が、左側輪郭線に近い側に存在するか、又は、右側輪郭線に近い側に存在するかを判断することにより、具体的には、水平方向テーブル156を用いて、ユーザーの顔の水平方向の向きを推定することができる。 In this manner, the line-of-sight viewpoint calculation unit 108 specifically determines whether the center line of the head exists on the side closer to the left contour line or on the side closer to the right contour line. can use the horizontal orientation table 156 to estimate the horizontal orientation of the user's face.

翻訳表示装置1の天板の4つの隅には、それぞれ、カメラ12a、12b、12c及び12dが設置されているので、いずれかのカメラがユーザーの頭部(特に、左目、右目、鼻、口等を含む顔部)を撮影することができる。その結果、図16(b)に示すように、ユーザーの頭部361a、361b、361cが向いている水平方向の向き362a、362b、362cを推定することができる。 Cameras 12a, 12b, 12c, and 12d are installed at the four corners of the top plate of the translation display device 1, respectively, so that one of the cameras can detect the user's head (especially the left eye, right eye, nose, mouth, etc.). etc.) can be photographed. As a result, as shown in FIG. 16(b), it is possible to estimate the horizontal orientations 362a, 362b, 362c of the heads 361a, 361b, 361c of the users.

視線視点算出部108は、オブジェクト情報テーブル121に記憶されている各オブジェクトIDについて、記憶部104から一つのオブジェクトIDにより識別されるオブジェクトデータ読み出す。また、視線視点算出部108は、当該オブジェクトIDについて、パーツ情報テーブル131から、左目のパーツ情報内のパーツID及びパーツ範囲、並びに、右目のパーツ情報内のパーツID及びパーツ範囲を抽出し、抽出した左目のパーツID及び右目のパーツIDによりそれぞれ識別されるパーツデータを記憶部104から読み出す。 The line-of-sight point calculation unit 108 reads object data identified by one object ID from the storage unit 104 for each object ID stored in the object information table 121 . Further, for the object ID, the line-of-sight viewpoint calculation unit 108 extracts, from the parts information table 131, the part ID and the parts range in the parts information for the left eye and the parts ID and the parts range in the parts information for the right eye. Parts data identified by the left eye parts ID and the right eye parts ID are read out from the storage unit 104 .

次に、視線視点算出部108は、左目のパーツデータ及びパーツ範囲、右目のパーツデータ及びパーツ範囲、並びに、オブジェクトデータを用いて、中央線を算出する。また、視線視点算出部108は、オブジェクトデータを用いて、左側輪郭線及び右側輪郭線を算出する。次に、視線視点算出部108は、オブジェクトデータを用いて、中央線と左側輪郭線の左距離と、中央線と右側輪郭線との右距離との比率を算出する。例えば、中央線が、左側輪郭線と右側輪郭線との中央に存在する場合には、比率は、50%である。中央線が、左側輪郭線と一致する場合には、比率は、左0%である。中央線が、右側輪郭線と一致する場合には、比率は、右0%である。中央線と左側輪郭線の左距離と、中央線と右側輪郭線との右距離との比率が1:3である場合、比率は、左25%である。中央線と左側輪郭線の左距離と、中央線と右側輪郭線との右距離との比率が3:1である場合、比率は、右25%である。 Next, the line-of-sight viewpoint calculation unit 108 calculates the center line using the parts data and parts range for the left eye, the parts data and parts range for the right eye, and the object data. Also, the line-of-sight viewpoint calculation unit 108 calculates the left contour and the right contour using the object data. Next, the line-of-sight viewpoint calculator 108 uses the object data to calculate the ratio between the left distance between the center line and the left contour line and the right distance between the center line and the right contour line. For example, if the centerline is in the middle of the left and right contours, the ratio is 50%. If the center line coincides with the left contour line, the percentage is left 0%. If the center line coincides with the right contour line, the percentage is right 0%. If the ratio of the left distance between the center line and the left contour to the right distance between the center line and the right contour is 1:3, then the ratio is left 25%. If the ratio of the left distance between the center line and the left contour to the right distance between the center line and the right contour is 3:1, then the ratio is right 25%.

次に、視線視点算出部108は、水平方向テーブル156から、算出した比率に対応する水平方向角度を抽出する。算出した比率に対応する水平方向角度が水平方向テーブル156に存在しない場合には、直線補間法を用いる。 Next, the line-of-sight viewpoint calculator 108 extracts the horizontal direction angle corresponding to the calculated ratio from the horizontal direction table 156 . If the horizontal angle corresponding to the calculated ratio does not exist in horizontal table 156, linear interpolation is used.

このようにして、ユーザーの顔が向いている水平方向の向きを算出する。 In this way, the horizontal orientation of the user's face is calculated.

(ユーザーの顔の鉛直方向からの傾きの算出)
視線視点算出部108は、次のようにして、ユーザー毎に、ユーザーの顔(頭部)の鉛直方向からの傾きを算出する。
(Calculation of tilt of user's face from vertical direction)
The line-of-sight point calculation unit 108 calculates, for each user, the tilt of the user's face (head) from the vertical direction as follows.

図16(c)には、鉛直方向に対して傾きのないユーザーの顔375a、鉛直方向に対してやや傾いたユーザーの顔375b、及び、鉛直方向に対してさらに傾いたユーザーの顔375cを示す。 FIG. 16(c) shows a user's face 375a that is not tilted with respect to the vertical direction, a user's face 375b that is slightly tilted with respect to the vertical direction, and a user's face 375c that is further tilted with respect to the vertical direction. .

鉛直方向に対して傾きのないユーザーの顔375aでは、中央線374aは、ほぼ鉛直方向を維持している。また、鉛直方向に対してやや傾いたユーザーの顔375bでは、中央線374bは、鉛直方向からやや傾いている。また、鉛直方向に対してさらに傾いたユーザーの顔375cでは、中央線374cは、鉛直方向からさらに傾いている。 In the user's face 375a that is not tilted with respect to the vertical direction, the center line 374a remains substantially vertical. Also, in the user's face 375b slightly tilted with respect to the vertical direction, the center line 374b is slightly tilted from the vertical direction. In addition, in the user's face 375c that is further tilted with respect to the vertical direction, the center line 374c is further tilted from the vertical direction.

従って、ユーザーの頭部の中央線を用いれば、ユーザーの顔の鉛直方向からの傾きを知ることができる。つまり、図16(d)に示すように、ユーザーの顔371a、371bの中央線372a、372bの鉛直方向からの傾きから、視線方向373a、373bを知ることができる。 Therefore, by using the center line of the user's head, it is possible to know the tilt of the user's face from the vertical direction. That is, as shown in FIG. 16(d), line-of-sight directions 373a and 373b can be known from the inclination of the center lines 372a and 372b of the user's faces 371a and 371b from the vertical direction.

ユーザーの顔の水平方向の向きを算出する場合と同様に、視線視点算出部108は、左目のパーツデータ及びパーツ範囲、右目のパーツデータ及びパーツ範囲、並びに、オブジェクトデータを用いて、中央線を算出する。 As in the case of calculating the horizontal orientation of the user's face, the line-of-sight point calculation unit 108 uses the parts data and parts range for the left eye, the parts data and parts range for the right eye, and the object data to calculate the center line. calculate.

次に、視線視点算出部108は、算出した中央線を基にして、中央線に鉛直をなす方向を算出し、これをユーザーの顔の鉛直方向からの傾きとする。 Next, based on the calculated center line, the line-of-sight viewpoint calculation unit 108 calculates the direction perpendicular to the center line, and uses this as the tilt of the user's face from the vertical direction.

(視線情報の生成)
視線視点算出部108は、ユーザー毎に、算出したユーザーの顔の水平方向の向きと、ユーザーの顔の鉛直方向からの傾きを合成して、ユーザーの視線が向く方向情報(X、Y、Z)を算出する。
(Generation of line-of-sight information)
For each user, the line-of-sight point calculation unit 108 synthesizes the calculated horizontal orientation of the user's face and the tilt of the user's face from the vertical direction, and obtains direction information (X, Y, Z ).

次に、視線視点算出部108は、ユーザー毎に、ユーザーを識別するユーザーID、ユーザー位置テーブル141に書き込まれたユーザー位置情報、及び、ユーザーの視線が向く方向情報からなる視線情報を、視線情報テーブル151に書き込む。 Next, the line-of-sight point calculation unit 108 calculates, for each user, line-of-sight information including a user ID that identifies the user, user position information written in the user position table 141, and direction information in which the user's line of sight is directed. Write to table 151 .

(視点情報の生成)
視線視点算出部108は、視線情報テーブル151から、順に、視線情報を全て読み出す。視線視点算出部108は、読み出した視線情報に含まれるユーザー位置により示される位置を起点として、読み出した視線情報に含まれる方向情報が示す方向に、直線を延長し、延長した直線が表示部102の表示面と交差する点を、ユーザーの視点位置として算出する。視線視点算出部108は、ユーザーを識別するユーザーIDと視点位置とからなる視点位置情報を視点位置テーブル161に書き込む。
(Generation of viewpoint information)
The line-of-sight viewpoint calculation unit 108 sequentially reads all pieces of line-of-sight information from the line-of-sight information table 151 . The line-of-sight point calculation unit 108 extends a straight line in the direction indicated by the direction information included in the read-out line-of-sight information from the position indicated by the user position included in the read-out line-of-sight information, and the extended straight line is displayed on the display unit 102. is calculated as the point of view of the user. The line-of-sight viewpoint calculation unit 108 writes viewpoint position information including a user ID for identifying a user and a viewpoint position into a viewpoint position table 161 .

(6)表示領域検出部109
表示領域検出部109は、表示データテーブル171から、順に、表示データ関連情報を全て読み出し、読み出した表示データ関連情報内のデータIDを含む表示領域情報を、表示領域テーブル181に書き込む。この結果、表示領域テーブル181は、表示データテーブル171に含まれる表示データ関連情報と同じ数の表示領域情報を含むこととなる。
(6) Display area detector 109
The display area detection unit 109 sequentially reads all the display data related information from the display data table 171 and writes the display area information including the data ID in the read display data related information to the display area table 181 . As a result, the display area table 181 includes the same number of display area information as the display data related information included in the display data table 171 .

次に、表示領域検出部109は、視点位置テーブル161から、順に、視点位置情報を全て読み出す。視点位置情報を読み出す毎に、表示領域検出部109は、読み出した視点位置情報に含まれる視点位置が、表示データテーブル171内の、どの表示データ関連情報により示される表示位置、幅、高さにより示される第一表示領域内に、存在するかを判断する。視点位置が第一表示領域内に存在する場合、表示領域テーブル181において、同じデータIDを含む表示領域情報内に、視点位置に対応するユーザーIDを書き込む。視点位置が第一表示領域内に存在しない場合、ユーザーIDの書き込みを行わない。 Next, the display area detection unit 109 sequentially reads all pieces of viewpoint position information from the viewpoint position table 161 . Each time the viewpoint position information is read, the display area detection unit 109 detects the viewpoint position included in the read viewpoint position information according to the display position, width, and height indicated by which display data related information in the display data table 171. Determine if it exists within the indicated first display area. When the viewpoint position exists within the first display area, the user ID corresponding to the viewpoint position is written in the display area information including the same data ID in the display area table 181 . If the viewpoint position does not exist within the first display area, the user ID is not written.

こうして、第一表示領域毎に、その第一表示領域に注目するユーザーのユーザーIDをまとめることができる。 In this way, the user IDs of users who pay attention to the first display area can be grouped for each first display area.

(7)表示制御部110
表示制御部110は、表示データテーブル171から、全ての表示データ関連情報を読み出す。読み出した表示データ関連情報毎に、当該表示データ関連情報に含まれる表示位置、幅及び高さにより示される第一表示領域に、当該表示データ関連情報に含まれるテキストデータを表示した表示画像データを生成する。ここで、当該表示データ関連情報に含まれる使用言語、つまり、表示されるテキストデータの元になる言語を第一言語(第一表記法)と呼ぶ。次に、表示制御部110は、生成した表示画像データを合成部229に対して、出力する。
(7) Display control unit 110
The display control unit 110 reads all display data related information from the display data table 171 . Display image data displaying text data included in the display data-related information in the first display area indicated by the display position, width and height included in the display data-related information for each read display data-related information. Generate. Here, the language used included in the display data-related information, that is, the language on which the text data to be displayed is based is called a first language (first notation). Next, display control section 110 outputs the generated display image data to synthesizing section 229 .

また、表示制御部110(視点判断手段)は、表示領域テーブル181に含まれる各表示領域情報について、複数のユーザーの視点が、一つの第一表示領域内に存在するか否か、一人のユーザーの視点のみが一つの第一表示領域内に存在するか否か、また、一つの第一表示領域内にユーザーの視点が存在しないかを判断する。つまり、表示制御部110は、表示面を注視する複数のユーザーの表示面におけるそれぞれの視点のうち、複数の視点が第一表示領域内に存するか否かを判断する。 In addition, the display control unit 110 (viewpoint determination means) determines whether or not the viewpoints of a plurality of users exist within one first display region for each display region information included in the display region table 181. It is determined whether or not only the viewpoint exists within one first display area, and whether or not the user's viewpoint exists within one first display area. In other words, the display control unit 110 determines whether or not a plurality of viewpoints among the viewpoints on the display surface of the plurality of users who are gazing at the display surface exist within the first display area.

表示制御部110(決定手段)は、複数のユーザーの視点が、一つの第一表示領域内に存在する場合に限り、処理対象である表示領域情報に含まれるデータIDについて、用いられている使用言語(第一言語)を表示データテーブル171から取得し、取得した使用言語を除いて、一つの第一表示領域内に存在する複数の視点に視線を注ぐ複数のユーザーの使用言語をユーザー属性テーブル191から取得し、取得した複数のユーザーの使用言語のうち、少なくとも一つの言語を、第二言語(第二表記法)として決定する。つまり、表示制御部110は、取得した使用言語を用いて、第一表示領域に視線を注ぐ複数のユーザーに親和性のある言語(表記法)を、第二言語として決定する。ここで、表示制御部110(決定手段)により、決定される親和性のある表記法とは、ユーザー毎に馴染みのある表記法として予め登録されている表記法である、としてもよい。表示制御部110は、翻訳部111に対して、第一表示領域に表示されるテキストデータを、前記第二言語により翻訳するように、制御する。表示制御部110(生成手段)は、表示面上において第一表示領域に付随する第二表示領域の位置を示す位置情報を生成する。なお、位置情報の生成の詳細については、後述する。表示制御部110(出力手段)は、合成部229に対して、翻訳テキストデータ及び位置情報を出力する。 The display control unit 110 (determining means) selects the data ID included in the display area information to be processed only when the viewpoints of a plurality of users exist within one first display area. A language (first language) is acquired from the display data table 171, and the languages used by a plurality of users who focus their eyes on a plurality of viewpoints present in one first display area are stored in the user attribute table, except for the acquired language. 191, and determines at least one of the acquired languages used by the plurality of users as a second language (second notation). That is, the display control unit 110 uses the acquired working language to determine, as the second language, a language (notation) that has an affinity with a plurality of users who focus their eyes on the first display area. Here, the friendly notation determined by the display control unit 110 (determining means) may be a notation registered in advance as a familiar notation for each user. The display control unit 110 controls the translation unit 111 to translate the text data displayed in the first display area into the second language. The display control unit 110 (generating means) generates position information indicating the position of the second display area attached to the first display area on the display surface. Details of the generation of position information will be described later. The display control section 110 (output means) outputs the translation text data and the position information to the synthesizing section 229 .

ここで、複数のユーザーの視点が、一つの第一表示領域内に存在する場合、当該第一表示領域内に存在する複数の視点に視線を注ぐ複数のユーザーの使用言語が全て第一言語であるときには、第二表示領域の表示は、行わない。 Here, when the viewpoints of a plurality of users exist within one first display area, the languages used by the plurality of users who focus their gazes on the plurality of viewpoints existing within the first display area are all in the first language. Sometimes the second display area is not displayed.

一方、表示制御部110は、一つのユーザーの視点のみが、一つの第一表示領域内に存在する場合、当該ユーザーの使用言語と、第一表示領域に表示されるテキストデータの言語が一致するか否かを判断する。 On the other hand, when only one user's viewpoint exists within one first display area, the display control unit 110 determines that the language used by the user matches the language of the text data displayed in the first display area. or not.

一致しない場合、表示制御部110は、翻訳部111に対して、第一表示領域に表示されるテキストデータを、当該ユーザーの使用言語により翻訳するように、制御する。また、表示制御部110(生成手段)は、表示面上において第一表示領域に付随する第二表示領域の位置を示す位置情報を生成する。表示制御部110(出力手段)は、合成部229に対して、翻訳テキストデータ及び位置情報を出力する。この場合、第二表示領域に表示される翻訳テキストデータは、ハーフトーンにより表示される。 If they do not match, the display control unit 110 controls the translation unit 111 to translate the text data displayed in the first display area into the language used by the user. In addition, the display control unit 110 (generating means) generates position information indicating the position of the second display area attached to the first display area on the display surface. The display control section 110 (output means) outputs the translation text data and the position information to the synthesizing section 229 . In this case, the translation text data displayed in the second display area is displayed in halftone.

当該ユーザーの使用言語と、第一表示領域に表示されるテキストデータの言語が一致する場合、表示制御部110は、処理を行わない。 If the language used by the user matches the language of the text data displayed in the first display area, the display control unit 110 does not perform any processing.

(8)翻訳部111
翻訳部111(表記変換手段)は、第一表示領域に表記されているテキストデータを、第二言語により翻訳(表記)された翻訳テキストデータに変換する。
(8) Translation unit 111
The translation unit 111 (notation conversion means) converts text data written in the first display area into translated text data translated (notated) in a second language.

具体的には、翻訳部111は、表示制御部110の制御により、決定した第二言語により、辞書データベース211を用いて、テキストデータを翻訳し、データID、翻訳されたテキストデータである翻訳テキスト及び使用言語からなる翻訳情報を、翻訳テキストデータテーブル201に書き込む。 Specifically, the translation unit 111 translates the text data using the dictionary database 211 in the determined second language under the control of the display control unit 110, and translates the data ID, the translation text which is the translated text data, and the translation information consisting of the language used is written in the translation text data table 201 .

(9)合成部229
合成部229は、表示制御部110から、表示画像データを受信し、受信した表示画像データを、出力部103を介して、表示部102に出力し、表示部102に表示画像データを表示させる。
(9) Combiner 229
Synthesis unit 229 receives the display image data from display control unit 110, outputs the received display image data to display unit 102 via output unit 103, and causes display unit 102 to display the display image data.

また、合成部229は、表示制御部110から、翻訳テキストデータ及び位置情報を受信する。翻訳テキストデータ及び位置情報を受信すると、前に受信した表示画像データに、受信した位置情報により示される位置において、受信した翻訳テキストデータを合成し、合成した表示画像データを、出力部103を介して、表示部102に出力し、表示部102に表示画像データを表示させる。 Also, the synthesizing unit 229 receives the translated text data and the position information from the display control unit 110 . When the translated text data and the position information are received, the previously received display image data is synthesized with the received translation text data at the position indicated by the received position information, and the synthesized display image data is output via the output unit 103. and output to the display unit 102 to display the display image data on the display unit 102 .

(10)出力部103及び表示部102
出力部103は、合成部229から、表示画像データを受信し、受信した表示画像データを表示部102に対して出力する。
(10) Output unit 103 and display unit 102
The output unit 103 receives display image data from the synthesizing unit 229 and outputs the received display image data to the display unit 102 .

表示部102は、出力部103から、表示画像データを受信し、受信した表示画像データを表示する。 The display unit 102 receives the display image data from the output unit 103 and displays the received display image data.

表示画像データは、表示データテーブル171に含まれる表示位置において、その幅及び高さにより、テキストデータを含む。また、位置情報により示される位置において、翻訳テキストデータを含む。 The display image data includes text data by its width and height at the display positions included in the display data table 171 . It also contains translation text data at the position indicated by the position information.

(11)主制御部101
主制御部101は、カメラ12a~12d、表示部102、出力部103、入力部105a~105d、顔認識処理部106、位置算出部107、視線視点算出部108、表示領域検出部109、表示制御部110、翻訳部111及び合成部229を、統一的に制御する。
(11) Main control unit 101
The main control unit 101 includes the cameras 12a to 12d, the display unit 102, the output unit 103, the input units 105a to 105d, the face recognition processing unit 106, the position calculation unit 107, the line-of-sight viewpoint calculation unit 108, the display area detection unit 109, and the display control. The unit 110, the translation unit 111, and the synthesizing unit 229 are controlled in an integrated manner.

1.3 表示部102により表示される画面の例示
図17は、表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。
1.3 Example of Screen Displayed by Display Unit 102 FIG. 17 shows an example of text data and translation text data displayed on the display unit 102 .

この図に示すように、表示部102には、第一表示領域301において、日本語により、「原因と対策」が表示されている。第一表示領域301には、視点311c、312c及び313cが存在する。 As shown in this figure, the first display area 301 of the display unit 102 displays "cause and countermeasure" in Japanese. The first display area 301 has viewpoints 311c, 312c and 313c.

視点311cは、位置311aに立ち、ユーザーID「U001」により識別されるユーザーが注ぐ視線311bの先にある。このユーザーの使用する言語は、「英語」である。また、視点312cは、位置312aに立ち、ユーザーID「U002」により識別されるユーザーが注ぐ視線312bの先にある。このユーザーの使用する言語は、「日本語」である。さらに、視点313cは、位置313aに立ち、ユーザーID「U003」により識別されるユーザーが注ぐ視線313bの先にある。このユーザーの使用する言語は、「スペイン語」である。 A viewpoint 311c is ahead of the line of sight 311b of the user identified by the user ID "U001" standing at the position 311a. The language used by this user is "English". Also, the viewpoint 312c is beyond the line of sight 312b of the user identified by the user ID "U002" standing at the position 312a. The language used by this user is "Japanese". Furthermore, the viewpoint 313c is beyond the line of sight 313b of the user identified by the user ID "U003" standing at the position 313a. The language used by this user is "Spanish".

このように、第一表示領域301には、日本語が表示され、視点311c、312c及び313cが存在し、視点311c及び313cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、それぞれ、英語及びスペイン語であるので、第一表示領域301に付随する第二表示領域401a及び401bには、それぞれ、英語及びスペイン語により、「Cause and Action」及び「Causa y Medidas」が表示されている。 Thus, Japanese is displayed in the first display area 301, the viewpoints 311c, 312c, and 313c exist, and the language used by the user looking at the viewpoints 311c and 313c is not the displayed Japanese. , are in English and Spanish respectively, the second display areas 401a and 401b associated with the first display area 301 display "Cause and Action" and "Causa y Medidas" in English and Spanish, respectively. It is

従って、第一表示領域301に視点に視線を注ぐ三人のユーザーは、第一表示領域301に付随する第二表示領域401a、401bが表示されていることにより、第一表示領域301に注目する他のユーザーの存在を知ることができる。また、第一表示領域301に視点に視線を注ぐ三人のユーザーは、第一表示領域301及び付随する第二表示領域401a、401bに表示された文字データの意味を理解することができ、三人のユーザーの間において、意思の疎通を図ることができる。 Therefore, the three users who focus their eyes on the first display area 301 pay attention to the first display area 301 because the second display areas 401a and 401b attached to the first display area 301 are displayed. Know the existence of other users. Also, three users who focus their eyes on the first display area 301 can understand the meaning of the character data displayed in the first display area 301 and the accompanying second display areas 401a and 401b. Communication can be achieved between human users.

また、表示部102には、第一表示領域302において、日本語により、「気温」が表示されている。第一表示領域302には、視点314cが存在する。 In addition, “temperature” is displayed in Japanese in the first display area 302 of the display unit 102 . A viewpoint 314 c exists in the first display area 302 .

視点314cは、位置314aに立ち、ユーザーID「U004」により識別されるユーザーの視線314bの先にある。このユーザーの使用する言語は、「ドイツ語」である。 Viewpoint 314c is beyond the line of sight 314b of the user standing at position 314a and identified by user ID "U004". The language used by this user is "German".

このように、第一表示領域302には、日本語が表示され、視点314cが存在し、視点314cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、ドイツ語であるので、第一表示領域302に付随する第二表示領域402には、ドイツ語により、「Temperatur」と表示されている。ただし、第一表示領域302には、一つの視点314cしか存在しないので、第二表示領域402において、「Temperatur」は、ハーフトーンにより表示される。 In this way, Japanese is displayed in the first display area 302, the viewpoint 314c is present, and the language used by the user looking at the viewpoint 314c is German, not the displayed Japanese. , a second display area 402 associated with the first display area 302 displays "Temperatur" in German. However, since only one viewpoint 314 c exists in the first display area 302 , “Temperatur” is displayed in halftone in the second display area 402 .

また、表示部102には、第一表示領域303において、日本語により、「太陽の軌道」が表示されている。第一表示領域303には、視点315c及び視点316cが存在する。 In addition, in the first display area 303 of the display unit 102, "the orbit of the sun" is displayed in Japanese. The first display area 303 has a viewpoint 315c and a viewpoint 316c.

視点315cは、位置315aに立ち、ユーザーID「U005」により識別されるユーザーの視線315bの先にある。このユーザーの使用する言語は、「英語」である。また、視点316cは、位置316aに立ち、ユーザーID「U006」により識別されるユーザーの視線316bの先にある。このユーザーの使用する言語は、「日本語」である。 Viewpoint 315c is beyond the line of sight 315b of the user standing at position 315a and identified by user ID "U005". The language used by this user is "English". Also, the viewpoint 316c is beyond the line of sight 316b of the user who stands at the position 316a and is identified by the user ID "U006". The language used by this user is "Japanese".

このように、第一表示領域303には、日本語が表示され、視点315c及び316cが存在し、視点315cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、英語であるので、第一表示領域303に付随する第二表示領域403には、英語により、「Sun’s career」と表示されている。 In this way, Japanese is displayed in the first display area 303, the viewpoints 315c and 316c are present, and the language used by the user looking at the viewpoint 315c is English, not the displayed Japanese. Therefore, in the second display area 403 attached to the first display area 303, "Sun's Career" is displayed in English.

従って、第一表示領域303に視点に視線を注ぐ二人のユーザーは、第一表示領域303及び付随する第二表示領域403が表示されていることにより、第一表示領域303に注目するユーザーの存在を知ることができる。また、第一表示領域303に視点に視線を注ぐ二人のユーザーは、第一表示領域303及び付随する第二表示領域403に表示された文字データの意味を理解することができ、二人のユーザーの間において、意思の疎通を図ることができる。 Therefore, two users who focus their eyes on the first display area 303 can see that the first display area 303 and the accompanying second display area 403 are displayed, so that the two users who pay attention to the first display area 303 existence can be known. Also, two users who focus their eyes on the first display area 303 can understand the meaning of the character data displayed in the first display area 303 and the accompanying second display area 403. Communication can be achieved between users.

また、表示部102には、第一表示領域304において、日本語により、「衛星写真」が表示されている。第一表示領域304には、視点が存在しない。このため、翻訳された文字データの表示もない。 In addition, “satellite photo” is displayed in Japanese in the first display area 304 of the display unit 102 . A viewpoint does not exist in the first display area 304 . Therefore, there is no display of translated character data.

(第一表示領域と第二表示領域との関係)
第一表示領域と、第一表示領域に付随する第二表示領域との位置の関係について、図18(a)~(d)を用いて、説明する。
(Relationship between first display area and second display area)
The positional relationship between the first display area and the second display area attached to the first display area will be described with reference to FIGS. 18(a) to (d).

図18(a)は、第一表示領域351aと第二表示領域352aとが接触している場合の一例を示す。このように、第一表示領域351aの一辺と、第二表示領域352aの一辺が接触してもよい。第一表示領域351aと第二表示領域352aとが接触しているので、第一表示領域351aと第二表示領域352aとの関係が明らかである。 FIG. 18A shows an example in which the first display area 351a and the second display area 352a are in contact with each other. Thus, one side of the first display area 351a and one side of the second display area 352a may contact each other. Since the first display area 351a and the second display area 352a are in contact, the relationship between the first display area 351a and the second display area 352a is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域に接触する第二表示領域の位置を示す位置情報を生成する。 In this case, the display control unit 110 (generating means) generates position information indicating the position of the second display area that contacts the first display area on the display surface.

図18(b)は、第一表示領域351bから、所定距離内に、第二表示領域352bが存する場合の一例を示す。このように、第一表示領域351bの近傍に、第二表示領域352bが存するとしてもよい。ここで、第一表示領域351bと第二表示領域352bとの距離は、例えば、第一表示領域351bの重心と、第二表示領域352bの重心との距離であるとしてもよい。また、所定距離は、例えば、第一表示領域351bと第二表示領域352bとが接触している場合における重心間の距離の2倍の距離であるとしてもよい。第一表示領域351bから、所定距離内に、第二表示領域352bが存するので、第一表示領域351bと第二表示領域352bとの関係が明らかである。 FIG. 18(b) shows an example in which the second display area 352b exists within a predetermined distance from the first display area 351b. In this way, the second display area 352b may exist in the vicinity of the first display area 351b. Here, the distance between the first display area 351b and the second display area 352b may be, for example, the distance between the center of gravity of the first display area 351b and the center of gravity of the second display area 352b. Also, the predetermined distance may be, for example, twice the distance between the centers of gravity when the first display area 351b and the second display area 352b are in contact with each other. Since the second display area 352b exists within a predetermined distance from the first display area 351b, the relationship between the first display area 351b and the second display area 352b is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域の近傍に存する第二表示領域の位置を示す位置情報を生成する。 In this case, the display control unit 110 (generating means) generates position information indicating the position of the second display area existing in the vicinity of the first display area on the display surface.

図18(c)は、第一表示領域351cに重複して、第二表示領域352cが存する場合の一例を示す。この場合、第一表示領域351cに表示されている文字が、第二表示領域352cに表示されている文字に重複しないことが好ましい。第一表示領域351cに重複して、第二表示領域352cが存するので、第一表示領域351cと第二表示領域352cとの関係が明らかである。 FIG. 18(c) shows an example in which a second display area 352c overlaps the first display area 351c. In this case, it is preferable that the characters displayed in the first display area 351c do not overlap the characters displayed in the second display area 352c. Since the second display area 352c exists overlapping the first display area 351c, the relationship between the first display area 351c and the second display area 352c is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域に重複する第二表示領域の位置を示す位置情報を生成する。 In this case, the display control unit 110 (generating means) generates position information indicating the position of the second display area overlapping the first display area on the display surface.

図18(d)は、第一表示領域351dに包含されて第二表示領域352dが存する場合の一例を示す。この場合、第一表示領域351dに表示されている文字が、第二表示領域352dに表示されている文字に重複しないことが好ましい。第一表示領域351dに包含されて第二表示領域352dが存するので、第一表示領域351dと第二表示領域352dとの関係が明らかである。 FIG. 18(d) shows an example in which a second display area 352d is included in the first display area 351d. In this case, it is preferable that the characters displayed in the first display area 351d do not overlap the characters displayed in the second display area 352d. Since the second display area 352d is included in the first display area 351d, the relationship between the first display area 351d and the second display area 352d is clear.

この場合、表示制御部110(生成手段)は、表示面上において第一表示領域に包含される第二表示領域の位置を示す位置情報を生成する。 In this case, the display control unit 110 (generating means) generates position information indicating the position of the second display area included in the first display area on the display surface.

次に、第一表示領域における表示と第二表示領域における表示との対応関係について、図18(e)~(h)を用いて、説明する。 Next, the correspondence relationship between the display in the first display area and the display in the second display area will be described with reference to FIGS. 18(e) to (h).

図18(e)は、第一表示領域351e内の背景に施されたハッチングパターンと、第二表示領域352e内の背景に施されたハッチングパターンとが一致する場合の一例を示す。さらに、ハッチングパターンの表示色が一致してもよい。このように、ハッチングパターンが同一であるので、第一表示領域351eと第二表示領域352eとの関係が明らかである。 FIG. 18(e) shows an example in which the hatching pattern applied to the background within the first display area 351e and the hatching pattern applied to the background within the second display area 352e match. Furthermore, the display colors of the hatching patterns may match. Since the hatching patterns are the same, the relationship between the first display area 351e and the second display area 352e is clear.

図18(f)は、第一表示領域351f内の背景に施されたドットパターンと、第二表示領域352f内の背景に施されたドットパターンとが一致する場合の一例を示す。さらに、ドットパターンの表示色が一致してもよい。このように、ドットパターンが同一であるので、第一表示領域351fと第二表示領域352fとの関係が明らかである。 FIG. 18(f) shows an example in which the dot pattern applied to the background within the first display area 351f and the dot pattern applied to the background within the second display area 352f match. Furthermore, the display colors of the dot patterns may match. Since the dot patterns are the same, the relationship between the first display area 351f and the second display area 352f is clear.

図18(g)は、第一表示領域351gと、第二表示領域352gとが、線画像353によりリンクされている場合の一例を示す。この図のように、二重線の線画像により、リンクされてもよいし、破線、一点鎖線、波線等の線画像により、リンクされているとしてもよい。このように、第一表示領域351gと、第二表示領域352gとが、線画像353によりリンクされているので、第一表示領域351gと第二表示領域352gとの関係が明らかである。 FIG. 18G shows an example in which the first display area 351g and the second display area 352g are linked by a line image 353. FIG. As shown in this figure, the link may be made by a line image of a double line, or may be made by a line image such as a dashed line, a dashed line, or a wavy line. Since the first display area 351g and the second display area 352g are thus linked by the line image 353, the relationship between the first display area 351g and the second display area 352g is clear.

図18(h)は、第一表示領域351hの枠の表示パターンと、第二表示領域352hの枠の表示パターンとが一致する場合の一例を示す。さらに、枠の表示色が一致してもよい。このように、枠の表示パターンが同一であるので、第一表示領域351hと第二表示領域352hとの関係が明らかである。 FIG. 18(h) shows an example in which the display pattern of the frame of the first display area 351h matches the display pattern of the frame of the second display area 352h. Furthermore, the display colors of the frames may match. Since the frame display patterns are the same, the relationship between the first display area 351h and the second display area 352h is clear.

また、第一表示領域内の文字の表示色と、第二表示領域内の文字の表示色が一致してもよい(不図示)。この場合、文字の表示色が同一であるので、第一表示領域内と第二表示領域内との関係が明らかである。 Also, the display color of the characters in the first display area and the display color of the characters in the second display area may be the same (not shown). In this case, since the display colors of the characters are the same, the relationship between the inside of the first display area and the inside of the second display area is clear.

なお、第一表示領域の表示色と、第一表示領域と対応関係がない第二表示領域の表示色とは、異なる色となるようにする。また、対応関係がない第一表示領域の表示パターンと第二表示領域の表示パターンとは、異なるパターンとなるようにする。 The display color of the first display area and the display color of the second display area, which has no correspondence with the first display area, should be different colors. Also, the display pattern of the first display area and the display pattern of the second display area, which have no corresponding relationship, are made to be different patterns.

上記の場合に、表示制御部110(生成手段)は、第一表示領域内における表示色又は表示パターンと、第二表示領域内における表示色又は表示パターンとを示す同一の色パターン情報を生成してもよい。また、表示制御部110(出力手段)は、表示色又は表示パターンを用いて表示させるため、色パターン情報を、合成部229に対して出力してもよい。 In the above case, the display control unit 110 (generating means) generates the same color pattern information indicating the display color or display pattern in the first display area and the display color or display pattern in the second display area. may In addition, the display control unit 110 (output unit) may output color pattern information to the synthesizing unit 229 in order to perform display using display colors or display patterns.

1.4 動作
翻訳表示装置1の動作について、図19~図20に示すフローチャートを用いて説明する。
1.4 Operation The operation of the translation display device 1 will be described with reference to the flow charts shown in FIGS. 19 and 20. FIG.

表示部102は、表示制御部110の制御により、表示データテーブル171に含まれる全ての表示データ関連情報について、その表示位置において、その幅及び高さにより、テキストデータを表示する。ここで、表示されるテキストデータの元になる言語を第一言語と呼ぶ(ステップS101)。 Under the control of the display control unit 110, the display unit 102 displays the text data of all the display data related information included in the display data table 171 at the display position with the width and height. Here, the language from which the text data to be displayed is based is called the first language (step S101).

次に、カメラ12a~12dは、それぞれ、対象を撮影して、画像データを生成し、生成した画像データを、入力部105a~105dを介して、記憶部104に、書き込む。顔認識処理部106は、記憶部104から画像データを取得する(ステップS102)。 Next, the cameras 12a to 12d respectively photograph an object, generate image data, and write the generated image data to the storage unit 104 via the input units 105a to 105d. The face recognition processing unit 106 acquires image data from the storage unit 104 (step S102).

次に、顔認識処理部106は、取得した画像データからユーザーの顔を検出する(ステップS103)。次に、位置算出部107は、取得した画像データからユーザーの立ち位置を検出する(ステップS104)。次に、顔認識処理部106は、ユーザー属性テーブル191及びユーザーの顔画像データを用いて、ユーザーを特定する(ステップS105)。 Next, the face recognition processing unit 106 detects the user's face from the acquired image data (step S103). Next, the position calculation unit 107 detects the standing position of the user from the acquired image data (step S104). Next, the face recognition processing unit 106 identifies the user using the user attribute table 191 and the user's face image data (step S105).

次に、視線視点算出部108は、ユーザーの顔の水平方向の向きを算出し(ステップS106)、続いて、ユーザーの顔の鉛直方向からの傾きを算出する(ステップS107)。続いて、視線視点算出部108は、ユーザーの顔の水平方向の向き及びユーザーの顔の鉛直方向からの傾きを用いて、ユーザーの視線を算出し(ステップS108)、続いて、表示部102の表示面におけるユーザーの視点を算出する(ステップS109)。 Next, the line-of-sight point calculation unit 108 calculates the horizontal orientation of the user's face (step S106), and then calculates the inclination of the user's face from the vertical direction (step S107). Next, the line-of-sight point calculation unit 108 calculates the user's line of sight using the horizontal orientation of the user's face and the tilt of the user's face from the vertical direction (step S108). The user's viewpoint on the display surface is calculated (step S109).

次に、表示制御部110は、表示領域テーブル181に含まれる表示領域情報毎に、ステップS111~S124を繰り返す(ステップS110~S125)。 Next, the display control unit 110 repeats steps S111 to S124 for each display area information included in the display area table 181 (steps S110 to S125).

表示制御部110は、一つの第一表示領域について、複数のユーザーの視点が、一つの第一表示領域内に存在するか否かを判断する。具体的には、表示制御部110は、一つの表示領域情報が、複数のユーザーIDを含むか否かを判断する(ステップS111)。 The display control unit 110 determines, for one first display area, whether or not the viewpoints of a plurality of users exist within one first display area. Specifically, the display control unit 110 determines whether or not one piece of display area information includes a plurality of user IDs (step S111).

複数のユーザーの視点が、一つの第一表示領域内に存在する場合、つまり、一つの表示領域情報が複数のユーザーIDを含む場合(ステップS111で「YES」)、表示制御部110は、これらの複数のユーザーの使用言語をユーザー属性テーブル191から取得し、取得した複数のユーザーの使用言語のうちの少なくとも一つの使用言語を第二言語に決定する。ただし、第二言語を決定する際に、第一言語を除く(ステップS112)。次に、翻訳部111は、テキストデータを翻訳して翻訳テキストデータを取得する(ステップS113)。次に、表示制御部110は、第一表示領域に付随するように、翻訳テキストデータを表示すべき第二表示領域を設定する(ステップS114)。次に、表示制御部110は、翻訳テキストデータ及び第二表示領域の位置を示す位置情報を合成部229に対して出力する(ステップS115)。次に、表示部102は、第二表示領域において、第二テキストデータを含む表示画像データを表示する(ステップS116)。 When multiple user viewpoints exist within one first display area, that is, when one display area information includes multiple user IDs ("YES" in step S111), display control unit 110 The languages used by the plurality of users are acquired from the user attribute table 191, and at least one of the languages used by the acquired users is determined as the second language. However, when determining the second language, the first language is excluded (step S112). Next, the translation unit 111 translates the text data and acquires translation text data (step S113). Next, display control unit 110 sets a second display area in which the translated text data should be displayed so as to accompany the first display area (step S114). Next, the display control unit 110 outputs the translation text data and position information indicating the position of the second display area to the synthesizing unit 229 (step S115). Next, the display unit 102 displays the display image data including the second text data in the second display area (step S116).

複数のユーザーの視点が、一つの第一表示領域内に存在しない場合、つまり、一つの表示領域情報が複数のユーザーIDを含まない場合(ステップS111で「NO」)、表示制御部110は、一人のユーザーの視点のみが一つの第一表示領域内に存在するか否かを判断、つまり、一つの表示領域情報が、一つのユーザーIDのみを含むか否かを判断する(ステップS119)。 When the viewpoints of multiple users do not exist within one first display area, that is, when one display area information does not include multiple user IDs ("NO" in step S111), the display control unit 110 It is determined whether or not only one user's viewpoint exists within one first display area, that is, whether or not one display area information includes only one user ID (step S119).

一人のユーザーの視点のみが一つの第一表示領域内に存在する場合、つまり、一つの表示領域情報が、一つのユーザーIDのみを含む場合(ステップS119で「YES」)、表示制御部110は、当該一人のユーザーの使用言語をユーザー属性テーブル191から取得し、表示テキストデータの使用言語(第一言語)とユーザーの使用言語が一致するか否かを判断する(ステップS120)。表示テキストデータの使用言語とユーザーの使用言語が一致しない場合(ステップS120で「NO」)、翻訳部111は、テキストデータを翻訳して翻訳テキストデータを取得し(ステップS121)、次に、表示制御部110は、例えば、第一表示領域に付随するように、翻訳テキストデータを表示すべき第二表示領域を設定する(ステップS122)。次に、表示制御部110は、翻訳テキストデータ及び第二表示領域の位置を示す位置情報を合成部229に対して出力する(ステップS123)。次に、表示部102は、第二表示領域において、第二テキストデータを含む表示画像データを表示する。このとき、第二表示領域において、第二テキストデータは、ハーフトーンにより、表示される(ステップS124)。 When only one user's viewpoint exists within one first display area, that is, when one display area information includes only one user ID ("YES" in step S119), the display control unit 110 , the language used by the one user is obtained from the user attribute table 191, and it is determined whether or not the language used (first language) of the display text data matches the language used by the user (step S120). If the language used in the display text data and the language used by the user do not match ("NO" in step S120), the translation unit 111 translates the text data and acquires translated text data (step S121). Control unit 110 sets, for example, a second display area in which the translation text data should be displayed so as to accompany the first display area (step S122). Next, the display control unit 110 outputs the translated text data and position information indicating the position of the second display area to the synthesizing unit 229 (step S123). Next, the display unit 102 displays the display image data including the second text data in the second display area. At this time, the second text data is displayed in halftone in the second display area (step S124).

表示テキストデータの使用言語(第一言語)とユーザーの使用言語が一致する場合(ステップS120で「YES」)、表示制御部110は、何もしない。 If the language used (first language) of the display text data matches the language used by the user ("YES" in step S120), display control unit 110 does nothing.

また、ユーザーの視点が一つの第一表示領域内に存在しない場合、つまり、一つの表示領域情報が、ユーザーIDを含まない場合(ステップS119で「NO」)、表示制御部110は、何もしない。 Further, when the user's viewpoint does not exist within one first display area, that is, when one display area information does not include the user ID ("NO" in step S119), the display control unit 110 do not do.

ステップS111~S124の繰り返しが終了すると、表示制御部110は、制御をステップS102へ移し、処理を繰り返す。 After repeating steps S111 to S124, the display control unit 110 shifts the control to step S102 and repeats the process.

1.5 まとめ
以上説明したように、上記の実施の形態によると、第一言語によりテキストデータが表示されている第一表示領域に、複数のユーザーの視点が存するときに限り、これらの視点に視線を注ぐ複数のユーザーの使用する第二言語(第一言語を除く)により、テキストデータを変換して、第一表示領域に付随する第二表示領域に、翻訳テキストデータを表示する。
1.5 Summary As described above, according to the above embodiment, only when a plurality of users' viewpoints exist in the first display area in which the text data is displayed in the first language, these viewpoints can be displayed. Text data is converted according to a second language (other than the first language) used by a plurality of users who are watching, and the translated text data is displayed in a second display area attached to the first display area.

このように第一表示領域に付随する第二表示領域に翻訳テキストデータが表示されることにより、複数のユーザーが第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人のユーザーは、自分以外にも、第一表示領域に注目しているユーザーが存在し、そのユーザーが、自分と同様に、第一表示領域に表示されているテキストデータに関心を持っていることを知ることができる。その結果、複数のユーザーの間で、意思疎通を図ることができる。また、第二表示領域には、翻訳テキストデータが表示されるので、第一言語を理解できないユーザーであっても、第一表示領域に表示されたテキストデータの意味を知ることができる。 By displaying the translated text data in the second display area attached to the first display area in this way, it can be seen that a plurality of users are paying attention to the first display area. In other words, one user who is paying attention to the first display area has another user who is also paying attention to the first display area, and that user, like himself, is also paying attention to the first display area. You can know that you are interested in the text data that is being processed. As a result, communication can be achieved among a plurality of users. Also, since the translated text data is displayed in the second display area, even a user who cannot understand the first language can understand the meaning of the text data displayed in the first display area.

2 変形例
本発明について、上記の実施の形態に基づいて説明しているが、上記の実施の形態に限定されない。以下に示すようにしてもよい。
2 Modifications Although the present invention has been described based on the above embodiments, it is not limited to the above embodiments. You may make it show below.

2.1 変形例(1)
上記の実施の形態においては、図5に示すように、第一表示領域301にユーザーの視点311c、312c、313cが集まった場合であっても、第一表示領域301の大きさは、変更されない。しかし、本発明は、これには限定されない。
2.1 Modification (1)
In the above embodiment, as shown in FIG. 5, even when the user's viewpoints 311c, 312c, and 313c are gathered in the first display area 301, the size of the first display area 301 is not changed. . However, the invention is not so limited.

表示部102の第一表示領域内に多くのユーザーの視点が集まる場合に、第一表示領域を大きくしてもよい。また、第一表示領域に付随して表示される第二表示領域も大きく表示してもよい。 When the viewpoints of many users gather within the first display area of the display unit 102, the first display area may be enlarged. Also, the second display area displayed in conjunction with the first display area may be displayed in a large size.

図21(a)は、表示部102に表示されるテキストデータとユーザーの立ち位置との関係を示す。また、図21(b)は、翻訳表示装置1の表示部102に大きく表示されるテキストデータ及び翻訳テキストデータの一例を示す。 FIG. 21(a) shows the relationship between the text data displayed on the display unit 102 and the standing position of the user. FIG. 21(b) shows an example of text data and translation text data displayed in a large size on the display unit 102 of the translation display device 1. FIG.

図21(a)に示すように、第一表示領域301に対して、多くのユーザーの視点が集まって存在している。一方で、第一表示領域302、303、304に対して、ユーザーの視点は集まっていない。 As shown in FIG. 21( a ), many users' viewpoints are concentrated on the first display area 301 . On the other hand, the first display areas 302, 303, and 304 are not focused on by the user.

このような場合に、第一表示領域301を大きくし、図21(b)に示すように、第一表示領域421aとするとともに、第一表示領域421aに付随する第二表示領域421b及び421cも大きくしてもよい。 In such a case, the first display area 301 is enlarged to form a first display area 421a as shown in FIG. You can make it bigger.

また、この場合、図21(a)の第一表示領域302、303、304を小さくし、その幅を細くしてもよい。また、図21(b)に示すように、第一表示領域421a並びに第二表示領域421b及び421cの余白領域に、その余白領域の形状に合わせて、図21(a)の第一表示領域302、303、304の形状を変形して、第一表示領域422、423、424のように、表示してもよい。例えば、図21(a)においては、第一表示領域302、303、304は、Y軸方向に長尺であるが、図21(b)においては、第一表示領域422、423、424は、X軸方向に長尺である。 Moreover, in this case, the first display areas 302, 303, and 304 in FIG. Also, as shown in FIG. 21(b), the first display area 302 in FIG. , 303 and 304 may be modified and displayed as first display areas 422 , 423 and 424 . For example, in FIG. 21(a), the first display areas 302, 303, 304 are long in the Y-axis direction, but in FIG. 21(b), the first display areas 422, 423, 424 are It is long in the X-axis direction.

具体的には、表示制御部110(視点判断手段)は、第三表示領域内に存する複数の視点の数が、所定数以上であるか否かを判断してもよい。表示制御部110(生成手段)は、さらに、複数の視点の数が所定数以上である場合、第三表示領域を拡大した拡大領域の位置を示す拡大位置情報を生成する。表示制御部110(出力手段)は、さらに、拡大位置情報により示される拡大領域に、テキストデータを表示させるため、拡大位置情報を合成部229に対して出力する。 Specifically, the display control unit 110 (viewpoint determination means) may determine whether or not the number of multiple viewpoints present in the third display area is equal to or greater than a predetermined number. When the number of viewpoints is equal to or greater than a predetermined number, the display control unit 110 (generating means) further generates enlarged position information indicating the position of an enlarged area obtained by enlarging the third display area. The display control unit 110 (output means) further outputs the enlarged position information to the synthesizing unit 229 in order to display the text data in the enlarged area indicated by the enlarged position information.

また、複数の視点の数が所定数以上である場合、表示制御部110は、さらに、第二表示領域を拡大した領域の位置を示す第二拡大位置情報を生成し、翻訳テキストデータを拡大してもよい。表示制御部110は、さらに、第二拡大位置情報により示される拡大された第二表示領域に拡大された翻訳テキストデータを表示させるため、第二拡大位置情報及び拡大された翻訳テキストデータを合成部229に対して出力する
ここで、第三表示領域内に存する複数の視点の数が、所定数以上であるとは、例えば、第三表示領域内に存する複数の視点の数が、表示部102の表示面に存する全ての視点の数のうちの25%(又は、50%、75%、90%でもよい。)以上であることをいう。
Further, when the number of viewpoints is equal to or greater than a predetermined number, display control section 110 further generates second enlarged position information indicating the position of an enlarged area of the second display area, and enlarges the translated text data. may The display control unit 110 further synthesizes the second enlargement position information and the enlarged translation text data in order to display the enlarged translation text data in the enlarged second display area indicated by the second enlargement position information. 229. Here, the fact that the number of viewpoints existing in the third display area is equal to or greater than a predetermined number means that, for example, the number of viewpoints existing in the third display area 25% (or 50%, 75%, or 90%) or more of the total number of viewpoints present on the display surface.

このように、変形例(1)によると、第三表示領域内に多くのユーザーの視点が集まる場合に、第三表示領域を大きくし、第三表示領域に付随して表示される第二表示領域も大きくし、さらに、表示されるテキストデータ及び翻訳テキストデータを大きくしている。 As described above, according to the modification (1), when many users' viewpoints gather in the third display area, the third display area is enlarged, and the second display is displayed accompanying the third display area. The area is also enlarged, and the displayed text data and translation text data are also enlarged.

このため、第三表示領域に注目するユーザーは、大きく表示されたテキストデータ及び翻訳テキストデータにより、これらの文字をはっきりと視認できる。 Therefore, the user who pays attention to the third display area can clearly see these characters by the large displayed text data and the translated text data.

2.2 変形例(2)
上記の実施の形態においては、図17に示すように、第一表示領域301、302、303、304内に表示されるテキストデータ内の各文字は、X軸正方向からX軸負方向に見て、正立している。また、第二表示領域401a、401b、402、403に表示される翻訳テキストデータについても、同様である。しかし、本発明は、これには、限定されない。
2.2 Modification (2)
In the above embodiment, as shown in FIG. 17, each character in the text data displayed in the first display areas 301, 302, 303, 304 is viewed from the positive direction of the X-axis to the negative direction of the X-axis. upright. The translation text data displayed in the second display areas 401a, 401b, 402, and 403 are also the same. However, the invention is not so limited.

ユーザーの視線の向きや、ユーザーの立ち位置に応じて、これらのユーザーに見やすいように、第一表示領域及び第二表示領域にそれぞれ表示されるテキストデータ内の各文字及び翻訳テキストデータ内の各文字が正立して見えるように、テキストデータ及び翻訳テキストデータの向きを調整してもよい。 Each character in the text data and each character in the translation text data displayed in the first display area and the second display area, respectively, according to the direction of the user's line of sight and the user's standing position, so that these users can easily see The orientation of the text data and the translation text data may be adjusted so that the characters appear erect.

図22は、翻訳表示装置1の表示部102に表示されるテキストデータ及び翻訳テキストデータとユーザーの立ち位置との関係、及び、表示部102に表示されるテキストデータ及び翻訳テキストデータの一例を示す。 FIG. 22 shows an example of the relationship between the text data and translation text data displayed on the display unit 102 of the translation display device 1 and the standing position of the user, and an example of the text data and translation text data displayed on the display unit 102. .

図5と同様に、この図においても、表示部102には、第一表示領域301において、日本語により、「原因と対策」が表示されている。第一表示領域301には、視点311c、312c及び313cが存在する。これらの視点に視線を注ぐユーザーの立ち位置等についても、図5と同じである。 As in FIG. 5, also in this figure, the first display area 301 of the display unit 102 displays "cause and countermeasure" in Japanese. The first display area 301 has viewpoints 311c, 312c and 313c. The standing position of the user who looks at these viewpoints is the same as in FIG.

このように、第一表示領域301には、日本語(第一言語)が表示され、視点311c、312c及び313cが存在し、視点311c及び313cに視線を注ぐユーザーが使用する言語は、表示された日本語ではなく、それぞれ、英語及びスペイン語(第二言語)であるので、図5と同様に、第一表示領域301に付随する第二表示領域433及び432には、それぞれ、英語及びスペイン語により、「Cause and Action」及び「Causa y Medidas」と表示されている。 Thus, Japanese (first language) is displayed in the first display area 301, the viewpoints 311c, 312c, and 313c are present, and the language used by the user looking at the viewpoints 311c and 313c is displayed. English and Spanish (second language), respectively, instead of Japanese, are displayed in the second display areas 433 and 432 attached to the first display area 301 in the same manner as in FIG. The words are labeled "Cause and Action" and "Causa y Medidas".

ただし、図5と異なるのは、第二表示領域433及び432には、視点311c及び313cに視線を注ぐユーザーの立ち位置から見て、それぞれの表示文字が正立して見えるようにしている点である。さらに、第二表示領域431にも、視点312cに視線を注ぐユーザーの立ち位置から見て、日本語による文字データが正立して見えるようにしている。 However, what is different from FIG. 5 is that in the second display areas 433 and 432, the displayed characters appear erect when viewed from the standing position of the user who focuses his/her line of sight on the viewpoints 311c and 313c. is. Furthermore, in the second display area 431, the character data written in Japanese can be seen upright when viewed from the standing position of the user who looks at the viewpoint 312c.

第一表示領域302に付随する第二表示領域434及び第一表示領域303に付随する第二表示領域435についても、同様である。 The same applies to the second display area 434 associated with the first display area 302 and the second display area 435 associated with the first display area 303 .

具体的には、表示制御部110(生成手段)は、翻訳テキストデータを構成する文字が、ユーザーの立ち位置から、正立して見えるように、翻訳テキストデータを回転させて配した画像データを生成する。表示制御部110(出力手段)は、画像データを出力する。表示部102は、第二表示領域に翻訳テキストデータを回転させて配した画像データを表示する。 Specifically, the display control unit 110 (generating means) generates image data in which the translated text data is rotated so that the characters constituting the translated text data can be viewed upright from the user's standing position. Generate. The display control unit 110 (output means) outputs image data. The display unit 102 displays image data obtained by rotating the translated text data in the second display area.

このように、ユーザーの視線の向きや、ユーザーの立ち位置に応じて、表示内容が正立して見えるので、表示内容に対するユーザーの理解を促進することができる。 In this manner, the displayed content appears to be upright according to the direction of the user's line of sight and the user's standing position, thereby promoting the user's understanding of the displayed content.

2.3 変形例(3)
上記の実施の形態においては、翻訳表示装置1の天板の4つの隅に設けられた4台のカメラ12a、12b、12c及び12dにより撮影されたユーザーの画像を用いて、ユーザーの視線方向及びユーザーの表示部102の表示面における視点を求めている。しかし、本発明は、これには限定されない。
2.3 Modification (3)
In the above embodiment, the images of the user captured by the four cameras 12a, 12b, 12c, and 12d provided at the four corners of the top plate of the translation display device 1 are used to determine the line-of-sight direction of the user and The user's viewpoint on the display surface of the display unit 102 is sought. However, the invention is not so limited.

変形例(3)としての翻訳表示システム501は、表示面上の一部の第一表示領域に第一言語により表記されたテキストデータを第二言語に翻訳して表示するシステムであって、図23に示すように、モニター511、翻訳装置512及びユーザーの顔面に装着されるメガネ513、514、515から構成されている、としてもよい。モニター511と翻訳装置512とは、ケーブル516により接続されている。 A translation display system 501 as a modified example (3) is a system that translates text data written in a first language into a second language and displays it in a partial first display area on the display surface. 23, it may consist of a monitor 511, a translation device 512, and glasses 513, 514, 515 worn on the user's face. The monitor 511 and translation device 512 are connected by a cable 516 .

翻訳表示システム501は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分をメガネ513、514、515に置き換え、翻訳表示装置1における表示部102をモニター511に置き換えたものである。 The translation display system 501 is obtained by replacing the structural parts for detecting the user's viewpoint with glasses 513, 514, and 515 in the translation display device 1 according to the embodiment, and replacing the display unit 102 in the translation display device 1 with a monitor 511. be.

このため、翻訳装置512は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分及び表示部102を除く残りの構成部分により、構成されている。 For this reason, the translation device 512 is composed of the remaining components of the translation display device 1 according to the embodiment, excluding the structural portion for detecting the viewpoint of the user and the display unit 102 .

メガネ513は、翻訳装置512との間で、近距離無線により、通信を行う。メガネ514、515も、メガネ513と同様に、翻訳装置512との間で、近距離無線により、通信を行う。 The glasses 513 communicate with the translation device 512 by short-range wireless communication. The glasses 514 and 515 also communicate with the translation device 512 by short-range wireless, like the glasses 513 .

メガネ513のフレーム部分には、メガネ513を装着したユーザーの視線方向を撮影するカメラ513a及び算出部が配置されている。カメラ513aは、ユーザーの視線方向を撮影して画像データを生成し、算出部は、生成した画像データの中央部に写るオブジェクトの位置を視点として算出し、算出した視点を翻訳装置512に対して出力する。メガネ514、515も、メガネ513と同じ構造を有する。 A camera 513 a that captures the line-of-sight direction of the user wearing the glasses 513 and a calculator are arranged in the frame portion of the glasses 513 . The camera 513a captures the line-of-sight direction of the user and generates image data. Output. Glasses 514 and 515 also have the same structure as glasses 513 .

翻訳装置512は、メガネ513、514、515から、モニター511の表示面に注視する複数のユーザーの当該表示面におけるそれぞれの視点を取得し、取得した前記視点のうち、複数の視点が第一表示領域内に存するか否かを判断し、第一表示領域内に複数の視点が存する場合に限り、第一言語を除いて、当該複数の視点に視線を注ぐ複数のユーザーがそれぞれ理解する複数の言語のうち、少なくとも一つの言語を、第二言語として決定し、第一表示領域に表記されているテキストデータを、当該テキストデータの意味内容に関連し、前記第二言語により表現された翻訳テキストデータに翻訳し、表示面上において、第一表示領域に付随する第二表示領域の位置を示す位置情報を生成し、翻訳テキストデータ及び位置情報をモニター511に対して出力する。 Translation device 512 acquires, from glasses 513, 514, and 515, respective viewpoints on the display surface of a plurality of users who are gazing at the display surface of monitor 511, and among the acquired viewpoints, a plurality of viewpoints are displayed as the first display. Only when multiple viewpoints exist within the first display area, multiple users who focus their eyes on the multiple viewpoints except for the first language understand each of the multiple viewpoints. At least one of the languages is determined as a second language, and the text data written in the first display area is related to the semantic content of the text data and translated text expressed in the second language. It translates the data into data, generates position information indicating the position of the second display area attached to the first display area on the display surface, and outputs the translated text data and the position information to the monitor 511 .

モニター511は、表示面を有し、表示面の第一表示領域にテキストデータを表示し、翻訳テキストデータ及び位置情報を受信し、位置情報により示される第二表示領域に、翻訳テキストデータを表示する。 The monitor 511 has a display surface, displays the text data in a first display area of the display surface, receives the translated text data and position information, and displays the translated text data in a second display area indicated by the position information. do.

(まとめ)
以上説明したように、変形例(3)によると、第一表示領域に付随する第二表示領域に翻訳テキストデータが表示されることにより、複数のユーザーが第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人のユーザーは、自分以外にも、第一表示領域に注目しているユーザーが存在し、そのユーザーが、自分と同様に、第一表示領域に表示されているテキストデータに関心を持っていることを知ることができる。
(summary)
As described above, according to the modified example (3), by displaying the translated text data in the second display area attached to the first display area, a plurality of users are paying attention to the first display area. I understand. In other words, one user who is paying attention to the first display area has another user who is also paying attention to the first display area, and that user, like himself, is also paying attention to the first display area. You can know that you are interested in the text data that is being processed.

この結果として、第一表示領域に視点を注ぐ複数のユーザーの間の意思疎通を図ることができる。 As a result, it is possible to facilitate communication between a plurality of users who focus their eyes on the first display area.

2.4 変形例(4)
上記の実施の形態においては、翻訳表示装置1の天板の4つの隅に設けられた4台のカメラ12a、12b、12c及び12dにより撮影されたユーザーの画像を用いて、ユーザーの視線方向及びユーザーの表示部102の表示面における視点を求めている。しかし、本発明は、これには限定されない。
2.4 Modification (4)
In the above embodiment, the images of the user captured by the four cameras 12a, 12b, 12c, and 12d provided at the four corners of the top plate of the translation display device 1 are used to determine the line-of-sight direction of the user and The user's viewpoint on the display surface of the display unit 102 is sought. However, the invention is not so limited.

変形例(4)として、図24(a)に概略構成を示す翻訳表示システム531は、表示面上の一部の第一表示領域に第一言語により表示されたテキストデータを第二言語により翻訳して表示するシステムであって、ホワイトボード532、翻訳装置536、ユーザーの顔面に装着されるメガネ533、534、535から構成されている。 As a modified example (4), a translation display system 531, whose schematic configuration is shown in FIG. This system is composed of a whiteboard 532, a translation device 536, and glasses 533, 534, and 535 worn on the user's face.

翻訳表示システム531は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分及び表示部102を、メガネ533、534、535に置き換えたものである。 A translation display system 531 is obtained by replacing the structural portion for detecting the viewpoint of the user and the display unit 102 in the translation display device 1 according to the embodiment with glasses 533 , 534 , and 535 .

このため、翻訳装置536は、実施の形態における翻訳表示装置1における、ユーザーの視点を検出する構造部分及び表示部102を除く残りの構成部分により、構成されている。 For this reason, the translation device 536 is composed of the remaining configuration parts of the translation display device 1 according to the embodiment except for the structural part for detecting the user's viewpoint and the display unit 102 .

メガネ533は、翻訳装置536との間で、近距離無線により、通信を行う。メガネ534、535も、メガネ533と同様に、翻訳装置536との間で、近距離無線により、通信を行う。 The glasses 533 communicate with the translation device 536 by short-range wireless communication. The glasses 534 and 535 also communicate with the translation device 536 by short-range wireless, like the glasses 533 .

ホワイトボード532は、表示面を有する。 Whiteboard 532 has a display surface.

メガネ533は、ユーザーの顔面に装着され、カメラ533aを備えたメガネ型の表示装置である。カメラ533aにより、ユーザーの視線方向を撮影して画像データを生成し、生成した画像データの中央部に写るオブジェクトの位置を視点として算出し、算出した視点を、近距離無線により、翻訳装置536に対して送信する。また、メガネ533は、撮影により取得した画像データを表示する。 The glasses 533 are a glasses-type display device that is worn on the user's face and equipped with a camera 533a. The camera 533a captures the line-of-sight direction of the user to generate image data, the position of the object appearing in the center of the generated image data is calculated as a viewpoint, and the calculated viewpoint is sent to the translation device 536 via short-range wireless communication. send to. Also, the glasses 533 display image data obtained by photographing.

メガネ534、535も、メガネ533と同じ構成を有している。 Glasses 534 and 535 also have the same configuration as glasses 533 .

翻訳装置536は、メガネ533、534、535から、ホワイトボード532の表示面に注視する複数のユーザーの当該表示面におけるそれぞれの視点を取得し、取得した前記視点のうち、複数の視点が第一表示領域内に存するか否かを判断し、第一表示領域内に複数の視点が存する場合に限り、第一言語を除いて、当該複数の視点に視線を注ぐ複数のユーザーがそれぞれ理解する複数の言語のうち、少なくとも一つの言語を、第二言語として決定し、第一表示領域に表記されているテキストデータを、第二言語法に翻訳し、表示面上において第一表示領域に付随する第二表示領域の位置を示す位置情報を生成し、翻訳テキストデータ及び位置情報をメガネ533、534、535に対して、近距離無線により、送信する。 Translation device 536 acquires, from glasses 533, 534, and 535, respective viewpoints on the display surface of whiteboard 532 of a plurality of users who are gazing at the display surface. It is determined whether or not it exists within the display area, and only when multiple viewpoints exist within the first display area, multiple users who focus their eyes on the multiple viewpoints except for the first language understand each of the multiple viewpoints. Determine at least one of the languages as the second language, translate the text data written in the first display area into the second language method, and attach it to the first display area on the display surface Positional information indicating the position of the second display area is generated, and the translation text data and the positional information are transmitted to the glasses 533, 534, 535 by short-range wireless communication.

メガネ533、534、535は、翻訳装置536から、近距離無線により、翻訳テキストデータ及び第二表示領域の位置を示す位置情報を受信し、受信した位置情報により示される第二表示領域に、受信した翻訳テキストデータを表示する。 The glasses 533, 534, and 535 receive the translation text data and the position information indicating the position of the second display area from the translation device 536 by short-range wireless communication, and display the received position information in the second display area indicated by the received position information. display translated text data.

(まとめ)
以上説明したように、変形例(4)によると、第一表示領域に付随する第二表示領域に翻訳テキストデータが表示されることにより、複数のユーザーが第一表示領域に注目していることがわかる。つまり、第一表示領域に注目している一人のユーザーは、自分以外にも、第一表示領域に注目しているユーザーが存在し、そのユーザーが、自分と同様に、第一表示領域に表示されているテキストデータに関心を持っていることを知ることができる。
(summary)
As described above, according to the modified example (4), by displaying the translated text data in the second display area attached to the first display area, a plurality of users are paying attention to the first display area. I understand. In other words, one user who is paying attention to the first display area has another user who is also paying attention to the first display area, and that user, like himself, is also paying attention to the first display area. You can know that you are interested in the text data that is being processed.

この結果として、第一表示領域に視点を注ぐ複数のユーザーの間の意思疎通を図ることができる。 As a result, it is possible to facilitate communication between a plurality of users who focus their eyes on the first display area.

2.5 その他の変形例
(1)上記実施の形態では、表示部102は、テキストデータ及び翻訳テキストデータの両方を表示している。つまり、図17に示すように、表示部102は、第一表示領域301にテキストデータを表示し、第一表示領域301に付随する第二表示領域401a、401bに、翻訳テキストデータを表示している。しかし、これには、限定されない。
2.5 Other Modifications (1) In the above embodiment, the display unit 102 displays both text data and translation text data. That is, as shown in FIG. 17, the display unit 102 displays the text data in the first display area 301, and displays the translated text data in the second display areas 401a and 401b attached to the first display area 301. there is However, it is not limited to this.

表示部102は、テキストデータに代えて、第一表示領域301に、翻訳テキストデータを表示してもよい。 The display unit 102 may display the translated text data in the first display area 301 instead of the text data.

具体的には、表示制御部110(生成手段)は、第一表示領域の位置を示す位置情報を生成し、表示制御部110(出力手段)は、第二表示領域として、第一表示領域に翻訳テキストデータを表示させるため、生成された位置情報を出力してもよい。 Specifically, the display control unit 110 (generating means) generates position information indicating the position of the first display area, and the display control unit 110 (output means) outputs the position information to the first display area as the second display area. The generated location information may be output to display the translated text data.

第一表示領域に、複数のユーザーの視点が存在するとき、これらの視点に視線を注ぐ複数のユーザーのうち、第一言語を使用するユーザーがいないのであれば、表示面を有効に使用することができる。 When the viewpoints of multiple users exist in the first display area, if none of the users who focus their eyes on these viewpoints uses the first language, the display surface can be used effectively. can be done.

(2)上記実施の形態では、図17に示すように、表示部102は、第一表示領域301にテキストデータを表示し、第一表示領域301に付随する第二表示領域401a、401bに、翻訳テキストデータを表示している。しかし、これには、限定されない。 (2) In the above embodiment, as shown in FIG. 17, the display unit 102 displays text data in the first display area 301, and displays text data in the second display areas 401a and 401b attached to the first display area 301. Displaying translated text data. However, it is not limited to this.

表示制御部110(空白判断手段)は、第一表示領域の周辺に、翻訳テキストデータを表示するために十分な大きさの空白領域が存在するか否かを判断してもよい。つまり、翻訳テキストデータの表示サイズよりも大きく、文字の表示されていない空白領域が存在するか否かを判断する。空白領域が存在すると判断する場合に、表示制御部110(生成手段)は、当該空白領域内において、第二表示領域の位置を示す位置情報を生成し、表示制御部110は、表示部102に、第一表示領域の周辺の空白領域に翻訳文字データを表示させる、としてもよい。 The display control unit 110 (blank determination means) may determine whether or not there is a blank area large enough to display the translation text data around the first display area. In other words, it is determined whether or not there is a blank area that is larger than the display size of the translation text data and in which no characters are displayed. When determining that a blank area exists, the display control unit 110 (generating means) generates position information indicating the position of the second display area in the blank area, and the display control unit 110 causes the display unit 102 to display , the translated character data may be displayed in a blank area around the first display area.

一方、表示制御部110は、第一表示領域の周辺に、翻訳テキストデータを表示するため十分な大きさの空白領域が存在しないと判断する場合、翻訳テキストデータを表示するサイズをやや小さくした後に、例えば、そのサイズを、例えば、面積で5%~10%だけ小さくした後に、再度、サイズの小さくなった翻訳テキストデータを表示するために十分な大きさの空白領域が存在するか否かを判断してもよい。空白領域が存在する場合に、その空白領域に、サイズの小さくなった翻訳文字データを表示させる、としてもよい。 On the other hand, if the display control unit 110 determines that there is no blank area large enough to display the translation text data around the first display area, the display size of the translation text data is slightly reduced and then displayed. , for example, after reducing its size by, for example, 5% to 10% in area, again, whether there is a blank area large enough to display the reduced size translation text data. You can judge. If there is a blank area, the translation character data reduced in size may be displayed in the blank area.

また、表示制御部110は、第一表示領域の周辺に、翻訳テキストデータを表示するために十分な大きさの空白領域が存在しないと判断する場合、例えば、第一表示領域を、当該第一表示領域の幅の5%~10%程度の長さ分だけ、左方向又は右方向に、移動させた後に、又は、第一表示領域を、当該第一表示領域の高さの5%~10%程度の長さ分だけ、上方向又は下方向に、移動させた後に、再度、空白領域が存在するか否かを判断してもよい。表示領域を移動させた後に、空白領域が存在する場合に、その空白領域に、翻訳テキストデータを表示させる、としてもよい。 Further, when the display control unit 110 determines that there is no blank area large enough to display the translation text data around the first display area, for example, the first display area may be replaced with the first display area. After moving leftward or rightward by a length of about 5% to 10% of the width of the display area, or moving the first display area to 5% to 10% of the height of the first display area It may be determined again whether or not there is a blank area after moving upward or downward by a length of about %. After moving the display area, if there is a blank area, the translation text data may be displayed in the blank area.

このように、文字が表示されていない空白領域に翻訳テキストデータを配置することにより、翻訳テキストデータにより、他の必要な文字等が覆い隠されることがない。 By arranging the translation text data in a blank area where no characters are displayed in this way, the translation text data does not cover other necessary characters.

(3)上記の実施の形態及び変形例においては、第一言語(第一表記法)により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語(第二表記法)に翻訳して、翻訳テキストデータを第二表示領域に表示している。しかし、本発明は、これには限定されない。 (3) In the above embodiments and modifications, the text data expressed in the first language (first notation) is displayed in the first display area, and the text data is displayed in the second language (second notation). , and the translated text data is displayed in the second display area. However, the invention is not so limited.

全国的に規範として用いられる標準語を一つの言語として捉え、地域によって異なる発達をした方言を別の言語として捉えてもよい。 The standard language that is used nationwide as a norm may be regarded as one language, and the dialects that have developed differently depending on the region may be regarded as another language.

第一表記法は、全国的に規範として用いられる標準語による表現であり、第二表記法は、地域によって異なる発達をした方言による表現である、としてもよい。 The first notation may be an expression in a standard language that is used nationwide as a norm, and the second notation may be an expression in a dialect that has developed differently depending on the region.

言い換えると、第一言語は、標準語であり、第二言語は、方言であるとしてもよい。第一言語である標準語により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語である方言に翻訳して、翻訳テキストデータを第二表示領域に表示してもよい。 In other words, the first language may be a standard language and the second language may be a dialect. The text data expressed in the standard language, which is the first language, may be displayed in the first display area, the text data may be translated into the dialect, which is the second language, and the translated text data may be displayed in the second display area. .

また、第一表記法は、方言による表現であり、第二表記法は標準語による表現であるとしてもよい。 Alternatively, the first notation may be a dialect expression, and the second notation may be a standard language expression.

言い換えると、第一言語は、方言であり、第二言語は、標準語であるしてもよい。第一言語である方言により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語である標準語に翻訳して、翻訳テキストデータを第二表示領域に表示してもよい。 In other words, the first language may be a dialect and the second language may be a standard language. Text data expressed in a dialect, which is the first language, may be displayed in the first display area, the text data may be translated into standard Japanese, which is the second language, and the translated text data may be displayed in the second display area. .

この方法によると、標準語を理解する人と、方言を理解する人との間で、意思疎通を図ることができる。 According to this method, communication can be achieved between a person who understands the standard language and a person who understands the dialect.

(4)上記の実施の形態及び変形例においては、第一言語(第一表記法)により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語(第二表記法)に翻訳して、翻訳テキストデータを第二表示領域に表示している。しかし、本発明は、これには限定されない。 (4) In the above embodiments and modifications, the text data expressed in the first language (first notation) is displayed in the first display area, and the text data is displayed in the second language (second notation). , and the translated text data is displayed in the second display area. However, the invention is not so limited.

第一表記法は、漢字による表現であり、第二表記法は、片仮名、平仮名又はローマ字による表現である、としてもよい。 The first notation may be a representation in kanji, and the second notation may be a representation in katakana, hiragana, or romaji.

このとき、第一表記法である漢字により表記されたテキストデータを第一表示領域に表示し、テキストデータを第二表記法である片仮名(又は、平仮名、ローマ字)に変換して、変換テキストデータを第二表示領域に表示してもよい。 At this time, the text data written in kanji, which is the first notation, is displayed in the first display area, the text data is converted into katakana (or hiragana, or romaji), which is the second notation, and converted text data may be displayed in the second display area.

また、第一表記法は、片仮名、平仮名又はローマ字による表現であり、第二表記法は、漢字による表現である、としてもよい。 Alternatively, the first notation may be expressed in katakana, hiragana, or romaji, and the second notation may be expressed in kanji.

このとき、第一表記法である片仮名(又は、平仮名、ローマ字)により表記されたテキストデータを第一表示領域に表示し、テキストデータを第二表記法である漢字に変換して、変換テキストデータを第二表示領域に表示してもよい。 At this time, text data written in katakana (or hiragana or romaji), which is the first notation, is displayed in the first display area, the text data is converted into kanji, which is the second notation, and converted text data may be displayed in the second display area.

この方法によると、漢字を理解する人と、片仮名、平仮名又はローマ字を理解する人との間で、意思疎通を図ることができる。 According to this method, communication can be achieved between a person who understands kanji and a person who understands katakana, hiragana or romaji.

(5)上記の実施の形態及び変形例においては、第一言語(第一表記法)により表現されたテキストデータを第一表示領域に表示し、テキストデータを第二言語(第二表記法)に翻訳して、翻訳テキストデータを第二表示領域に表示している。しかし、本発明は、これには限定されない。 (5) In the above embodiments and modifications, the text data expressed in the first language (first notation) is displayed in the first display area, and the text data is displayed in the second language (second notation). , and the translated text data is displayed in the second display area. However, the invention is not so limited.

第一表記法は、所定の観念を象徴するシンボルマークによる表現であり、第二表記法は、当該シンボルマークにより象徴される観念を文字により表現するものである、としてもよい。また、第二表記法は、シンボルマークの説明文の表記である、としてもよい。ここで、シンボルマークは、所定の観念を象徴する図形である、としてもよい。 The first notation may be an expression using a symbol mark symbolizing a predetermined idea, and the second notation method may be an expression using characters to express the idea symbolized by the symbol mark. Also, the second notation may be a notation of a description of the symbol mark. Here, the symbol mark may be a figure symbolizing a predetermined idea.

第一表記法により表現されたシンボルマークを第一表示領域に表示し、シンボルマークが象徴する所定の観念を説明文として、第二表記法により表して、第二表示領域に、説明文を表示してもよい。説明文として、各言語により翻訳した翻訳テキストデータを用いるとしてもよい。 The symbol mark expressed by the first notation method is displayed in the first display area, the predetermined idea symbolized by the symbol mark is expressed by the second notation method as an explanation, and the explanation is displayed in the second display area. You may As the explanation, translation text data translated into each language may be used.

シンボルマークは、例えば、社章、紋章、記章、国章、家紋 記号、ロゴ、印影であり、個人、家系、会社、団体などを象徴する図形である。この場合、説明文は、個人、家系、会社、団体などを示す名称等を文字表現したものである。 Symbol marks are, for example, company emblems, crests, insignias, national emblems, family crest symbols, logos, seal impressions, and figures that symbolize individuals, families, companies, organizations, and the like. In this case, the explanation is a character representation of a name or the like indicating an individual, a family, a company, an organization, or the like.

また、シンボルマークは、例えば、地図記号である。その具体例は、神社、城跡、裁判所、灯台を示す地図記号であり、鉄道(新幹線)の路線を示す図形である。また、説明文の具体例は、それぞれ、「神社」、「城跡」、「裁判所」、「灯台」及び「新幹線」である。さらに、これらの説明文に対して、英語、スペイン語、フランス語の翻訳文を付加してもよい。 Also, the symbol mark is, for example, a map symbol. Specific examples are map symbols indicating shrines, castle ruins, courts, and lighthouses, and figures indicating railroad (shinkansen) routes. Further, specific examples of explanatory texts are "shrine", "castle ruins", "court", "lighthouse" and "shinkansen", respectively. Furthermore, English, Spanish, and French translations may be added to these explanations.

また、シンボルマークは、例えば、電気回路の記号である。その具体例は、トランス、抵抗器、トランジスタを示す記号である。また、説明文の具体例は、それぞれ、「トランス」、「抵抗器」、「トランジスタ」である。さらに、これらの説明文に対して、英語、スペイン語、フランス語の翻訳文を付加してもよい。 Also, the symbol mark is, for example, a symbol of an electric circuit. Examples are symbols for transformers, resistors, and transistors. Further, specific examples of explanatory texts are "transformer", "resistor", and "transistor", respectively. Furthermore, English, Spanish, and French translations may be added to these explanations.

(6)上記の実施の形態及び変形例においては、第一表記法により表現されたデータを第一表示領域に表示し、データを第二表記法により変換して、変換されたデータを第二表示領域に表示している。このように、データと変換されたデータとの間には、一対一の関係がある。しかし、本発明は、これには限定されない。 (6) In the above embodiments and modifications, the data represented by the first notation is displayed in the first display area, the data is converted by the second notation, and the converted data is converted to the second notation. displayed in the display area. Thus, there is a one-to-one relationship between data and transformed data. However, the invention is not so limited.

第一表示領域に、トランジスタを示す記号を表示し、第二表示領域に、説明文として「トランジスタ」及び詳細な説明として、当該トランジスタの電気的特性や温度特性を示すグラフを表示してもよい。 A symbol indicating a transistor may be displayed in the first display area, and a description "transistor" and a graph showing the electrical characteristics and temperature characteristics of the transistor may be displayed in the second display area as a detailed description. .

また、第一表示領域に、神社を示す地図記号を表示し、第二表示領域に、説明文として「神社」及び詳細な説明として、神社の由来、歴史、信仰対象の説明などを表示してもよい。 In addition, the map symbol indicating the shrine is displayed in the first display area, and the descriptive text "Shrine" and the detailed description such as the origin, history, and worship object of the shrine are displayed in the second display area. good too.

また、第一表示領域に、新幹線(鉄道)の路線を示す図形を表示し、第二表示領域に、説明文として「新幹線」及び詳細な説明として、列車の時刻表及び運行状況を表示してもよい。 Also, in the first display area, a figure indicating the route of the Shinkansen (railway) is displayed, and in the second display area, "Shinkansen" is displayed as an explanation and the timetable and operation status of the train are displayed as detailed explanation. good too.

このように、第一表記法は、所定の観念を象徴する図形であるシンボルマークによる表現であり、第二表記法は、当該シンボルマークにより象徴される観念を文字により表現するものであるとしてもよい。また、第一表記法は、簡易な表現によるものであり、第二表記法は、当該簡易な表現を詳細に解説する表現によるものである、としてもよい。ここで、簡単な表現を詳細に解説する表現は、文字又は文字を含む図形によるものである、としてもよい。 In this way, the first notation is an expression using a symbol mark, which is a figure that symbolizes a given idea, and the second notation method is an expression using characters to express the idea symbolized by the symbol mark. good. Also, the first notation may be based on simple expressions, and the second notation may be based on expressions explaining the simple expressions in detail. Here, the expressions that explain the simple expressions in detail may be in the form of letters or figures containing letters.

(7)上記の実施の形態及び変形例においては、第一表示領域に一つの視点のみが存在する場合に、第一表示領域に付随する第二表示領域に、ハーフトーンにより、翻訳テキストデータを表示する、としている。しかし、本発明は、これには限定されない。 (7) In the above embodiment and modifications, when there is only one viewpoint in the first display area, the translation text data is displayed in halftones in the second display area attached to the first display area. It is supposed to be displayed. However, the invention is not so limited.

第一表示領域に一つの視点しか存在しない場合に、第二表示領域そのものを表示しない、としてもよい。 If only one viewpoint exists in the first display area, the second display area itself may not be displayed.

(8)上記の実施の形態及び変形例においては、ユーザーの視点は、一点に固定されているとしている。しかし、本発明は、これには限定されない。 (8) In the above embodiments and modifications, the user's viewpoint is assumed to be fixed at one point. However, the invention is not so limited.

ユーザーが第一表示領域に注目している場合、ユーザーの視点は、一点に固定しておらず、第一表示領域の内外において、不規則に移動していると考えられる。このような場合において、一定の期間(例えば、5秒間)のうち、例えば、80%の期間内において、ユーザーの視点が第一表示領域の内側に存在すれば、ユーザーの視点は、第一表示領域内側に存在すると、みなしてもよい。 When the user focuses on the first display area, it is considered that the user's viewpoint is not fixed at one point but moves irregularly inside and outside the first display area. In such a case, if the user's point of view is inside the first display area within a certain period of time (for example, 5 seconds), for example, within 80% of the period, the user's point of view is within the first display It may be considered to exist inside the region.

(9)上記の実施の形態においては、ユーザー属性テーブル191(図6)に、ユーザーに対応して、当該ユーザーが使用する使用言語が記憶されており、ユーザー属性テーブル191から、ユーザーの使用言語を取得している。しかし、本発明は、これには限定されない。 (9) In the above embodiment, the user attribute table 191 (FIG. 6) stores the language used by the user in association with the user. are getting However, the invention is not so limited.

カメラにより撮影されたユーザーの顔画像から、当該ユーザーが使用する言語を認識できれば、そのような方法を用いてもよい。 If the language used by the user can be recognized from the face image of the user captured by a camera, such a method may be used.

(10)上記の実施の形態においては、表示制御部110(決定手段)は、一つの第一表示領域内に存在する複数の視点に視線を注ぐ複数のユーザーの使用言語をユーザー属性テーブル191から取得し、取得した複数のユーザーの使用言語のうち、少なくとも一つの言語を、第二言語(第二表記法)として決定している。 (10) In the above embodiment, the display control unit 110 (determining means) selects from the user attribute table 191 the languages used by a plurality of users who gaze at a plurality of viewpoints existing within one first display area. At least one of the languages used by the acquired users is determined as a second language (second notation).

ここで、第一表示領域に視点を注ぐ複数のユーザーに親和性のある表記法が複数存在する場合、前記複数のユーザーのうち、最も多くのユーザーに親和性のある一つの表記法を、第二表記法として決定してもよい。 Here, when there are a plurality of notation methods that are compatible with a plurality of users who focus their eyes on the first display area, one notation method that is most compatible with the plurality of users is selected as the first notation method. It may be determined as a binary notation.

また、使用言語毎に、優先順位が設定されており、第一表示領域に視点を注ぐ複数のユーザーに親和性のある表記法が複数存在する場合、これらのユーザーの使用言語のうち、最も高い優先度が設定された使用言語を、第二表記法として決定してもよい。 In addition, priority is set for each language used, and if there are multiple notations that are compatible with multiple users who focus their eyes on the first display area, the language used by these users is the highest A preferred language may be determined as the second notation.

また、表示制御部110(決定手段)により、複数のユーザーに親和性のある複数の表記法が、第二表記法として決定された場合、翻訳部111(表記変換手段)は、テキストデータ(第一データ)を、それぞれ、決定された複数の言語(表記法)により翻訳(変換)してもよい。この場合に、複数の翻訳テキストデータが生成される。 Further, when the display control unit 110 (determination means) determines a plurality of notation methods that are compatible with a plurality of users as the second notation method, the translation unit 111 (notation conversion unit) converts the text data (the one data) may be translated (converted) into a plurality of determined languages (notations). In this case, multiple translation text data are generated.

このように、複数の翻訳テキストデータが生成される場合、第二表示領域は、決定された複数の表記法により、それぞれ、翻訳テキストデータを表示する複数の部分領域に区分される、としてもよい。表示制御部110(生成手段)は、複数の部分領域を示す部分領域情報を生成してもよい。表示制御部110(出力手段)は、部分領域情報を出力してもよい。表示部102は、第二表示領域内の複数の部分領域に、それぞれ、翻訳テキストデータを表示する。 In this way, when a plurality of pieces of translated text data are generated, the second display area may be divided into a plurality of partial areas for displaying the translated text data according to the determined notation methods. . The display control unit 110 (generating means) may generate partial area information indicating a plurality of partial areas. The display control unit 110 (output means) may output the partial area information. The display unit 102 displays the translated text data in each of the plurality of partial areas within the second display area.

また、上記のように、複数の翻訳テキストデータが生成される場合、表示制御部110(出力手段)は、一つの第二表示領域に、複数の翻訳テキストデータの各々を、切り換えて表示させるため、複数の翻訳テキストデータを、順次、出力する。表示部102は、一つの第二表示領域において、複数の翻訳テキストデータを、切換ながら、表示する。 Further, when a plurality of pieces of translated text data are generated as described above, the display control unit 110 (output means) switches and displays each of the plurality of pieces of translated text data in one second display area. , to sequentially output a plurality of translation text data. The display unit 102 displays a plurality of translation text data while switching them in one second display area.

(11)上述したように、各装置は、マイクロプロセッサーとメモリとを備えたコンピューターシステムである。メモリは、制御用のコンピュータープログラムを記憶しており、マイクロプロセッサーは、制御用のコンピュータープログラムに従って動作する、としてもよい。 (11) As noted above, each device is a computer system with a microprocessor and memory. The memory stores a control computer program, and the microprocessor may operate according to the control computer program.

ここで、制御用のコンピュータープログラムは、所定の機能を達成するために、コンピューターに対する指令を示す命令コードが複数個組み合わされて構成されたものである。 Here, the computer program for control is constructed by combining a plurality of instruction codes indicating instructions to the computer in order to achieve a predetermined function.

また、制御用のコンピュータープログラムは、コンピューター読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、光ディスク、半導体メモリなどに記録されている、としてもよい。 Also, the control computer program may be recorded on a computer-readable recording medium such as a flexible disk, hard disk, optical disk, or semiconductor memory.

(12)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。 (12) The above embodiments and modifications may be combined.

本発明に係る表記変換装置は、第一表示領域に付随する第二表示領域に、第二データが表示された場合に、第一表示領域に視点を注ぐ複数の利用者は、第一表示領域に注目している利用者の存在を知って、異なる表記法を理解する利用者間の意思疎通を図ることができ、第一表記法により表記されたデータを第二表記法による表記に変換する技術として、有用である。 In the notation conversion device according to the present invention, when the second data is displayed in the second display area attached to the first display area, a plurality of users who focus their eyes on the first display area can Knowing the presence of users who are paying attention to, it is possible to communicate with users who understand different notations, and convert data notated in the first notation to notation in the second notation. As a technology, it is useful.

1 翻訳表示装置
11 脚部
12a~12d カメラ
101 主制御部
102 表示部
103 出力部
104 記憶部
105a~105d 入力部
106 顔認識処理部
107 位置算出部
108 視線視点算出部
109 表示領域検出部
110 表示制御部
111 翻訳部
229 合成部
501 翻訳表示システム
511 モニター
512 翻訳装置
513~515 メガネ
513a~515a カメラ
516 ケーブル
531 翻訳表示システム
532 ホワイトボード
533~535 メガネ
533a~535a カメラ
533b~535b 表示部
536 翻訳装置
1 translation display device 11 legs 12a-12d camera 101 main control unit 102 display unit 103 output unit 104 storage unit 105a-105d input unit 106 face recognition processing unit 107 position calculation unit 108 line-of-sight viewpoint calculation unit 109 display area detection unit 110 display Control unit 111 Translation unit 229 Synthesis unit 501 Translation display system 511 Monitor 512 Translation device 513-515 Glasses 513a-515a Camera 516 Cable 531 Translation display system 532 Whiteboard 533-535 Glasses 533a-535a Camera 533b-535b Display unit 536 Translation device

Claims (22)

表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段と
を備え、
(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
ことを特徴とする表記変換装置。
A notation conversion device for converting first data notated in a first notation in a first display area on a display surface into notation in a second notation,
viewpoint determination means for determining whether or not a plurality of viewpoints among viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
Output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area ,
(a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in Chinese characters; The second notation is an expression in katakana, hiragana or romaji, (c) the first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, ( d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first The notation is an expression in a dialect, and the second notation is an expression in a standard language
A notation conversion device characterized by:
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段と
を備え、
前記決定手段により、決定される親和性のある表記法とは、利用者毎に馴染みのある表記法として予め登録されている表記法である
ことを特徴とする表記変換装置。
A notation conversion device for converting first data notated in a first notation in a first display area on a display surface into notation in a second notation,
viewpoint determination means for determining whether or not a plurality of viewpoints among viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area;
with
The notation conversion apparatus, wherein the notation with affinity determined by the determining means is a notation registered in advance as a notation familiar to each user.
前記決定手段は、前記複数の利用者に親和性のある表記法が複数存在する場合、前記複数の利用者のうち、最も多くの利用者に親和性のある一つの表記法を、前記第二表記法として決定する
ことを特徴とする請求項1に記載の表記変換装置。
When there are a plurality of notation methods with affinity for the plurality of users, the determining means selects one notation method with the greatest affinity for the plurality of users from among the plurality of users as the second method. 2. The notation conversion device according to claim 1, wherein the notation is determined as a notation.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段と
を備え、
前記決定手段により、前記複数の利用者に親和性のある複数の表記法が、前記第二表記法として決定された場合、前記表記変換手段は、前記第一データを、それぞれ、決定された複数の表記法により変換する
ことを特徴とする表記変換装置。
A notation conversion device for converting first data notated in a first notation in a first display area on a display surface into notation in a second notation,
viewpoint determination means for determining whether or not a plurality of viewpoints among viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area;
with
When a plurality of notations having an affinity for the plurality of users are determined by the determination means as the second notation, the notation conversion means converts the first data to the determined plurality of notations, respectively. A notation conversion device characterized by converting according to the notation of .
前記第二表示領域は、前記複数の表記法により、それぞれ、変換された前記第一データを表示する複数の部分領域に区分され、
前記生成手段は、さらに、前記複数の部分領域を示す部分領域情報を生成し、
前記出力手段は、さらに、前記部分領域情報を出力する
ことを特徴とする請求項4に記載の表記変換装置。
The second display area is divided into a plurality of partial areas each displaying the converted first data according to the plurality of notations,
The generating means further generates partial area information indicating the plurality of partial areas,
5. The notation conversion apparatus according to claim 4 , wherein said output means further outputs said partial area information.
前記出力手段は、前記第二表示領域に、複数の前記変換された第一データの各々を、切り換えて表示させるため、複数の前記変換された第一データを、順次、出力する
ことを特徴とする請求項4に記載の表記変換装置。
The output means sequentially outputs the plurality of converted first data in order to switch and display each of the plurality of converted first data in the second display area. 5. The notation conversion device according to claim 4 .
前記生成手段は、前記第一表示領域の位置を示す前記位置情報を生成し、
前記出力手段は、前記第二表示領域として、前記第一表示領域に前記第二データを表示させるため、前記位置情報を出力する
ことを特徴とする請求項1に記載の表記変換装置。
The generating means generates the position information indicating the position of the first display area,
2. The notation conversion apparatus according to claim 1, wherein said output means outputs said position information in order to display said second data in said first display area as said second display area.
さらに、前記第一表示領域の周辺の領域に、前記第二データのサイズより大きく、データが表示されていない空白領域が存在するか否かを判断する空白判断手段を備え、
空白領域が存在すると判断される場合に、前記生成手段は、当該空白領域内において、前記第二表示領域の位置を示す前記位置情報を生成する
ことを特徴とする請求項1に記載の表記変換装置。
Furthermore, blank judgment means for judging whether or not there is a blank area larger than the size of the second data and in which data is not displayed exists in the area around the first display area,
2. The notation conversion according to claim 1, wherein when it is determined that a blank area exists, the generating means generates the position information indicating the position of the second display area within the blank area. Device.
前記視点判断手段は、さらに、前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、第三表示領域内に存する前記視点の数が、所定数以上であるか否かを判断し、
前記生成手段は、さらに、所定数以上である場合、前記第三表示領域を拡大した拡大領域の範囲を示す拡大範囲情報を生成し、
前記出力手段は、さらに、前記第三表示領域を拡大して表示するため、前記拡大範囲情報を前記表示装置に対して出力する
ことを特徴とする請求項1に記載の表記変換装置。
The viewpoint determining means further determines whether or not the number of viewpoints present in the third display area among the respective viewpoints on the display surface of the plurality of users gazing at the display surface is equal to or greater than a predetermined number. to judge
The generating means further generates expansion range information indicating a range of the expansion area obtained by expanding the third display area when the number is equal to or greater than a predetermined number,
2. The notation conversion apparatus according to claim 1, wherein said output means further outputs said enlarged range information to said display device in order to enlarge and display said third display area.
前記表示面上において、前記第一表示領域から所定距離内に前記第二表示領域が存し、前記第一表示領域に接して前記第二表示領域が存し、前記第一表示領域に重複して前記第二表示領域が存し、又は、前記第一表示領域に包含されて前記第二表示領域が存する
ことを特徴とする請求項1に記載の表記変換装置。
On the display surface, the second display area exists within a predetermined distance from the first display area, the second display area exists in contact with the first display area, and overlaps the first display area. 2. The notation conversion device according to claim 1, wherein the second display area exists within the second display area, or the second display area exists while being included in the first display area.
前記生成手段は、さらに、
前記第一表示領域内における表示色又は表示パターンと、前記第二表示領域内における表示色又は表示パターンとを示す同一の色パターン情報を生成し、
前記出力手段は、さらに、前記表示色又は前記表示パターンを用いて表示させるため、前記色パターン情報を前記表示装置に対して出力する
ことを特徴とする請求項1に記載の表記変換装置。
The generating means further
generating the same color pattern information indicating the display color or display pattern in the first display area and the display color or display pattern in the second display area;
2. The notation conversion apparatus according to claim 1, wherein said output means further outputs said color pattern information to said display device in order to display using said display color or said display pattern.
さらに、前記表示面を注視する利用者の前記表示面における視点を検出する検出手段を備える
ことを特徴とする請求項1に記載の表記変換装置。
2. The notation conversion apparatus according to claim 1, further comprising detection means for detecting a viewpoint on said display surface of a user who gazes at said display surface.
前記検出手段は、
前記利用者を被写体とする画像データを取得するカメラと、
前記画像データから前記利用者の立ち位置と前記利用者の視線方向とを抽出し、抽出した前記立ち位置と前記視線方向に基づいて、前記表示面に注視する前記利用者の当該表示面における視点を算出する算出部とを備える
ことを特徴とする請求項12に記載の表記変換装置。
The detection means is
a camera that acquires image data of the user as a subject;
extracting the user's standing position and the user's line-of-sight direction from the image data; 13. The notation conversion device according to claim 12 , further comprising a calculation unit that calculates the following.
前記表示装置は、矩形状の前記表示面を上方に向けた姿勢で設けられ、
前記利用者は、前記表示装置の周囲に立ち、
前記生成手段は、さらに、前記第二データを構成する文字が、前記利用者の立ち位置から、正立して見えるように、前記第二データを回転させて配した画像データを生成し、
前記出力手段は、前記第二データとして、前記画像データを出力し、
前記表示装置は、前記第二表示領域に前記画像データを表示する
ことを特徴とする請求項1に記載の表記変換装置。
The display device is provided in a posture with the rectangular display surface facing upward,
The user stands around the display device,
The generation means further generates image data arranged by rotating the second data so that the characters constituting the second data appear erect from the standing position of the user,
The output means outputs the image data as the second data,
The notation conversion device according to claim 1, wherein the display device displays the image data in the second display area.
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力手段と、
記複数の利用者について、各々の利用者に親和性のある表記法を示す表記法情報を記憶している記憶手段を備え、
前記決定手段は、前記記憶手段から前記表記法情報を取得し、取得した前記表記法情報により示される表記法を用いて、前記複数の利用者に親和性のある表記法を決定する
ことを特徴とする表記変換装置。
A notation conversion device for converting first data notated in a first notation in a first display area on a display surface into notation in a second notation,
viewpoint determination means for determining whether or not a plurality of viewpoints among viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
output means for outputting the second data and the position information to an external display device in order to display the second data in the second display area;
storage means for storing notation information indicating a notation that is compatible with each of the plurality of users;
The determination means acquires the notation information from the storage means, and determines a notation that is compatible with the plurality of users by using the notation indicated by the acquired notation information. A notation conversion device.
前記視点判断手段は、利用者の顔面に装着され、カメラと算出部とを備えた当該表記変換装置外部の眼鏡から前記視点を取得し、
前記カメラは、利用者の視線方向を撮影して画像データを生成し、
前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出する
ことを特徴とする請求項1に記載の表記変換装置。
The viewpoint determination means acquires the viewpoint from glasses attached to the user's face and provided with a camera and a calculation unit and outside the notation conversion device,
The camera captures a line-of-sight direction of the user to generate image data,
2. The notation conversion device according to claim 1, wherein the calculation unit calculates the position of an object appearing in the center of the image data as a viewpoint.
前記視点判断手段は、利用者の顔面に装着され、カメラを備えた眼鏡型の前記表示装置から前記視点を取得し、
前記表示装置は、前記カメラにより、利用者の視線方向を撮影して画像データを生成し、生成した前記画像データの中央部に写るオブジェクトの位置を視点として算出する
ことを特徴とする請求項1に記載の表記変換装置。
The viewpoint determination means acquires the viewpoint from the eyeglass-type display device equipped with a camera and worn on the user's face,
2. The display device captures a viewing direction of the user with the camera to generate image data, and calculates the position of an object appearing in the center of the generated image data as a viewpoint. The notation conversion device described in .
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示装置であって、
前記第一表示領域に前記第一データを表示する表示手段と、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点を取得する視点取得手段と、
取得した前記視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二データ及び前記位置情報を前記表示手段に対して出力する出力手段とを備え、
前記表示手段は、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示し、
(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
こと特徴とする変換表示装置。
A conversion display device for converting first data written in a first notation in a first display area on a display surface into notation in a second notation and displaying the converted data,
display means for displaying the first data in the first display area;
viewpoint acquisition means for acquiring respective viewpoints on the display surface of a plurality of users gazing at the display surface;
determination means for determining whether or not a plurality of viewpoints among the acquired viewpoints are present within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
an output means for outputting the second data and the position information to the display means;
the display means receives the second data and the position information and displays the second data in the second display area ;
(a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in Chinese characters; The second notation is an expression in katakana, hiragana or romaji, (c) the first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, ( d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first The notation is an expression in a dialect, and the second notation is an expression in a standard language
A conversion display device characterized by :
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、
表記変換装置、表示装置及び検出装置を備え、
前記検出装置は、利用者の顔面に装着され、カメラと算出部とを備えた眼鏡であり、
前記カメラは、利用者の視線方向を撮影して画像データを取得し、
前記算出部は、前記画像データの中央部に写るオブジェクトの位置を視点として算出し、
前記表記変換装置は、
前記検出装置から取得し、前記表示面を注視する複数の利用者の当該表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二データ及び前記位置情報を前記表示装置に対して出力する出力手段とを備え、
前記表示装置は、前記表示面を有し、前記表示面の前記第一表示領域に前記第一データを表示し、前記第二データ及び前記位置情報を受信し、前記第二表示領域に、前記第二データを表示し、
(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
ことを特徴とする変換表示システム。
A conversion display system for converting first data written in a first notation in a first display area on a display surface into notation in a second notation and displaying the data,
Equipped with a notation conversion device, a display device and a detection device,
The detection device is glasses that are worn on the user's face and include a camera and a calculation unit,
The camera acquires image data by photographing the line-of-sight direction of the user,
The calculation unit calculates the position of an object appearing in the center of the image data as a viewpoint,
The notation conversion device is
viewpoint determination means for determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users gazing at the display surface obtained from the detection device are within the first display area; ,
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
an output means for outputting the second data and the position information to the display device;
The display device has the display surface, displays the first data in the first display area of the display surface, receives the second data and the position information, and displays the display the second data ,
(a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in Chinese characters; The second notation is an expression in katakana, hiragana or romaji, (c) the first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, ( d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first The notation is an expression in a dialect, and the second notation is an expression in a standard language
A conversion display system characterized by:
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換して表示する変換表示システムであって、
表記変換装置、掲示板及び検出表示装置を備え、
前記掲示板は、前記表示面を有し、
前記検出表示装置は、利用者の顔面に装着され、カメラを備えたメガネ型の表示装置であって、前記カメラにより、利用者の視線方向を撮影して画像データを取得し、取得した前記画像データの中央部に写るオブジェクトの位置を視点として算出し、前記画像データを表示し、
前記表記変換装置は、
前記検出表示装置から取得し、前記表示面に注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断手段と、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定手段と、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換手段と、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成手段と、
前記第二データ及び前記位置情報を前記検出表示装置に対して出力する出力手段とを備え、
前記検出表示装置は、前記第二データ及び前記位置情報を受信し、前記位置情報により示される前記第二表示領域に、前記第二データを表示し、
(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
ことを特徴とする変換表示システム。
A conversion display system for converting first data written in a first notation in a first display area on a display surface into notation in a second notation and displaying the data,
Equipped with a notation conversion device, a bulletin board and a detection display device,
The bulletin board has the display surface,
The detection display device is a spectacles-type display device that is worn on the face of a user and is equipped with a camera. calculating the position of an object appearing in the center of the data as a viewpoint and displaying the image data;
The notation conversion device is
Viewpoint determination means for determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of the plurality of users gazing at the display surface, which are acquired from the detection display device, are within the first display area. When,
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a determining means for determining as
notation conversion means for converting the first data written in the first display area into second data written in the second notation;
generating means for generating position information indicating the position of the second display area on the display surface;
an output means for outputting the second data and the position information to the detection display device;
the detection and display device receives the second data and the position information, and displays the second data in the second display area indicated by the position information ;
(a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in Chinese characters; The second notation is an expression in katakana, hiragana or romaji, (c) the first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, ( d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first The notation is an expression in a dialect, and the second notation is an expression in a standard language
A conversion display system characterized by:
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御方法であって、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップとを含み、
(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
ことを特徴とする制御方法。
A control method used in a notation conversion device that converts first data notated in a first notation in a first display area on a display surface into notation in a second notation,
a viewpoint determination step of determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a decision step that decides as
a notation conversion step of converting the first data written in the first display area into second data written in the second notation;
a generating step of generating position information indicating the position of the second display area on the display surface;
an output step of outputting the second data and the position information to an external display device in order to display the second data in the second display area ;
(a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in Chinese characters; The second notation is an expression in katakana, hiragana or romaji, (c) the first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, ( d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first The notation is an expression in a dialect, and the second notation is an expression in a standard language
A control method characterized by:
表示面上の第一表示領域に第一表記法により表記された第一データを第二表記法による表記に変換する表記変換装置において用いられる制御用のコンピュータープログラムを記録しているコンピューター読み取り可能な記録媒体であって、
コンピューターである前記表記変換装置に、
前記表示面を注視する複数の利用者の前記表示面におけるそれぞれの視点のうち、複数の視点が前記第一表示領域内に存するか否かを判断する視点判断ステップと、
前記第一表示領域内に複数の視点が存する場合に限り、前記第一表記法を除き、前記第一表示領域に視線を注ぐ複数の利用者に親和性のある表記法を、第二表記法として決定する決定ステップと、
前記第一表示領域に表記されている前記第一データを、前記第二表記法により表記された第二データに変換する表記変換ステップと、
前記表示面上において、第二表示領域の位置を示す位置情報を生成する生成ステップと、
前記第二表示領域に前記第二データを表示させるため、前記第二データ及び前記位置情報を、外部の表示装置に対して出力する出力ステップと
を実行させ、
(a)前記第一表記法は、第一言語による表現であり、前記第二表記法は、第二言語による表現であり、(b)前記第一表記法は、漢字による表現であり、前記第二表記法は、片仮名、平仮名又はローマ字による表現であり、(c)前記第一表記法は、片仮名、平仮名又はローマ字による表現であり、前記第二表記法は、漢字による表現であり、(d)前記第一表記法は、全国的に規範として用いられる標準語による表現であり、前記第二表記法は、地域によって異なる発達をした方言による表現であり、又は、(e)前記第一表記法は、方言による表現であり、前記第二表記法は標準語による表現である
ことを特徴とするコンピュータープログラムを記録している記録媒体。
A computer-readable computer program recording a control computer program used in a notation conversion device that converts first data notated in a first display area on a display surface in a first notation into notation in a second notation a recording medium,
The notation conversion device, which is a computer,
a viewpoint determination step of determining whether or not a plurality of viewpoints among the respective viewpoints on the display surface of a plurality of users gazing at the display surface exist within the first display area;
Except for the first notation, only when there are multiple viewpoints within the first display area, the second notation is a notation that is compatible with multiple users who focus their eyes on the first display area. a decision step that decides as
a notation conversion step of converting the first data written in the first display area into second data written in the second notation;
a generating step of generating position information indicating the position of the second display area on the display surface;
an output step of outputting the second data and the position information to an external display device in order to display the second data in the second display area ;
(a) the first notation is an expression in a first language; the second notation is an expression in a second language; (b) the first notation is an expression in Chinese characters; The second notation is an expression in katakana, hiragana or romaji, (c) the first notation is an expression in katakana, hiragana or romaji, the second notation is an expression in kanji, ( d) the first notation is an expression in a standard language used as a national norm, the second notation is an expression in a dialect that has developed differently depending on the region, or (e) the first The notation is an expression in a dialect, and the second notation is an expression in a standard language
A recording medium recording a computer program characterized by :
JP2018120363A 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium Active JP7115061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120363A JP7115061B2 (en) 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120363A JP7115061B2 (en) 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium

Publications (2)

Publication Number Publication Date
JP2020003892A JP2020003892A (en) 2020-01-09
JP7115061B2 true JP7115061B2 (en) 2022-08-09

Family

ID=69099955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120363A Active JP7115061B2 (en) 2018-06-26 2018-06-26 Notation conversion device, conversion display device, conversion display system, control method and recording medium

Country Status (1)

Country Link
JP (1) JP7115061B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006344245A (en) 2006-09-08 2006-12-21 Fujitsu Ltd Program recording medium and data processor
WO2010018770A1 (en) 2008-08-11 2010-02-18 コニカミノルタホールディングス株式会社 Image display device
WO2010021240A1 (en) 2008-08-21 2010-02-25 コニカミノルタホールディングス株式会社 Image display device
JP2017502438A (en) 2014-10-24 2017-01-19 シャオミ・インコーポレイテッド Description Information Display Method, Description Information Display Device, Electronic Device, Program, and Recording Medium
JP2018045459A (en) 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006344245A (en) 2006-09-08 2006-12-21 Fujitsu Ltd Program recording medium and data processor
WO2010018770A1 (en) 2008-08-11 2010-02-18 コニカミノルタホールディングス株式会社 Image display device
WO2010021240A1 (en) 2008-08-21 2010-02-25 コニカミノルタホールディングス株式会社 Image display device
JP2017502438A (en) 2014-10-24 2017-01-19 シャオミ・インコーポレイテッド Description Information Display Method, Description Information Display Device, Electronic Device, Program, and Recording Medium
JP2018045459A (en) 2016-09-14 2018-03-22 株式会社バンダイナムコエンターテインメント Simulation system and program

Also Published As

Publication number Publication date
JP2020003892A (en) 2020-01-09

Similar Documents

Publication Publication Date Title
US6396598B1 (en) Method and apparatus for electronic memo processing for integrally managing document including paper document and electronic memo added to the document
US5742279A (en) Input/display integrated information processing device
US8239032B2 (en) Audiotactile vision substitution system
AU2016288213B2 (en) Technique for more efficiently displaying text in virtual image generation system
US20040032398A1 (en) Method for interacting with computer using a video camera image on screen and system thereof
US8952989B2 (en) Viewer unit, server unit, display control method, digital comic editing method and non-transitory computer-readable medium
US6037915A (en) Optical reproducing system for multimedia information
RU2008139959A (en) INPUT PROCESSING SYSTEM FOR INFORMATION PROCESSING DEVICE
US20190075272A1 (en) Information displaying system and information providing terminal
US10511812B2 (en) Information displaying system and information providing terminal
JP7115061B2 (en) Notation conversion device, conversion display device, conversion display system, control method and recording medium
US6285362B1 (en) Communication terminal and its display control system
JP3234736B2 (en) I / O integrated information operation device
JP2018088604A (en) Image display device, image display method, and system
US10852767B2 (en) Handwriting support device
US20220277672A1 (en) Display device, display method, and program
US20140218395A1 (en) Image processor and image processing method
JP2006154890A (en) Information terminal device and system
US20220147699A1 (en) Image information processing apparatus, electronic equipment, and image information processing program
US20240265639A1 (en) Information processing apparatus and method
US11222563B2 (en) Handwriting support device, handwriting support method and program
JP3805161B2 (en) Character reading device, character reading method, and computer-readable information storage medium recording character reading program
JP2007142542A (en) Image display device
JP2024009686A (en) Image creation device, image creation method, and image creation program
KR20210125465A (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R150 Certificate of patent or registration of utility model

Ref document number: 7115061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150