[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2019040005A - Reading aloud system and reading aloud method - Google Patents

Reading aloud system and reading aloud method Download PDF

Info

Publication number
JP2019040005A
JP2019040005A JP2017160888A JP2017160888A JP2019040005A JP 2019040005 A JP2019040005 A JP 2019040005A JP 2017160888 A JP2017160888 A JP 2017160888A JP 2017160888 A JP2017160888 A JP 2017160888A JP 2019040005 A JP2019040005 A JP 2019040005A
Authority
JP
Japan
Prior art keywords
unit
user
imaging
input
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017160888A
Other languages
Japanese (ja)
Inventor
佳佑 島影
Keisuke SHIMAKAGE
佳佑 島影
啓光 栗元
Hiromitsu Kurimoto
啓光 栗元
秀樹 鶴岡
Hideki Tsuruoka
秀樹 鶴岡
堅大 田中
Kenta Tanaka
堅大 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oton Glass Inc
Original Assignee
Oton Glass Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oton Glass Inc filed Critical Oton Glass Inc
Priority to JP2017160888A priority Critical patent/JP2019040005A/en
Priority to PCT/JP2018/031366 priority patent/WO2019039591A1/en
Publication of JP2019040005A publication Critical patent/JP2019040005A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/043Time compression or expansion by changing speed
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/057Time compression or expansion for improving intelligibility

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Character Discrimination (AREA)

Abstract

To provide a reading aloud system which assists a weak-sighted person.SOLUTION: A reading aloud system comprises: an image pickup unit which is included in a wearing tool that a user puts on and uses and picks up the front direction of the user; an extraction unit which extracts characters from an image that the image pickup unit picks up; a conversion unit which convers the characters that the extraction unit extracts into a speech; an output unit which is included in the wearing tool, and outputs a speech; an input unit which is included in the wearing tool, and receives input from the user; and a control unit which is included in the wearing tool, and controls a playback speed of the speech output from the output unit based upon the input received from the user through the input unit.SELECTED DRAWING: Figure 2

Description

本発明は、文章を音声に変換して読み上げる読み上げシステム及び読み上げ方法に関する。   The present invention relates to a reading system and a reading method for converting a sentence into speech and reading it out.

近年、弱視者や文字を読むことが困難な読字障害者の視認を支援する機器の開発が行われている。例えば、特許文献1には、ロービジョン者が屋外で夜間等にも歩行ができるように、前方視界を撮像し表示することのできるウェアラブルディスプレイが開示されている。特許文献1のロービジョン者用ウェアラブルディスプレイによれば、撮像した画像のコントラスト及び明るさを変換して表示している。また、撮像画像に文字があった場合に文字認識処理を行ってその文字をユーザに音声で知らせることも開示している。   In recent years, development of devices that support the visual recognition of people with low vision and people with reading disabilities who are difficult to read characters has been carried out. For example, Patent Document 1 discloses a wearable display that can capture and display a forward field of view so that a low vision person can walk outdoors at night. According to the low vision person wearable display of Patent Document 1, the contrast and brightness of the captured image are converted and displayed. It also discloses that when a character is present in a captured image, character recognition processing is performed to inform the user of the character by voice.

特開2014−165616号公報JP 2014-165616 A

ところで、上記特許文献1に記載のロービジョン者用ウェアラブルディスプレイにおいては、文字認識処理によって、その文字をロービジョン者にスピーカにより伝達するとのみ記載しており具体的にどのように音声を伝えるかについては開示がない。また、ユーザによって音の聞こえ方は異なるため、特許文献1に記載のロービジョン者用ウェアラブルディスプレイの場合、ユーザビリティに欠けるという問題がある。   By the way, in the wearable display for the low vision person described in the above-mentioned Patent Document 1, it is only described that the character is transmitted to the low vision person through the speaker by the character recognition process, and specifically how to transmit the voice. Is not disclosed. In addition, since the way the sound is heard varies depending on the user, the low-vision wearable display described in Patent Document 1 has a problem of lack of usability.

そこで、本発明は上記問題に鑑みて成されたものであり、使用するユーザにとって上記特許文献1に記載のロービジョン者用ウェアラブルディスプレイよりも利便性に優れた読み上げシステムを提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a reading system that is more convenient for a user who uses the wearable display for low vision users described in Patent Document 1 described above. To do.

上記課題を解決するために、本発明の一態様に係る読み上げシステムは、ユーザが身に着けて使用する装着具に備えられ、ユーザの正面方向を撮像する撮像部と、撮像部が撮像した画像から文字を抽出する抽出部と、抽出部が抽出した文字を音声に変換する変換部と、装着具に備えられ、音声を出力する出力部と、装着具に備えられ、ユーザからの入力を受け付ける入力部と、装着具に備えられ、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力される音声の再生速度を制御する制御部とを備える。   In order to solve the above-described problem, a reading system according to an aspect of the present invention is provided in a wearing tool worn by a user and includes an imaging unit that images the front direction of the user, and an image captured by the imaging unit. An extraction unit that extracts characters from the input unit, a conversion unit that converts the characters extracted by the extraction unit into speech, an output unit that is provided in the wearing tool and outputs sound, and is provided in the wearing tool and receives input from the user An input unit, and a control unit that is provided in the wearing tool and controls a reproduction speed of the sound output from the output unit based on an input from a user received through the input unit.

上記課題を解決するために、本発明の一態様に係る読み上げ方法は、ユーザが身に着けて使用する装着具に備えられた撮像部により、ユーザの正面方向を撮像する撮像ステップと、撮像ステップにおいて撮像した画像から文字を抽出する抽出ステップと、抽出ステップにおいて抽出した文字を音声に変換する変換ステップと、装着具に備えられた出力部から音声を出力する出力ステップと、装着具に備えられた入力部からユーザからの入力を受け付ける入力ステップと、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力する音声の再生速度を制御する制御ステップとを含む。   In order to solve the above-described problem, a reading method according to an aspect of the present invention includes an imaging step of imaging a front direction of a user by an imaging unit provided in a wearing tool worn by the user, and an imaging step. An extraction step of extracting characters from the image captured in step, a conversion step of converting the characters extracted in the extraction step into speech, an output step of outputting sound from an output unit included in the mounting device, and a mounting device. An input step for receiving an input from the user from the input unit, and a control step for controlling the reproduction speed of the sound output from the output unit based on the input from the user received through the input unit.

また、上記読み上げシステムにおいて、制御部は、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力される音声を一時停止させることとしてもよい。   In the reading system, the control unit may temporarily stop the sound output from the output unit based on the input from the user received through the input unit.

また、上記読み上げシステムにおいて、制御部は、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力した音声を繰り返し再生することとしてもよい。   In the reading system, the control unit may repeatedly reproduce the sound output from the output unit based on the input from the user received through the input unit.

また、上記読み上げシステムにおいて、出力部は、変換部が文字を音声に変換している間、文字の変換処理中であることを示す音を出力することとしてもよい。   In the reading system, the output unit may output a sound indicating that the character conversion process is being performed while the conversion unit converts the character into a voice.

また、上記読み上げシステムにおいて、読み上げシステムは、抽出部と変換部とを備えるサーバを含み、装着具は、撮像部が撮像した画像をサーバに送信する送信部と、変換部が変換した音声を受信する受信部とを備え、出力部は、送信部が画像を送信してから受信部が音声を受信するまでの間、文字の変換処理中であることを示す音を出力することとしてもよい。   In the reading system, the reading system includes a server including an extraction unit and a conversion unit, and the wearing tool receives a transmission unit that transmits an image captured by the imaging unit to the server, and a sound converted by the conversion unit. The output unit may output a sound indicating that character conversion processing is in progress from when the transmission unit transmits an image until the reception unit receives voice.

また、上記読み上げシステムにおいて、装着具は、周囲の環境に関する環境情報を取得する取得部を備え、撮像部は、環境情報に基づいて撮像条件を変更することとしてもよい。   In the reading system, the wearing tool may include an acquisition unit that acquires environment information about the surrounding environment, and the imaging unit may change the imaging condition based on the environment information.

また、上記読み上げシステムにおいて、装着具は、撮像部が撮像している撮像画像中に文字があるか否かを判定する判定部を備え、出力部は、判定部が撮像画像中に文字が含まれると判定しているときに、撮像部による撮像方向に文字が存在することを示す音声を出力することとしてもよい。   In the reading system, the wearing tool includes a determination unit that determines whether there is a character in the captured image captured by the imaging unit, and the output unit includes the character in the captured image. When it is determined that a character is present, a sound indicating that a character is present in the imaging direction by the imaging unit may be output.

また、上記読み上げシステムにおいて、読み上げシステムは、撮像部が撮像した撮像画像と、当該撮像画像に基づいて変換部が変換して得られた音声とを対応付けて、ユーザの情報処理端末に送信するログ送信部を備えることとしてもよい。   In the reading system, the reading system associates the captured image captured by the imaging unit with the sound obtained by the conversion unit converting based on the captured image, and transmits the associated image to the user information processing terminal. It is good also as providing a log transmission part.

また、上記読み上げシステムにおいて、装着具は、自端末の位置を示す位置情報を取得する位置情報取得部を備え、撮像部は、撮像した撮像画像に、撮像したときに位置情報が取得した位置情報を対応付け、ログ送信部は、撮像画像と音声と共に位置情報をユーザの情報処理端末に送信することとしてもよい。   Further, in the reading system, the wearing tool includes a position information acquisition unit that acquires position information indicating the position of the terminal, and the imaging unit acquires the position information acquired by the position information when the captured image is captured. The log transmission unit may transmit the positional information together with the captured image and the sound to the information processing terminal of the user.

本発明の一態様に係る読み上げシステムは、文字から変換された音声の読み上げの速度を自由に調節することができる。したがって、ユーザビリティに優れた読み上げシステムを提供することができる。   The reading system according to one embodiment of the present invention can freely adjust the speed of reading a voice converted from a character. Therefore, it is possible to provide a reading system with excellent usability.

(a)は、装着具を装着しているユーザの外観例を示す図であり、(b)は、装着具を用いて撮像を行って読み上げを行う外観例を示す図である。(A) is a figure which shows the example of an external appearance of the user with which the mounting tool is mounted | worn, (b) is a figure which shows the example of external appearance which images and reads out using a mounting tool. 読み上げシステムのシステム構成例を示す図である。It is a figure which shows the system configuration example of a reading-out system. (a)は、装着具がサーバに送信するデータの構成例を示す図であり、(b)は、サーバがユーザ毎に記憶する読み上げ音声情報の構成例を示す図である。(A) is a figure which shows the structural example of the data which a mounting tool transmits to a server, (b) is a figure which shows the structural example of the reading voice information which a server memorize | stores for every user. 装着具とサーバとのやり取りを示すシーケンス図である。It is a sequence diagram which shows the exchange between a mounting tool and a server. 装着具の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a mounting tool. サーバの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a server. 画像から優先的に文字を抽出する範囲例を示す図である。It is a figure which shows the example of a range which extracts a character preferentially from an image. 地図を利用した読み上げ音声の再生を行うための画面例を示す図である。It is a figure which shows the example of a screen for reproducing the reading sound using a map. 読み上げシステムのシステム構成の別例を示す図である。It is a figure which shows another example of the system configuration | structure of a reading-out system.

以下、本発明の一実施態様に係る読み上げシステムについて、図面を参照しながら詳細に説明する。   Hereinafter, a reading system according to an embodiment of the present invention will be described in detail with reference to the drawings.

<実施の形態>
<構成>
図1(a)は、読み上げシステム1に係る装着具100を装着しているユーザの外観例を示す図である。また、図1(b)は、装着具100を用いて撮像を行い、読み上げを行っている様子を示す外観例を示す図である。また、図2は、読み上げシステム1のシステム構成例を示す図である。
<Embodiment>
<Configuration>
FIG. 1A is a diagram illustrating an appearance example of a user wearing the wearing tool 100 according to the reading system 1. FIG. 1B is a diagram illustrating an example of an external appearance showing a state where imaging is performed using the wearing tool 100 and reading is performed. FIG. 2 is a diagram illustrating a system configuration example of the reading system 1.

図1及び図2に示すように、読み上げシステム1は、ユーザが身に着けて使用する装着具100に備えられ、ユーザの正面方向を撮像する撮像部111と、撮像部111が撮像した画像から文字を抽出する抽出部231と、抽出部231が抽出した文字を音声に変換する変換部232と、装着具100に備えられ、音声を出力する出力部156と、装着具100に備えられ、ユーザからの入力を受け付ける入力部154と、装着具100に備えられ、入力部154を介して受け付けたユーザからの入力に基づいて、出力部156から出力される音声の再生速度を制御する制御部155とを備える。このような読み上げシステム1について、以下詳細に説明する。   As shown in FIGS. 1 and 2, the reading system 1 is provided in a wearing tool 100 worn by a user and includes an imaging unit 111 that captures the front direction of the user, and an image captured by the imaging unit 111. An extraction unit 231 that extracts characters, a conversion unit 232 that converts the characters extracted by the extraction unit 231 into speech, an output unit 156 that outputs sound, an output unit 156 that outputs sound, and a user An input unit 154 that receives an input from the control unit 155 and a control unit 155 that is provided in the wearing tool 100 and controls the reproduction speed of the sound output from the output unit 156 based on the input from the user received through the input unit 154. With. Such a reading system 1 will be described in detail below.

図1(a)、(b)に示すように、ユーザ10は、ウェアラブルグラス110を装着して使用する。ウェアラブルグラス110には、ユーザからの指示に従って、ユーザの正面方向を撮像できる位置に、撮像部111が配されている。撮像部111は、所謂カメラである。ウェアラブルグラス110は、コントローラ150と接続されている。なお、図1(a)においては、ウェアラブルグラス110は、コード120を介してイヤホン130を経由し、コード140を介して接続するように示しているが、ウェアラブルグラス110とコントローラ150とは、イヤホン130とコントローラ150と同様に直接接続されていてよい。また、ユーザ10は、イヤホン130を耳に装着し、コントローラ150から伝達された読み上げ音声を聞くことができる。図1(a)に示すように、ユーザ10は、コントローラ150を保持し、当該コントローラ150を用いて、撮像の指示や、読み上げ音声の再生に係る指示を行うことができる。図1(b)に示すように、ユーザが撮像指示を行うと、撮像部111は、撮像範囲160を撮像する。そして、撮像範囲160に含まれる文字を認識し、その文字を機械合成音声に変換して読み上げる。したがって、読み上げシステム1は、弱視者等に対して読みにくい文字の情報を提供することができる。   As shown in FIGS. 1A and 1B, the user 10 wears and uses a wearable glass 110. The wearable glass 110 is provided with an imaging unit 111 at a position where the front direction of the user can be imaged in accordance with an instruction from the user. The imaging unit 111 is a so-called camera. The wearable glass 110 is connected to the controller 150. In FIG. 1A, the wearable glass 110 is shown to be connected via the cord 120 via the earphone 130 and via the cord 140, but the wearable glass 110 and the controller 150 are connected to the earphone. 130 and the controller 150 may be directly connected. In addition, the user 10 can wear the earphone 130 on the ear and listen to the read-out voice transmitted from the controller 150. As shown in FIG. 1A, the user 10 holds the controller 150 and can use the controller 150 to give an instruction for imaging and an instruction related to reproduction of a reading voice. As illustrated in FIG. 1B, when the user gives an imaging instruction, the imaging unit 111 captures an imaging range 160. Then, a character included in the imaging range 160 is recognized, and the character is converted into machine synthesized speech and read out. Therefore, the reading-out system 1 can provide information on characters that are difficult to read to a low-sighted person or the like.

図2は、読み上げシステム1のシステム構成例であり、読み上げシステム1は、装着具100と、サーバ200とを含む。装着具100と、サーバ200とは、ネットワーク300を介して通信可能に構成されている。装着具100とネットワーク300は、無線通信により通信を行う。なお、無線通信を実行できれば、どのような通信プロトコルを用いてもよい。また、サーバ200もネットワークと通信を行うが、これは、無線通信でも有線通信でもいずれの通信態様をとってもよく、また、通信を実行できればどのような通信プロトコルを用いてもよい。   FIG. 2 is a system configuration example of the reading system 1, and the reading system 1 includes a wearing tool 100 and a server 200. The wearing tool 100 and the server 200 are configured to be able to communicate with each other via the network 300. The wearing tool 100 and the network 300 communicate by wireless communication. Note that any communication protocol may be used as long as wireless communication can be performed. The server 200 also communicates with the network, and this may take any form of communication, such as wireless communication or wired communication, and any communication protocol may be used as long as communication can be performed.

図2に示すように、装着具100は、ウェアラブルグラス110と、イヤホン130と、コントローラ150とを備える。即ち、本実施の形態においては、図2に示すように、ウェアラブルグラス110と、イヤホン130と、コントローラ150とを纏めて装着具100として呼称する。また、ここでは、ウェアラブルグラス110としているが、ユーザ10の正面方向(視野方向)を撮像できるものであればよく、眼鏡に限るものではないことは言うまでもない。   As shown in FIG. 2, the wearing tool 100 includes a wearable glass 110, an earphone 130, and a controller 150. In other words, in the present embodiment, as shown in FIG. 2, wearable glass 110, earphone 130, and controller 150 are collectively referred to as wearing device 100. Here, although wearable glass 110 is used, it is only necessary to be able to image the front direction (viewing direction) of user 10, and needless to say, it is not limited to glasses.

ウェアラブルグラス110は、撮像部111と、通信I/F112を備える。   The wearable glass 110 includes an imaging unit 111 and a communication I / F 112.

撮像部111は、ユーザの正面方向を撮像可能なカメラである。撮像部111は、通信I/F112から指示された撮像信号を受けて撮像を行う。撮像部111は、ユーザの正面方向を撮像可能に設けられていればウェアラブルグラス110のどこに設けられてもよい。図1においては、ウェアラブルグラスの左側丁番部分に設ける例を示しているが、撮像部111は、右側丁番部分に設けることとしてもよいし、ブリッジ部分に設けることとしてもよい。撮像部111は、撮像して得られた撮像画像を、通信I/F112に伝達する。また、撮像部111は、逐次撮像を行いながら、撮像画像を解析して撮像画像中の文字の有無を検出する検出機能を有してよく、このとき、撮像画像中に文字が含まれていると判定した場合に、ユーザの正面方向に文字が存在すること旨を示す存在信号を通信I/F112に伝達する。   The imaging unit 111 is a camera that can capture the front direction of the user. The imaging unit 111 receives an imaging signal instructed from the communication I / F 112 and performs imaging. The imaging unit 111 may be provided anywhere in the wearable glass 110 as long as the imaging unit 111 is provided so as to be able to capture the front direction of the user. Although FIG. 1 shows an example in which the wearable glass is provided on the left hinge portion, the imaging unit 111 may be provided on the right hinge portion or on the bridge portion. The imaging unit 111 transmits a captured image obtained by imaging to the communication I / F 112. In addition, the imaging unit 111 may have a detection function of analyzing the captured image and detecting the presence or absence of characters in the captured image while sequentially capturing images. At this time, the captured image includes characters. If it is determined, the presence signal indicating that there is a character in the front direction of the user is transmitted to the communication I / F 112.

通信I/F112は、コントローラ150と通信を行う機能を有する通信インターフェースである。通信I/F112は、コントローラ150の通信I/F151と通信可能に接続されている。ここでは、図1に示すように有線により接続されていることとするが、これは、無線接続であってもよい。通信I/F112は、コントローラ150の通信I/F151から伝達された撮像信号を撮像部111に伝達する。また、通信I/F112は、撮像部111から伝達された撮像画像や、ユーザの正面方向に文字が存在することを示す存在信号を、通信I/F151に伝達する。   The communication I / F 112 is a communication interface having a function of communicating with the controller 150. The communication I / F 112 is communicably connected to the communication I / F 151 of the controller 150. Here, as shown in FIG. 1, it is assumed that they are connected by wire, but this may be a wireless connection. The communication I / F 112 transmits the imaging signal transmitted from the communication I / F 151 of the controller 150 to the imaging unit 111. In addition, the communication I / F 112 transmits a captured image transmitted from the imaging unit 111 and a presence signal indicating that a character exists in the front direction of the user to the communication I / F 151.

イヤホン130は、コントローラ150の出力部156に接続されており、出力部156から伝達された音声信号を音声として出力する機能を有する。ここでは、図1に示すように、イヤホン130は有線によりコントローラ150と接続されていることとするが、これは、無線接続であってもよい。イヤホン130は、撮像画像に基づいて検出された文字を読み上げた読み上げ音声や、文字の解析中であることを示す音や、撮像部111の正面方向に文字があることを示す音を出力する。   The earphone 130 is connected to the output unit 156 of the controller 150 and has a function of outputting the audio signal transmitted from the output unit 156 as audio. Here, as shown in FIG. 1, the earphone 130 is connected to the controller 150 by wire, but this may be a wireless connection. The earphone 130 outputs a reading voice that reads a character detected based on the captured image, a sound indicating that the character is being analyzed, and a sound indicating that there is a character in the front direction of the imaging unit 111.

コントローラ150は、通信I/F151と、通信部152と、記憶部153と、入力部154と、制御部155と、出力部156とを備える。図1に示すように、コントローラ150の各部は互いにバスにより接続されている。   The controller 150 includes a communication I / F 151, a communication unit 152, a storage unit 153, an input unit 154, a control unit 155, and an output unit 156. As shown in FIG. 1, each part of the controller 150 is connected to each other by a bus.

通信I/F151は、ウェアラブルグラス110の通信I/F112と通信を行う機能を有する通信インターフェースである。通信I/F151は、制御部155から撮像信号を受け取ると、当該撮像信号を通信I/F112に伝達する。また、通信I/F151は、通信I/F112から撮像画像や存在信号を受け取ると、制御部155に伝達する。   The communication I / F 151 is a communication interface having a function of performing communication with the communication I / F 112 of the wearable glass 110. When the communication I / F 151 receives an imaging signal from the control unit 155, the communication I / F 151 transmits the imaging signal to the communication I / F 112. In addition, when the communication I / F 151 receives a captured image or a presence signal from the communication I / F 112, the communication I / F 151 transmits the captured image or presence signal to the control unit 155.

通信部152は、ネットワーク300を介してサーバ200と通信を実行する機能を有する通信インターフェースである。通信部152は、制御部155からの指示に従って、撮像画像をサーバ200に送信部として機能するとともに、撮像画像に含まれる文字を音声に変換した読み上げ音声をサーバ200から受信する受信部として機能する。通信部152は、サーバ200から読み上げ音声を受信した場合には、当該読み上げ音声を制御部155に伝達する。   The communication unit 152 is a communication interface having a function of performing communication with the server 200 via the network 300. The communication unit 152 functions as a transmission unit that transmits a captured image to the server 200 in accordance with an instruction from the control unit 155 and also functions as a reception unit that receives from the server 200 read-out sound obtained by converting characters included in the captured image into speech. . When the communication unit 152 receives the reading voice from the server 200, the communication unit 152 transmits the reading voice to the control unit 155.

記憶部153は、コントローラ150が機能するために必要とする各種のプログラムやデータを記憶する機能を有する。記憶部153は、例えば、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどにより実現することができるが、これらに限定されるものではない。記憶部153は、制御部155によって実行される読み上げプログラムや、撮像部111が撮像した撮像画像や、通信部152が受信した読み上げ音声の情報などを記憶する。また、記憶部153は、通信部152が撮像画像をサーバ200に送信してから読み上げ音声を受信するまでの間に出力部156から出力する音であって文字を音声に変換中であることを示す音声情報を記憶する。さらには、記憶部153は、撮像部111の撮像方向に文字があった場合にユーザ10にその旨を報知するための音声情報も記憶する。   The storage unit 153 has a function of storing various programs and data necessary for the controller 150 to function. The storage unit 153 can be realized by, for example, an HDD (Hard Disc Drive), an SSD (Solid State Drive), a flash memory, or the like, but is not limited thereto. The storage unit 153 stores a reading program executed by the control unit 155, a captured image captured by the imaging unit 111, information of a reading voice received by the communication unit 152, and the like. In addition, the storage unit 153 is a sound output from the output unit 156 between the time when the communication unit 152 transmits the captured image to the server 200 and the time when the read-out sound is received, and indicates that the character is being converted into a sound. The audio information shown is stored. Furthermore, the storage unit 153 also stores audio information for notifying the user 10 when there is a character in the imaging direction of the imaging unit 111.

入力部154は、ユーザ10からの入力を受け付ける機能を有する。入力部154は、例えば、コントローラ150に備えられたハードキーにより実現することができるが、これは、タッチパネルなどにより実現することとしてもよい。入力部154は、ユーザ10が撮像を指示するための撮像ボタン154aや、再生、一時停止、リプレイを指示するための再生ボタン154bや、音声の再生速度を調整するための調整ボタン154cを含んでよい。入力部154は、各ボタンの押下に応じて、押下された内容を示す信号を制御部155に伝達する。   The input unit 154 has a function of accepting an input from the user 10. The input unit 154 can be realized by, for example, a hard key provided in the controller 150, but this may be realized by a touch panel or the like. The input unit 154 includes an imaging button 154a for the user 10 to instruct imaging, a playback button 154b for instructing playback, pause, and replay, and an adjustment button 154c for adjusting the audio playback speed. Good. The input unit 154 transmits a signal indicating the pressed content to the control unit 155 in response to pressing of each button.

制御部155は、コントローラ150の各部を制御する機能を有するプロセッサである。制御部155は、記憶部153に記憶されている各種プログラムを実行することで、コントローラ150として実行すべき機能を果たす。   The control unit 155 is a processor having a function of controlling each unit of the controller 150. The control unit 155 fulfills a function to be executed as the controller 150 by executing various programs stored in the storage unit 153.

制御部155は、入力部154から撮像指示を伝達された場合には、通信I/F151に撮像信号をウェアラブルグラス110に送信するように指示する。   When receiving an imaging instruction from the input unit 154, the control unit 155 instructs the communication I / F 151 to transmit an imaging signal to the wearable glass 110.

また、制御部155は、通信I/F151から撮像画像を伝達された場合には、当該撮像画像をサーバ200に送信するように通信部152に指示する。また、当該指示の後に、制御部155は、記憶部153から、撮像画像に含まれる文字の音声への変換中であることを示す音声を読み出し、出力部156に出力するように指示する。   In addition, when the captured image is transmitted from the communication I / F 151, the control unit 155 instructs the communication unit 152 to transmit the captured image to the server 200. Further, after the instruction, the control unit 155 reads from the storage unit 153 a voice indicating that the character included in the captured image is being converted into a voice, and instructs the output unit 156 to output the voice.

制御部155は、通信部152から読み上げ音声を伝達された場合には、変換中であることを示す音声の出力の停止を出力部156に指示する。そして、制御部155は、読み上げ音声を出力するように出力部156に指示する。   When the reading voice is transmitted from the communication unit 152, the control unit 155 instructs the output unit 156 to stop outputting the voice indicating that conversion is in progress. Then, the control unit 155 instructs the output unit 156 to output a reading voice.

また、制御部155は、通信I/F151から存在信号を伝達された場合には、記憶部153からユーザ10の正面方向に文字が存在することを示す音声を読み出して、出力部156に出力するように指示する。   In addition, when the presence signal is transmitted from the communication I / F 151, the control unit 155 reads a voice indicating that a character exists in the front direction of the user 10 from the storage unit 153 and outputs the voice to the output unit 156. To instruct.

また、制御部155は、入力部154から伝達されたユーザ10からの指示に応じて読み上げ音声の再生制御処理を実行する。例えば、一時停止指示を受け付けた場合には、読み上げ音声の再生を一時中止するように出力部156に指示する。   In addition, the control unit 155 executes a reproduction control process for the read-out voice according to the instruction from the user 10 transmitted from the input unit 154. For example, when a pause instruction is received, the output unit 156 is instructed to pause the reproduction of the reading voice.

また、例えば、スロー再生指示を受け付けた場合には制御部155は読み上げ音声のスロー再生を実行するように出力部156に指示する。スロー再生指示は、再生速度の調整指示によって代替することもでき、制御部155は、読み上げ音声の再生速度を早くしたり遅くしたりすることもできる。また、制御部155は、リプレイ指示を受け付けた場合には、それまでに出力していた読み上げ音声をもう一度再生するように出力部156に指示する。   Further, for example, when a slow reproduction instruction is received, the control unit 155 instructs the output unit 156 to perform slow reproduction of the reading voice. The slow reproduction instruction can be replaced by an instruction to adjust the reproduction speed, and the control unit 155 can increase or decrease the reproduction speed of the reading voice. Further, when the control unit 155 receives a replay instruction, the control unit 155 instructs the output unit 156 to reproduce the read-out voice that has been output so far.

出力部156は、制御部155から指示された音声信号をイヤホン130に出力する機能を有する。出力部156は、読み上げ音声や、文字の音声への変換中を示す音声や、文字がユーザ10の正面方向に文字が存在することを示す音声を、イヤホン130に出力する。   The output unit 156 has a function of outputting an audio signal instructed from the control unit 155 to the earphone 130. The output unit 156 outputs to the earphone 130 a reading voice, a voice indicating that a character is being converted into a voice, or a voice indicating that a character is present in the front direction of the user 10.

以上が、装着具100の構成についての説明である。   The above is the description of the configuration of the wearing tool 100.

次にサーバ200について説明する。図2に示すようにサーバ200は、通信部210と、記憶部220と、制御部230とを備える。通信部210と、記憶部220と、制御部230とは互いにバスを介して接続されている。   Next, the server 200 will be described. As shown in FIG. 2, the server 200 includes a communication unit 210, a storage unit 220, and a control unit 230. The communication unit 210, the storage unit 220, and the control unit 230 are connected to each other via a bus.

通信部210は、ネットワーク300を介して装着具100(コントローラ150)と通信を実行する機能を有する通信インターフェースである。通信部210は、制御部230からの指示に従って、読み上げ音声を装着具100に送信する送信部として機能するとともに、撮像画像を受信する受信部として機能する。通信部210は、装着具100から撮像画像を受信した場合には、当該撮像画像を制御部230に伝達する。   The communication unit 210 is a communication interface having a function of executing communication with the wearing tool 100 (controller 150) via the network 300. The communication unit 210 functions as a transmission unit that transmits a read-out voice to the wearing device 100 according to an instruction from the control unit 230 and also functions as a reception unit that receives a captured image. When the communication unit 210 receives a captured image from the wearing tool 100, the communication unit 210 transmits the captured image to the control unit 230.

記憶部220は、サーバ200が動作上必要とする各種プログラムやデータを記憶する。記憶部220は、例えば、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどにより実現することができるが、これらに限定されるものではない。記憶部220は、画像から文字を抽出するための文字認識プログラムや、認識した文字を音声変換するための音声変換プログラムや、読み上げ音声情報を記憶する。読み上げ音声情報の詳細については、後述する。   The storage unit 220 stores various programs and data necessary for the operation of the server 200. The storage unit 220 can be realized by, for example, an HDD (Hard Disc Drive), an SSD (Solid State Drive), a flash memory, or the like, but is not limited thereto. The storage unit 220 stores a character recognition program for extracting characters from the image, a voice conversion program for converting the recognized characters into voice, and read-out voice information. Details of the reading voice information will be described later.

制御部230は、サーバ200の各部を制御する機能を有するプロセッサである。制御部230は、記憶部220に記憶されている各種プログラムを実行することで、サーバ200として実行すべき機能を果たす。制御部230は、文字認識プログラムを実行することで、抽出部231として機能し、音声変換プログラムを実行することで変換部232として機能する。   The control unit 230 is a processor having a function of controlling each unit of the server 200. The control unit 230 fulfills functions to be executed as the server 200 by executing various programs stored in the storage unit 220. The control unit 230 functions as the extraction unit 231 by executing the character recognition program, and functions as the conversion unit 232 by executing the voice conversion program.

抽出部231は、撮像画像を解析して、当該撮像画像内に含まれる文字を抽出する機能を有する。当該解析技術には、既存の文字認識処理を用いることができる。   The extraction unit 231 has a function of analyzing a captured image and extracting characters included in the captured image. An existing character recognition process can be used for the analysis technique.

変換部232は、抽出部231が抽出した文字を音声(読み上げ音声)に変換する機能を有する。当該変換技術には、既存の変換処理を用いることができる。   The conversion unit 232 has a function of converting the character extracted by the extraction unit 231 into a voice (reading voice). An existing conversion process can be used for the conversion technique.

以上が、サーバ200の構成についての説明である。   The above is the description of the configuration of the server 200.

<データ>
図3は、読み上げシステム1に係るデータのデータ構成例を示す図である。
<Data>
FIG. 3 is a diagram illustrating a data configuration example of data related to the reading system 1.

図3(a)は、装着具100(コントローラ150)がサーバ200に送信する送信データ310(撮像画像)のデータ構成例(フォーマット例)を示す図である。   FIG. 3A is a diagram illustrating a data configuration example (format example) of transmission data 310 (captured image) transmitted from the wearing tool 100 (controller 150) to the server 200. FIG.

図3(a)に示すように、送信データ310は、ユーザID311と、撮像画像情報312と、撮像時間情報313とが対応付けられた情報である。   As illustrated in FIG. 3A, the transmission data 310 is information in which a user ID 311, captured image information 312, and imaging time information 313 are associated with each other.

ユーザID311は、装着具100を使用するユーザ10を一意に特定することができる識別情報である。これにより、サーバ200は、どのユーザからの撮像画像であるかを特定できるとともに、ユーザ毎に撮像画像や生成した読み上げ音声を管理することができる。   The user ID 311 is identification information that can uniquely identify the user 10 who uses the wearing tool 100. Thereby, the server 200 can specify which user the captured image is from, and can manage the captured image and the generated reading voice for each user.

撮像画像情報312は、撮像部111が撮像した撮像画像の実データを示す情報である。   The captured image information 312 is information indicating actual data of a captured image captured by the imaging unit 111.

撮像時間情報313は、撮像画像情報312で示される撮像画像が撮像された日時を示す情報である。当該情報は、図示ししてないが、撮像部111の内部時計から取得することができる。   The imaging time information 313 is information indicating the date and time when the captured image indicated by the captured image information 312 is captured. Although not shown, the information can be acquired from the internal clock of the imaging unit 111.

図3(b)は、サーバ200の記憶部220に記憶されており、読み上げシステム1を利用するユーザ毎に管理する読み上げ音声情報のデータ構成例を示す図である。当該データは、サーバ200が過去に変換して得られた読み上げ音声を管理するための情報である。   FIG. 3B is a diagram illustrating a data configuration example of the read voice information stored in the storage unit 220 of the server 200 and managed for each user who uses the read system 1. The data is information for managing the read-out voice obtained by the server 200 converting in the past.

図3(b)に示すように読み上げ音声情報320は、撮像時間情報321と、撮像画像情報322と、読み上げ音声323とが対応付けられた情報である。   As illustrated in FIG. 3B, the reading voice information 320 is information in which the imaging time information 321, the captured image information 322, and the reading voice 323 are associated with each other.

撮像時間情報321は、対応する撮像画像が撮像された日時を示す情報で、撮像時間情報313と同一の情報である。   The imaging time information 321 is information indicating the date and time when the corresponding captured image was captured, and is the same information as the imaging time information 313.

撮像画像情報322は、撮像画像の実データを示す情報で、撮像画像情報312と同一の情報である。   The captured image information 322 is information indicating actual data of the captured image, and is the same information as the captured image information 312.

読み上げ音声323は、対応する撮像画像情報322から抽出部231が文字を抽出し、当該文字を変換部232が変換して得られた読み上げ音声を示す実データである。   The reading voice 323 is actual data indicating the reading voice obtained by the extraction unit 231 extracting characters from the corresponding captured image information 322 and converting the characters by the conversion unit 232.

読み上げ音声情報320があることにより、サーバ200は、過去の読み上げ音声を管理することができる。   The presence of the reading voice information 320 allows the server 200 to manage past reading voice information.

以上が、読み上げシステム1に主として関わる情報の説明である。   The above is the description of the information mainly related to the reading system 1.

<動作>
ここから、読み上げシステム1の動作について説明する。まず、図4に示すシーケンス図を用いて、読み上げシステム1の全体的な動作を説明した後に、装着具100及びサーバ200の詳細な動作をそれぞれ、図5及び図6のフローチャートを用いて説明する。
<Operation>
From here, the operation of the reading system 1 will be described. First, the overall operation of the reading system 1 will be described using the sequence diagram shown in FIG. 4, and then the detailed operation of the wearing tool 100 and the server 200 will be described using the flowcharts of FIGS. 5 and 6, respectively. .

図4は、装着具100とサーバ200とのやり取りを示したシーケンス図である。図4に示すように、装着具100は、ユーザ10の正面方向の撮像を実行する(ステップS401)。そして、装着具100は、得られた撮像画像をサーバ200に送信する(ステップS402)。   FIG. 4 is a sequence diagram showing the exchange between the wearing tool 100 and the server 200. As illustrated in FIG. 4, the wearing tool 100 performs imaging in the front direction of the user 10 (step S401). Then, the wearing tool 100 transmits the obtained captured image to the server 200 (step S402).

サーバ200は、装着具100から送信された撮像画像を受信する(ステップS403)。すると、サーバ200は、受信した撮像画像から文字を抽出する(ステップS404)。そして、サーバ200は、抽出した文字を音声に変換して読み上げ音声を生成する(ステップS405)。読み上げ音声を生成すると、サーバ200は、これを装着具100に送信する(ステップS406)。   The server 200 receives the captured image transmitted from the wearing tool 100 (step S403). Then, the server 200 extracts characters from the received captured image (step S404). Then, the server 200 converts the extracted character into a voice and generates a reading voice (step S405). When the reading voice is generated, the server 200 transmits it to the wearing tool 100 (step S406).

装着具100は、サーバ200から送信された読み上げ音声を受信する(ステップS407)。すると、装着具100は、受信した読み上げ音声を、出力する(ステップS408)。これにより、読み上げシステム1は、ユーザ10の正面方向(視野方向)に存在する文字を認識して、音でユーザ10に伝えることができる。   The wearing tool 100 receives the read-out voice transmitted from the server 200 (step S407). Then, the wearing tool 100 outputs the received reading voice (step S408). Thereby, the reading system 1 can recognize the character which exists in the front direction (viewing direction) of the user 10, and can tell the user 10 with a sound.

図5は、装着具100の動作を示すフローチャートである。   FIG. 5 is a flowchart showing the operation of the wearing tool 100.

まず、装着具100の入力部154は、ユーザからの入力があったか否かを、各種のボタンの押下があったか否かに基づいて判定する(ステップS501)。ユーザからの入力があった場合には(ステップS501のYES)、ステップS502の処理に移行し、なかった場合には(ステップS501のNO)、ステップS512の処理に移行する。   First, the input unit 154 of the wearing tool 100 determines whether or not there is an input from the user based on whether or not various buttons are pressed (step S501). If there is an input from the user (YES in step S501), the process proceeds to step S502. If not (NO in step S501), the process proceeds to step S512.

ステップS502において、制御部155は、入力部154が受け付けた入力が撮像指示であったか否かを判定する(ステップS502)。入力が撮像指示であった場合には(ステップS502のYES)、ステップS503の処理に移行し、撮像指示でなかった場合には(ステップS502のNO)、ステップS506の処理に移行する。   In step S502, the control unit 155 determines whether or not the input received by the input unit 154 is an imaging instruction (step S502). If the input is an imaging instruction (YES in step S502), the process proceeds to step S503. If the input is not an imaging instruction (NO in step S502), the process proceeds to step S506.

ステップS503において、入力部154が撮像指示をユーザから受け付けると、制御部155に撮像指示が伝達される。これを受けて制御部155は、通信I/F151に撮像信号をウェアラブルグラス110に伝達するように指示する。通信I/F151は当該指示に従って撮像信号を通信I/F112に伝達する。そして、通信I/F112は、撮像部111に撮像信号を伝達し、撮像部111は、撮像を実行する(ステップS503)。   In step S503, when the input unit 154 receives an imaging instruction from the user, the imaging instruction is transmitted to the control unit 155. In response to this, the control unit 155 instructs the communication I / F 151 to transmit the imaging signal to the wearable glass 110. The communication I / F 151 transmits the imaging signal to the communication I / F 112 according to the instruction. Then, the communication I / F 112 transmits an imaging signal to the imaging unit 111, and the imaging unit 111 executes imaging (step S503).

撮像部111は、得られた撮像画像を通信I/F112に伝達し、通信I/F112は、撮像画像を、通信I/F151に伝達する。通信I/F151は、伝達された撮像画像を制御部155に伝達し、制御部155は、これをサーバ200に送信するよう通信部152に指示する。通信部152は、当該指示を受けて、撮像画像をネットワーク300を介してサーバ200に送信する(ステップS504)。   The imaging unit 111 transmits the obtained captured image to the communication I / F 112, and the communication I / F 112 transmits the captured image to the communication I / F 151. The communication I / F 151 transmits the transmitted captured image to the control unit 155, and the control unit 155 instructs the communication unit 152 to transmit this to the server 200. In response to the instruction, the communication unit 152 transmits the captured image to the server 200 via the network 300 (step S504).

そして、撮像画像の送信後に、制御部155は、撮像画像中の文字を音声に変換中であることを示す音声を記憶部153から読み出し、当該音声を出力するように出力部156に指示する。これを受けて出力部156は、イヤホン130に当該音声を出力し、イヤホン130は、当該音声を報知し、ステップS501の処理に戻る。撮像画像に含まれる文字を音声に変換中であることを示す音声を報知することによって、ユーザ10は、今、文字を音声に変換する処理を行っている最中であることを認識することができ、何も音が鳴らない(ユーザ10に対して何の報知も成されない)場合に比して、いらだつことなく待機することができるようになる。   Then, after transmitting the captured image, the control unit 155 reads from the storage unit 153 a voice indicating that characters in the captured image are being converted into a voice, and instructs the output unit 156 to output the voice. In response to this, the output unit 156 outputs the sound to the earphone 130, and the earphone 130 notifies the sound and returns to the process of step S501. By notifying the voice indicating that the character included in the captured image is being converted into speech, the user 10 may recognize that the character is being converted into speech now. As compared with the case where no sound is generated (no notification is made to the user 10), the user can wait without annoyance.

一方、ステップS502において、入力指示が撮像指示ではないと判定した場合に(ステップS502のNO)、入力が音声の一時停止指示であったかを判定する(ステップS506)。入力が音声の一時停止指示であった場合には(ステップS506のYES)、制御部155は、出力部156に対して出力している音声を一時停止するように指示する。当該指示を受け付けて、出力部156は、音声の出力を停止し(ステップS507)、ステップS501の処理に戻る。当該一時停止は、新たな再生指示が入力されるまで、あるいは、完全停止指示が入力されるまで行われる。   On the other hand, if it is determined in step S502 that the input instruction is not an imaging instruction (NO in step S502), it is determined whether the input is a voice pause instruction (step S506). If the input is a voice pause instruction (YES in step S506), the control unit 155 instructs the output unit 156 to pause the voice being output. Receiving the instruction, the output unit 156 stops outputting the sound (step S507), and returns to the process of step S501. The pause is performed until a new reproduction instruction is input or a complete stop instruction is input.

ステップS506において、入力指示が一時停止指示ではないと判定した場合に(ステップS506のNO)、入力がスロー再生の指示であるかを判定する(ステップS508)。入力がスロー再生の指示であった場合には(ステップS508のYES)、制御部155は、出力部156に対して出力している音声をスロー再生するように指示する。当該指示を受けて出力部156は、出力している音声のスロー再生を開始し(ステップS509)、ステップS501の処理に戻る。これによって、早口を聞き取ることに困難を覚えるユーザであっても、音声を正しく認識できるようになる。なお、ここではスロー再生にする例を示しているが、これは上述した通り、再生速度を速めることとしてもよい。再生速度を速めた場合には、撮像した内容に含まれる文字の概要を把握する時間を短縮するのに役立てることができる。   If it is determined in step S506 that the input instruction is not a pause instruction (NO in step S506), it is determined whether the input is a slow reproduction instruction (step S508). If the input is a slow playback instruction (YES in step S508), the control unit 155 instructs the output unit 156 to perform slow playback of the output audio. In response to the instruction, the output unit 156 starts slow playback of the output audio (step S509), and returns to the process of step S501. As a result, even a user who finds difficulty in listening to a quick mouth can recognize voice correctly. Although an example of slow playback is shown here, this may be achieved by increasing the playback speed as described above. Increasing the playback speed can be used to shorten the time for grasping the outline of the characters included in the captured content.

ステップS508において、入力指示がスロー再生ではないと判定した場合に(ステップS508のNO)、入力が再生又はリプレイの入力であるかを判定する(ステップS510)。入力が再生又はリプレイの入力ではない場合には(ステップS510のNO)、ステップS501の処理に戻る。入力が再生又はリプレイの入力であった場合には(ステップS510のYES)、制御部155は、出力部156に一次停止している音声の出力を再開または一度出力した音声のリプレイを実行するように指示する。これを受けて出力部156は、音声の再生を再開またはリプレイし、ステップS501の処理に戻る。これによって、ユーザ10は、読み上げ音声を聞き逃しても、再度聞き直すことができる。   If it is determined in step S508 that the input instruction is not slow playback (NO in step S508), it is determined whether the input is playback or replay input (step S510). If the input is not a reproduction or replay input (NO in step S510), the process returns to step S501. If the input is a playback or replay input (YES in step S510), the control unit 155 resumes the output of the audio that has been temporarily stopped in the output unit 156 or executes the replay of the audio that has been output once. To instruct. In response to this, the output unit 156 resumes or replays the sound and returns to the process of step S501. Thereby, even if the user 10 misses the reading voice, he / she can listen again.

ステップS501においてユーザからの入力がない場合に(ステップS501のNO)、制御部155は、サーバ200から読み上げ音声を受信したか否かを判定する(ステップS512)。読み上げ音声を受信していない場合には(ステップS512のNO)、ステップS501の処理に戻る。   When there is no input from the user in step S501 (NO in step S501), the control unit 155 determines whether or not a read-out voice is received from the server 200 (step S512). If no reading voice has been received (NO in step S512), the process returns to step S501.

読み上げ音声を受信していた場合には(ステップS512のYES)、制御部155は、まず、出力部156に対して、出力している文字の音声への変換中であることを示す音声の出力を中止するように指示する。当該指示を受けて出力部156は、当該音声の出力を停止する(ステップS513)。   If the read-out voice has been received (YES in step S512), the control unit 155 first outputs to the output unit 156 a voice indicating that the output character is being converted into a voice. Instruct to stop. In response to the instruction, the output unit 156 stops outputting the sound (step S513).

そして、制御部155は、出力部156に、通信部132から伝達された読み上げ音声を出力するように指示する。出力部156は、制御部155から伝達された読み上げ音声の出力を開始し(ステップS514)、ステップS501に戻る。   Then, the control unit 155 instructs the output unit 156 to output the reading voice transmitted from the communication unit 132. The output unit 156 starts outputting the reading voice transmitted from the control unit 155 (step S514), and returns to step S501.

以上が、装着具100(コントローラ150)の動作の説明である。   The above is description of operation | movement of the mounting tool 100 (controller 150).

図6は、サーバ200が撮像画像を装着具100から受信したときの動作を示すフローチャートである。   FIG. 6 is a flowchart illustrating an operation when the server 200 receives a captured image from the wearing tool 100.

まず、サーバ200の通信部210は、ネットワーク300を介して、装着具100からの撮像画像を受信する(ステップS601)。通信部210は、受信した撮像画像を制御部230に伝達する。   First, the communication unit 210 of the server 200 receives a captured image from the wearing tool 100 via the network 300 (step S601). The communication unit 210 transmits the received captured image to the control unit 230.

制御部230は、抽出部231として、伝達された撮像画像を解析して、文字を抽出する(ステップS602)。抽出部231は、抽出した文字列を変換部232に伝達する。   As the extraction unit 231, the control unit 230 analyzes the transmitted captured image and extracts characters (step S602). The extraction unit 231 transmits the extracted character string to the conversion unit 232.

変換部232は、抽出した文字列を音声に変換し(ステップS603)、機会音声の合成音声である読み上げ音声を生成する。変換部232は、生成した読み上げ音声を通信部210に伝達する。   The conversion unit 232 converts the extracted character string into speech (step S603), and generates read-out speech that is synthesized speech of opportunity speech. The conversion unit 232 transmits the generated reading voice to the communication unit 210.

通信部210は、変換後の合成音声を読み上げ音声として、ネットワーク300を介して、装着具100に送信する(ステップS604)。   The communication unit 210 transmits the converted synthesized speech to the wearing tool 100 via the network 300 as a read-out speech (step S604).

その後に、制御部230は、受信した撮像画像と、当該撮像画像の撮像日時と、当該撮像画像から得られた読み上げ音声とをそれぞれ、撮像画像情報322、撮像時間情報321、読み上げ音声323として、読み上げ音声情報に登録して(ステップS605)、処理を終了する。   Thereafter, the control unit 230 sets the received captured image, the captured date and time of the captured image, and the reading voice obtained from the captured image as the captured image information 322, the imaging time information 321, and the reading voice 323, respectively. It registers in the reading voice information (step S605), and the process is terminated.

以上が、サーバ200の動作である。以上に説明した動作を実行することにより、読み上げシステム1は、単に認識した文字を読み上げるのではなく、ユーザにとって聞き取りやすいように音声を再生することができる。   The above is the operation of the server 200. By performing the operation described above, the reading system 1 can reproduce the voice so as to be easily heard by the user, not simply reading the recognized character.

<まとめ>
読み上げシステム1は、撮像画像に含まれる文字を認識して音声にして出力することができる。このとき、読み上げシステム1においては、読み上げ音声について、スロー再生や、一次停止、リプレイ等の操作をユーザが行うことができるので、ユーザは、各々の好みにより聞きやすいように音声を再生することができる。したがって、ユーザにとって利便性の高い読み上げシステムを提供することができる。また、読み上げシステム1においては、撮像画像から読み上げ音声を生成する処理を実行している間は、処理中であることを示す音声を報知することで、ユーザ10に状況を認識させることができる。
<Summary>
The reading system 1 can recognize characters included in the captured image and output them as speech. At this time, in the reading system 1, since the user can perform operations such as slow playback, primary stop, and replay for the reading voice, the user can reproduce the voice so that it is easy to hear depending on each preference. it can. Therefore, it is possible to provide a reading system that is convenient for the user. Moreover, in the reading system 1, while performing the process which produces | generates the reading sound from a captured image, the user 10 can be made to recognize a condition by alert | reporting the sound which shows that it is processing.

<補足>
上記実施の形態に係る読み上げシステムは、上記実施の形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
<Supplement>
It goes without saying that the reading system according to the above embodiment is not limited to the above embodiment, and may be realized by other methods. Hereinafter, various modifications will be described.

(1) 上記実施の形態においては、イヤホン130を用いて音声を出力することとしたが、ウェアラブルグラス110又はコントローラ150にスピーカを備えて、出力部156は、当該スピーカから読み上げ音声を出力することとしてもよい。このように構成することで、イヤホン130を装着することを苦痛とするユーザであっても、読み上げ音声を聞くことができる。また、この場合、複数のユーザが同時に音声を聞くことができるというメリットもある。   (1) In the above embodiment, the sound is output using the earphone 130. However, the wearable glass 110 or the controller 150 includes a speaker, and the output unit 156 outputs the reading sound from the speaker. It is good. By configuring in this way, even a user who suffers from wearing earphones 130 can listen to the reading voice. In this case, there is also an advantage that a plurality of users can listen to the sound at the same time.

(2) 上記実施の形態においては、装着具100として、ウェアラブルグラス110と、イヤホン130と、コントローラ150とを含み、それぞれ別の機器として構成する例を示した。しかし、これはその限りではなく、ウェアラブルグラス110と、イヤホン130と、コントローラ150とは一体に成形されてもよい。即ち、ウェアラブルグラス110は、イヤホン130の音声を出力する機能の代替としてスピーカを備え、コントローラ150が有する機能を保持してもよい。例えば、ウェアラブルグラス110のテンプル部分を中空構造とし、その内部に、コントローラ150のプロセッサやメモリ、通信モジュール等を搭載する構成としてもよい。そして、ウェアラブルグラス110のテンプルあるいはリムの外装側に音声再生制御や、撮像指示のための各種のボタンを配することとしてもよい。   (2) In the said embodiment, the wearable glass 110, the earphone 130, and the controller 150 were included as the mounting tool 100, and the example comprised as a respectively separate apparatus was shown. However, this is not limited thereto, and the wearable glass 110, the earphone 130, and the controller 150 may be integrally formed. That is, wearable glass 110 may include a speaker as an alternative to the function of outputting sound from earphone 130 and may retain the function of controller 150. For example, the temple portion of the wearable glass 110 may have a hollow structure, and a processor, a memory, a communication module, and the like of the controller 150 may be mounted therein. And various buttons for voice reproduction control and imaging instructions may be arranged on the exterior of the temple or rim of the wearable glass 110.

(3) 上記実施の形態においては、装着具100とサーバ200とを別の機器として説明したが、装着具100は、サーバ200が有する機能(抽出部及び変換部の機能)を備えることとしてもよい。例えば、コントローラ150にサーバ200が有する機能を実現するチップを備える構成にしてもよい。このように構成すれば、装着具100はスタンドアローンで読み上げシステムを構築することができる。また、撮像画像の送信及び読み上げ音声の受信に係るレイテンシを抑制することができる。   (3) In the above embodiment, the wearing tool 100 and the server 200 are described as separate devices. However, the wearing tool 100 may include the functions (extraction unit and conversion unit functions) of the server 200. Good. For example, the controller 150 may include a chip that realizes the function of the server 200. If comprised in this way, the mounting tool 100 can construct | assemble a reading-out system by stand-alone. In addition, it is possible to suppress latency associated with transmission of captured images and reception of read-out sound.

(4) 上記実施の形態においては、撮像画像から文字を抽出する範囲について予め定めておくこととしたが、これはその限りではない。例えば、ウェアラブルグラス110にユーザの目を撮像するカメラを設けて、視線方向を検出し、その視線方向を中心とした所定範囲を撮像画像に当てはめ、その所定範囲内の文字を検出するように構成してもよい。例えば、ウェアラブルグラス110は、撮像部111が撮像した第1撮像画像と、ユーザの目を撮像した第2撮像画像とをコントローラ150に伝達し、コントローラ150は、第1撮像画像と第2撮像画像とを、サーバ200に送信する。サーバ200の抽出部231は、第2撮像画像からユーザ10の視線方向を特定し、特定した視線方向を含む所定の範囲を特定し、第1撮像画像においてその所定の範囲内に対応する箇所から文字を抽出するように構成してもよい。   (4) In the above embodiment, the range for extracting characters from the captured image is determined in advance, but this is not limited thereto. For example, the wearable glass 110 is provided with a camera that captures the eyes of the user, detects the line-of-sight direction, applies a predetermined range centered on the line-of-sight direction to the captured image, and detects characters within the predetermined range May be. For example, the wearable glass 110 transmits a first captured image captured by the imaging unit 111 and a second captured image captured by the user's eyes to the controller 150, and the controller 150 transmits the first captured image and the second captured image. Is transmitted to the server 200. The extraction unit 231 of the server 200 specifies the line-of-sight direction of the user 10 from the second captured image, specifies a predetermined range including the specified line-of-sight direction, and starts from a location corresponding to the predetermined range in the first captured image. You may comprise so that a character may be extracted.

(5) 上記実施の形態においては、コントローラ150に対する撮像指示の入力を受け付けて、撮像部111が撮像を行うこととしたが、撮像のトリガはこれに限るものではない。例えば、ウェアラブルグラス110又はコントローラ150にマイクを備え、そのマイクでユーザの発する音声を取得する。そして、ユーザが発した特定の言葉に基づいて撮像を行ってもよい。即ち、音声入力による撮像を行ってもよい。   (5) In the above embodiment, the imaging unit 111 receives an input of an imaging instruction to the controller 150 and performs imaging, but the imaging trigger is not limited to this. For example, the wearable glass 110 or the controller 150 is provided with a microphone, and the voice emitted by the user is acquired with the microphone. And you may image based on the specific word which the user uttered. That is, imaging by voice input may be performed.

また、あるいは、ウェアラブルグラス110にユーザの目を撮像するカメラを設け、ユーザの目のブリンク(まばたき)を撮像のトリガとしてもよい。   Alternatively, a camera that captures the user's eyes may be provided in the wearable glass 110, and a blink of the user's eyes may be used as an imaging trigger.

(6) 上記実施の形態においては、入力部154は、コントローラ150に設ける構成を示したが、これはその限りではなく、ケーブル140の途上に設けられてもよい。   (6) In the above embodiment, the input unit 154 is configured to be provided in the controller 150. However, this is not limited thereto, and the input unit 154 may be provided in the middle of the cable 140.

(7) 上記実施の形態においては、特に記載していないが、読み上げシステム1は、読み上げ音声の言語を設定できる設定部を備えることとしてもよい。そして、抽出部231が抽出した文字を設定部に設定された言語に翻訳する翻訳部を備え、変換部232は、翻訳部が翻訳した文字を音声に変換することとしてもよい。この構成を備えることで、読み上げシステム1は、書かれている文字の通訳システムとして機能することができ、弱視者に限らず、異国のユーザにとっても有用なシステムとすることができる。   (7) Although not specifically described in the above embodiment, the reading system 1 may include a setting unit that can set the language of the reading voice. And the translation part which translates the character which the extraction part 231 extracted into the language set to the setting part is provided, and the conversion part 232 is good also as converting the character translated by the translation part into an audio | voice. With this configuration, the reading system 1 can function as an interpreter system for written characters, and can be a system useful not only for low-sighted people but also for users in foreign countries.

(8) 上記実施の形態においては、特に説明していないが、抽出部231は、撮像画像から文字を抽出する範囲を撮像画像全体ではなく、所定の範囲内にとどめてもよい。図7は、撮像画像700の一例を示しており、抽出部231は、この撮像画像700のうち、所定の範囲710内のみを文字を抽出する範囲としてもよい。あるいは、所定の範囲710を優先的に文字を抽出する範囲としてもよい。優先的に文字を抽出する範囲とするとは、当該範囲内をまず文字を抽出する範囲とし、所定の範囲710内から文字を抽出できなかった場合に所定の範囲710外から文字を抽出する処理を行うことをいう。   (8) Although not particularly described in the above embodiment, the extraction unit 231 may limit the range in which characters are extracted from the captured image to a predetermined range instead of the entire captured image. FIG. 7 shows an example of the captured image 700, and the extraction unit 231 may use only a predetermined range 710 in the captured image 700 as a range for extracting characters. Alternatively, the predetermined range 710 may be a range in which characters are extracted with priority. The range in which characters are preferentially extracted is defined as a range in which characters are first extracted, and a process of extracting characters from outside the predetermined range 710 when characters cannot be extracted from the predetermined range 710. To do.

ここで所定の範囲710は、読み上げシステム1を利用するユーザによって設定されてよい。一般にユーザは、正面方向よりも若干下寄りの方向を見る傾向が高い。したがって、撮像画像700の下部寄りに所定の範囲710を設定すれば効果的である。   Here, the predetermined range 710 may be set by a user who uses the reading system 1. In general, the user tends to see a slightly lower direction than the front direction. Therefore, it is effective to set the predetermined range 710 near the lower part of the captured image 700.

また、所定の範囲710は、制御部230が設定することとしてもよい。具体的には、サーバ200が受信した大量の撮像画像について、文字を抽出できた範囲を特定する。そして、その平均範囲を、文字を抽出するための所定の範囲710とすることとしてもよい。   Further, the predetermined range 710 may be set by the control unit 230. Specifically, a range in which characters can be extracted from a large number of captured images received by the server 200 is specified. Then, the average range may be a predetermined range 710 for extracting characters.

また、更には、ウェアラブルグラス110に各種のセンサを備え、当該センサから得られるセンシングデータに基づいて所定の範囲710を決定することとしてもよい。例えば、ウェアラブルグラス110にジャイロセンサを搭載し、装着具100は、撮像画像とともにジャイロセンサのセンシングデータをサーバ200に送信する。そして、抽出部231は、当該ジャイロセンサのセンシングデータに基づいて所定の範囲710を決定してもよい。例えば、センシングデータから、ユーザ10がうつむき加減であると推定した場合には、所定の範囲710を撮像画像700全体に対して下方よりの位置に設定することとしてよい。   Furthermore, the wearable glass 110 may be provided with various sensors, and the predetermined range 710 may be determined based on sensing data obtained from the sensors. For example, a gyro sensor is mounted on the wearable glass 110 and the wearing tool 100 transmits sensing data of the gyro sensor to the server 200 together with the captured image. And the extraction part 231 may determine the predetermined range 710 based on the sensing data of the said gyro sensor. For example, when it is estimated from the sensing data that the user 10 is inadvertently adjusted, the predetermined range 710 may be set at a position below the entire captured image 700.

撮像画像700の全体を解析対象としないことで、音声への変換処理に要する時間を短縮することができる。   By not using the entire captured image 700 as an analysis target, it is possible to reduce the time required for the conversion process to sound.

(9) 上記実施の形態においては、特に記載しなかったが、サーバ200は、ユーザ10が保持するPC等の情報処理装置に、過去ログとして、対応する読み上げ音声情報320を送信する構成を備えてもよい。当該構成により、ユーザ10はいつでも過去の読み上げ音声を聞くことができるようになる。   (9) Although not particularly described in the above embodiment, the server 200 has a configuration for transmitting the corresponding read-out voice information 320 as a past log to an information processing apparatus such as a PC held by the user 10. May be. With this configuration, the user 10 can listen to the past reading voice at any time.

また、さらには、装着具100は、自装置の存在する場所を示す位置情報を取得するための位置情報取得部を備えてもよい。位置情報取得部は、例えば、GPSやGNSS等を利用することにより実現することができる。   Furthermore, the wearing tool 100 may further include a position information acquisition unit for acquiring position information indicating a location where the own apparatus exists. A position information acquisition part is realizable by utilizing GPS, GNSS, etc., for example.

そして、撮像部111が撮像画像を得るごとに、位置情報取得部は、位置情報を取得し、撮像画像に取得した位置情報を対応付ける。装着具100は、位置情報が対応付けられた撮像画像をサーバ200に送信する。サーバ200は、読み上げ音声情報320として、更に、撮像位置を示す撮像位置情報を対応付けて管理してよい。   Each time the imaging unit 111 obtains a captured image, the position information acquisition unit acquires position information and associates the acquired position information with the captured image. The wearing tool 100 transmits the captured image associated with the position information to the server 200. The server 200 may further manage the image pickup position information indicating the image pickup position in association with the reading voice information 320.

そうすると、サーバ200から、読み上げ音声情報320として、位置情報を含む情報がユーザ10の情報処理装置に送信されることから、ユーザ10の情報処理装置においては、更に、図8に示すように読み上げ音声を地図アプリケーションとともに提示することができるようになる。即ち、ユーザ10は、地図上において、いつどこで取得した読み上げ音声であるかを認識することができるようになる。そして、地図情報のログ情報801や802などの上にカーソル803を位置してクリックすることにより、情報処理装置は、読み上げ音声を音声再生ソフト等により再生することとしてもよい。例えば、図8の地図800に示すように、ログ情報801や、ログ情報802があることにより、どこで撮像した撮像画像に基づいて得られた読み上げ音声であるかを認識することができる。   Then, since information including position information is transmitted from the server 200 to the information processing apparatus of the user 10 as the read-out sound information 320, the information processing apparatus of the user 10 further reads out the sound as shown in FIG. Can be presented with a map application. That is, the user 10 can recognize when and where the read-out voice is acquired on the map. Then, by positioning the cursor 803 on the log information 801 or 802 of the map information and clicking it, the information processing apparatus may reproduce the read-out voice by voice reproduction software or the like. For example, as shown in the map 800 of FIG. 8, the presence of the log information 801 and the log information 802 makes it possible to recognize where the voice is read out based on the captured image captured.

(10) 上記実施の形態においては、装着具100の動作として詳細には説明していないが、撮像部111は、逐次撮像を行い、得られた撮像画像に文字が含まれているか否かを検出することとしてよい。そして、文字が含まれていることを検出した場合に、その旨をコントローラ150に伝達し、制御部155は、ユーザ10にそのときの正面方向に文字が存在することを認識させるための音声を報知してよい。そうすると、ユーザ10は、そのタイミング、入力部154に対して撮像指示を入力することができる。この構成を備えることで、ユーザ10が弱視者、特に、盲目であった場合など、文字が存在することも視認できないような場合に、ユーザ10に文字の存在を認識させることができ、ユーザ10にとって、利便性の高い読み上げシステム1を提供することができる。   (10) Although the above embodiment has not been described in detail as the operation of the wearing tool 100, the imaging unit 111 performs sequential imaging and determines whether or not characters are included in the obtained captured image. It may be detected. When it is detected that a character is included, the fact is transmitted to the controller 150, and the control unit 155 generates a voice for causing the user 10 to recognize that the character is present in the front direction at that time. You may inform. Then, the user 10 can input an imaging instruction to the timing and input unit 154. With this configuration, the user 10 can recognize the presence of the character when the user 10 cannot recognize the presence of the character, such as when the user 10 is a low vision person, particularly when the user 10 is blind. Therefore, it is possible to provide a convenient reading system 1.

(11) 上記実施の形態においては、特に記載していないが、撮像部111は、ユーザ(ウェアラブルグラス110)の置かれている環境に応じて撮像条件を変えてもよい。例えば、ウェアラブルグラス110は、各種のセンサ(例えば、照度センサなど)を備え、露光時間や画角を変更することとしてもよい。   (11) Although not particularly described in the above embodiment, the imaging unit 111 may change the imaging condition according to the environment where the user (wearable glass 110) is placed. For example, the wearable glass 110 may include various sensors (for example, an illuminance sensor) and change the exposure time and the angle of view.

(12)上記実施の形態においては、特に記載していないが、サーバ200が画像から文字を抽出できなかったり、抽出した文字を音声に変換できなかったり、画像に文字が含まれていなかった場合には、エラー信号を装着具100に送信し、装着具100はこれを受けてエラーを示す音声を出力部156から出力することとしてもよい。また、エラー音や上記実施の形態に示した変換中であることを示す音声の他、例えば、装着具100を起動したときの起動音や、撮像部111が撮像を行ったときの撮像音(シャッター音)、待機中を示す音、ユーザが処理のキャンセルの入力を行ったときのキャンセル音など各種の音を記憶部153に記憶しておき、制御部155は装着具100の状態に応じて対応する音を出力部156から出力させることとしてもよい。また、通信部152が通信できない(ネットワークと接続できない)場合に、その旨を示す音声を出力部156から出力することとしてもよい。このように各種の状態に応じた音を出力する構成をとることで、装着具100は、装置の状態を音のみでユーザに通知することができる。   (12) In the above embodiment, although not specifically described, the server 200 cannot extract characters from the image, the extracted characters cannot be converted into sound, or the image does not contain characters. Alternatively, the error signal may be transmitted to the wearing tool 100, and the wearing tool 100 may receive the error signal and output a sound indicating the error from the output unit 156. In addition to the error sound and the sound indicating that the conversion is being performed as described in the above embodiment, for example, the start sound when the wearing tool 100 is started and the image pickup sound when the imaging unit 111 performs imaging ( Various sounds such as a shutter sound), a sound indicating standby, and a cancel sound when the user inputs a cancellation of the process are stored in the storage unit 153, and the control unit 155 corresponds to the state of the wearing tool 100. The corresponding sound may be output from the output unit 156. In addition, when the communication unit 152 cannot communicate (cannot connect to the network), a sound indicating that may be output from the output unit 156. By adopting a configuration that outputs sounds according to various states as described above, the wearing tool 100 can notify the user of the state of the device with only sounds.

(13)上記実施の形態においては、特に記載していないが、サーバ200は、撮像画像から文字を抽出した箇所や、文字を抽出した範囲の撮像画像に対する割合に応じて生成する読み上げ音声の態様を変更することとしてもよい。   (13) Although not particularly described in the above embodiment, the server 200 generates a read-out voice that is generated in accordance with the portion where the character is extracted from the captured image and the ratio of the character extraction range to the captured image. It is good also as changing.

文字を抽出した箇所に応じて音声の態様を変えるとは、撮像画像から文字を抽出した撮像画像における箇所に応じて、ユーザによって音声が聞こえてくる方向を変更することをいう。例えば、文字を抽出した箇所が、撮像画像の右寄りから抽出した場合には、ユーザの右側から読み上げ音声が聞こえるように出力部156から出力するように構成してもよい。この構成にすることによって、ユーザから見てどちらの方向にある文字を読み上げたのかを感覚的にユーザに認識させることができる。   Changing the sound mode according to the location where the character is extracted means changing the direction in which the user hears the sound according to the location in the captured image where the character is extracted from the captured image. For example, when the part from which the character is extracted is extracted from the right side of the captured image, it may be configured to output from the output unit 156 so that the reading voice can be heard from the right side of the user. By adopting this configuration, it is possible to make the user sensuously recognize which direction the character is read out as viewed from the user.

また、文字を抽出した範囲の撮像画像に対する割合に応じて生成する読み上げ音声の態様を変更するとは、文字を抽出した範囲の撮像画像に対する割合の多寡に応じて、読み上げ音声の音量を変更するように構成してもよい。即ち、当該割合のパーセンテージと、読み上げ音声を出力する音量とを対応付けて記憶しておき、撮像画像から文字を抽出した範囲のパーセンテージと照らし合わせて読み上げ音声を出力する音量を決定し、その決定した音量で読み上げ音声を出力することとしてもよい。   In addition, changing the aspect of the read-out sound to be generated according to the ratio of the character extraction range to the captured image changes the volume of the read-out sound according to the ratio of the ratio of the character extraction range to the captured image. You may comprise. That is, the percentage of the ratio and the volume for outputting the reading voice are stored in association with each other, and the volume for outputting the reading voice is determined by comparing with the percentage of the range in which characters are extracted from the captured image. It is also possible to output a read-out voice at the volume set.

(14)上記実施の形態においては、送信データ310は、ユーザID311と、撮像画像情報312と、撮像時間情報313とが対応付けられていることとしているが、これ以外にも各種の情報が対応付けられていてよい。例えば、上記補足に示したように、装着具100が存在する箇所を示す位置情報や、装着具100の姿勢を特定し得るジャイロセンサや加速度センサ等のセンシングデータの情報も対応付けられていてもよい。   (14) In the above embodiment, the transmission data 310 is associated with the user ID 311, the captured image information 312, and the imaging time information 313. It may be attached. For example, as shown in the supplement, position information indicating the location where the wearing tool 100 exists and information on sensing data such as a gyro sensor or an acceleration sensor that can specify the posture of the wearing tool 100 may be associated with each other. Good.

また、読み上げ音声情報についても、撮像時間情報321と、撮像画像情報322と、読み上げ音声323とが対応付けられた情報であるとしているが、これ以外にも、撮像画像を解析して得られた文字のテキストデータや、送信データ310に含まれている位置情報やセンシングデータなども対応付けられてよい。   In addition, the reading voice information is also information in which the imaging time information 321, the captured image information 322, and the reading voice 323 are associated with each other. Character text data, position information included in the transmission data 310, sensing data, and the like may also be associated.

読み上げ音声情報は、各種の情報をより多く蓄積して集積することで、各ユーザのライフログとして利用することができる。そして、ユーザからの要望に応じて、サーバ200は、蓄積している情報のうち指定された情報を供与する供与部を備えてもよい。例えば、位置情報を蓄積することによって、ユーザの単位時間当たり(例えば、1日)の移動量に関する情報を提供したり、ユーザがどこに行ったのかの情報を提供したり、ジャイロセンサの情報を利用してユーザの姿勢を特定することで、姿勢の情報を提供(例えば、姿勢の良し悪しなど)したりすることもできる。   The reading voice information can be used as a life log of each user by accumulating and accumulating various kinds of information. And according to the request from a user, the server 200 may be provided with the provision part which provides the designated information among the accumulated information. For example, by accumulating position information, it provides information on the amount of movement per unit time of the user (for example, a day), provides information on where the user has gone, and uses gyro sensor information By specifying the user's posture, posture information can be provided (for example, whether the posture is good or bad).

(15)上記実施の形態においては、読み上げシステム1が音声の読み上げを実行する手法として、読み上げシステム1を構成する各機能部として機能するプロセッサ(制御部155、制御部230)が読み上げプログラム等を実行することにより、読み上げ処理を実行することとしているが、これは装置に集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路を組み込むことによって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。すなわち、図9に示すように、読み上げシステム1を構成する装着具100及びサーバ200における各機能部は、物理的な回路により実現されてもよい。即ち、図9に示すように、装着具100は、撮像回路111aと通信I/F回路112aとを備えるウェアラブルグラス110と、イヤホン130と、通信I/F回路151aと、通信部152aと、記憶回路153aと、入力回路154aと、制御回路155aと、出力回路156aとから構成されてよく、上記実施の形態において対応する各機能部と同様の機能を有することとしてよい。そして、同様に、サーバ200も、通信回路210aと、記憶回路220aと、抽出回路231a及び変換回路232aとを含む制御回路230aとから構成されてよい。   (15) In the above embodiment, as a method for the reading system 1 to read out the voice, the processor (the control unit 155 and the control unit 230) functioning as each functional unit constituting the reading system 1 reads the reading program and the like. It is supposed to execute a reading process by executing this, which is a logic circuit (hardware) or a dedicated circuit formed in an integrated circuit (IC (Integrated Circuit) chip, LSI (Large Scale Integration)) or the like in the device. It may be realized by incorporating. These circuits may be realized by one or a plurality of integrated circuits, and the functions of the plurality of functional units described in the above embodiments may be realized by a single integrated circuit. An LSI may be called a VLSI, a super LSI, an ultra LSI, or the like depending on the degree of integration. That is, as shown in FIG. 9, each functional unit in the wearing tool 100 and the server 200 that constitute the reading system 1 may be realized by a physical circuit. That is, as shown in FIG. 9, the wearing tool 100 includes a wearable glass 110 including an imaging circuit 111a and a communication I / F circuit 112a, an earphone 130, a communication I / F circuit 151a, a communication unit 152a, and a storage. The circuit 153a, the input circuit 154a, the control circuit 155a, and the output circuit 156a may be included, and may have the same functions as the corresponding functional units in the above embodiment. Similarly, the server 200 may include a communication circuit 210a, a storage circuit 220a, and a control circuit 230a including an extraction circuit 231a and a conversion circuit 232a.

また、上記読み上げプログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記読み上げプログラムは、当該読み上げプログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記読み上げプログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   The reading program may be recorded on a recording medium that can be read by the processor. As the recording medium, a “non-temporary tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like. Etc. can be used. The reading program may be supplied to the processor via any transmission medium (such as a communication network or a broadcast wave) that can transmit the reading program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the reading program is embodied by electronic transmission.

なお、上記読み上げプログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。   The reading-out program can be implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), or a markup language such as HTML5.

(16)上記実施の形態及び各補足に示した構成は、適宜組み合わせることとしてもよい。   (16) The configurations described in the above embodiment and each supplement may be combined as appropriate.

1 読み上げシステム
100 装着具
110 ウェアラブルグラス
111 撮像部
112 通信I/F
130 イヤホン
150 コントローラ
151 通信I/F
152 通信部
153 記憶部
154 入力部
155 制御部
156 出力部
200 サーバ
210 通信部
220 記憶部
230 制御部
231 抽出部
232 変換部
1 Reading System 100 Wearing Tool 110 Wearable Glass 111 Imaging Unit 112 Communication I / F
130 Earphone 150 Controller 151 Communication I / F
152 communication unit 153 storage unit 154 input unit 155 control unit 156 output unit 200 server 210 communication unit 220 storage unit 230 control unit 231 extraction unit 232 conversion unit

Claims (10)

ユーザが身に着けて使用する装着具に備えられ、前記ユーザの正面方向を撮像する撮像部と、
前記撮像部が撮像した画像から文字を抽出する抽出部と、
前記抽出部が抽出した文字を音声に変換する変換部と、
前記装着具に備えられ、前記音声を出力する出力部と、
前記装着具に備えられ、ユーザからの入力を受け付ける入力部と、
前記装着具に備えられ、前記入力部を介して受け付けた前記ユーザからの入力に基づいて、前記出力部から出力される音声の再生速度を制御する制御部とを備える読み上げシステム。
An imaging unit that is provided in a wearing tool that a user wears and uses, and that images the front direction of the user;
An extraction unit that extracts characters from an image captured by the imaging unit;
A conversion unit that converts the characters extracted by the extraction unit into speech;
An output unit provided in the wearing tool and outputting the sound;
An input unit provided in the wearing tool for receiving input from a user;
A reading system comprising: a control unit that is provided in the wearing tool and that controls a reproduction speed of a sound output from the output unit based on an input from the user received through the input unit.
前記制御部は、前記入力部を介して受け付けた前記ユーザからの入力に基づいて、前記出力部から出力される音声を一時停止させることを特徴とする請求項1に記載の読み上げシステム。   The reading system according to claim 1, wherein the control unit temporarily stops the sound output from the output unit based on an input from the user received through the input unit. 前記制御部は、前記入力部を介して受け付けた前記ユーザからの入力に基づいて、前記出力部から出力した音声を繰り返し再生することを特徴とする請求項1又は2に記載の読み上げシステム。   The reading system according to claim 1 or 2, wherein the control unit repeatedly reproduces the sound output from the output unit based on the input from the user received through the input unit. 前記出力部は、前記変換部が前記文字を音声に変換している間、文字の変換処理中であることを示す音を出力することを特徴とする請求項1〜3のいずれか一項に記載の読み上げシステム。   4. The output unit according to claim 1, wherein the output unit outputs a sound indicating that a character conversion process is being performed while the conversion unit converts the character into a voice. 5. Reading system described. 前記読み上げシステムは、前記抽出部と前記変換部とを備えるサーバを含み、
前記装着具は、
前記撮像部が撮像した画像を前記サーバに送信する送信部と、
前記変換部が変換した音声を受信する受信部とを備え、
前記出力部は、前記送信部が画像を送信してから前記受信部が前記音声を受信するまでの間、前記文字の変換処理中であることを示す音を出力することを特徴とする請求項4に記載の読み上げシステム。
The reading system includes a server including the extraction unit and the conversion unit,
The wearing tool is
A transmission unit that transmits an image captured by the imaging unit to the server;
A receiving unit that receives the voice converted by the converting unit;
The output unit outputs a sound indicating that the character conversion process is in progress from when the transmitting unit transmits an image until the receiving unit receives the voice. 4. A reading system according to 4.
前記装着具は、周囲の環境に関する環境情報を取得する取得部を備え、
前記撮像部は、前記環境情報に基づいて撮像条件を変更することを特徴とする請求項1〜5のいずれか一項に記載の読み上げシステム。
The wearing device includes an acquisition unit that acquires environmental information about the surrounding environment,
The reading system according to claim 1, wherein the imaging unit changes an imaging condition based on the environment information.
前記装着具は、前記撮像部が撮像している撮像画像中に文字があるか否かを判定する判定部を備え、
前記出力部は、前記判定部が前記撮像画像中に文字が含まれると判定しているときに、撮像部による撮像方向に文字が存在することを示す音声を出力することを特徴とする請求項1〜6のいずれか一項に記載の読み上げシステム。
The wearing tool includes a determination unit that determines whether there is a character in a captured image captured by the imaging unit,
The output unit outputs sound indicating that a character is present in an imaging direction of the imaging unit when the determination unit determines that a character is included in the captured image. The reading system according to any one of 1 to 6.
前記読み上げシステムは、
前記撮像部が撮像した撮像画像と、当該撮像画像に基づいて前記変換部が変換して得られた音声とを対応付けて、前記ユーザの情報処理端末に送信するログ送信部を備えることを特徴とする請求項1〜7のいずれか一項に記載の読み上げシステム。
The reading system is
A log transmission unit configured to associate the captured image captured by the imaging unit with the sound obtained by the conversion unit based on the captured image and transmit the associated image to the information processing terminal of the user; The reading system according to any one of claims 1 to 7.
前記装着具は、自端末の位置を示す位置情報を取得する位置情報取得部を備え、
前記撮像部は、撮像した撮像画像に、撮像したときに前記位置情報が取得した位置情報を対応付け、
前記ログ送信部は、前記撮像画像と前記音声と共に前記位置情報を前記ユーザの情報処理端末に送信することを特徴とする請求項8に記載の読み上げシステム。
The wearing tool includes a position information acquisition unit that acquires position information indicating the position of the terminal.
The imaging unit associates the captured image with the positional information acquired by the positional information when the captured image is captured,
The reading system according to claim 8, wherein the log transmission unit transmits the position information together with the captured image and the sound to the information processing terminal of the user.
ユーザが身に着けて使用する装着具に備えられた撮像部により、前記ユーザの正面方向を撮像する撮像ステップと、
前記撮像ステップにおいて撮像した画像から文字を抽出する抽出ステップと、
前記抽出ステップにおいて抽出した文字を音声に変換する変換ステップと、
前記装着具に備えられた出力部から前記音声を出力する出力ステップと、
前記装着具に備えられた入力部からユーザからの入力を受け付ける入力ステップと、
前記入力部を介して受け付けた前記ユーザからの入力に基づいて、前記出力部から出力する音声の再生速度を制御する制御ステップとを含む読み上げ方法。
An imaging step of imaging the front direction of the user by an imaging unit provided in a wearing tool worn by the user; and
An extraction step of extracting characters from the image captured in the imaging step;
A conversion step of converting the characters extracted in the extraction step into speech;
An output step of outputting the sound from an output unit provided in the wearing tool;
An input step for receiving an input from a user from an input unit provided in the wearing tool;
And a control step of controlling a playback speed of the sound output from the output unit based on an input from the user received via the input unit.
JP2017160888A 2017-08-24 2017-08-24 Reading aloud system and reading aloud method Pending JP2019040005A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017160888A JP2019040005A (en) 2017-08-24 2017-08-24 Reading aloud system and reading aloud method
PCT/JP2018/031366 WO2019039591A1 (en) 2017-08-24 2018-08-24 Read-out system and read-out method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017160888A JP2019040005A (en) 2017-08-24 2017-08-24 Reading aloud system and reading aloud method

Publications (1)

Publication Number Publication Date
JP2019040005A true JP2019040005A (en) 2019-03-14

Family

ID=65440089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017160888A Pending JP2019040005A (en) 2017-08-24 2017-08-24 Reading aloud system and reading aloud method

Country Status (2)

Country Link
JP (1) JP2019040005A (en)
WO (1) WO2019039591A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201435A (en) * 2019-06-12 2020-12-17 株式会社ポニーキャニオン Information processing terminal and information processing method
JP2021129299A (en) * 2020-02-11 2021-09-02 ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co., Ltd. Image text broadcast method and device, electronic circuit, and storage medium
WO2022209043A1 (en) * 2021-03-30 2022-10-06 株式会社Raise the Flag. Ambient environment information transmission device
US11776286B2 (en) 2020-02-11 2023-10-03 NextVPU (Shanghai) Co., Ltd. Image text broadcasting

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006227219A (en) * 2005-02-16 2006-08-31 Advanced Telecommunication Research Institute International Information generating device, information output device, and program
JP5554110B2 (en) * 2010-03-26 2014-07-23 日本電信電話株式会社 Document processing method and document processing system
JP2011209787A (en) * 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
JP2014165616A (en) * 2013-02-23 2014-09-08 Hyogo Prefecture Wearable display for low vision person
JP6120444B2 (en) * 2013-12-25 2017-04-26 Kddi株式会社 Wearable device
JP2016194612A (en) * 2015-03-31 2016-11-17 株式会社ニデック Visual recognition support device and visual recognition support program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201435A (en) * 2019-06-12 2020-12-17 株式会社ポニーキャニオン Information processing terminal and information processing method
JP2021129299A (en) * 2020-02-11 2021-09-02 ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co., Ltd. Image text broadcast method and device, electronic circuit, and storage medium
US11776286B2 (en) 2020-02-11 2023-10-03 NextVPU (Shanghai) Co., Ltd. Image text broadcasting
WO2022209043A1 (en) * 2021-03-30 2022-10-06 株式会社Raise the Flag. Ambient environment information transmission device

Also Published As

Publication number Publication date
WO2019039591A4 (en) 2019-05-09
WO2019039591A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
US10448139B2 (en) Selective sound field environment processing system and method
JP6143975B1 (en) System and method for providing haptic feedback to assist in image capture
JP6574937B2 (en) COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM
US9791948B2 (en) Control device and storage medium
US20180124497A1 (en) Augmented Reality Sharing for Wearable Devices
US20180123813A1 (en) Augmented Reality Conferencing System and Method
US9541761B2 (en) Imaging apparatus and imaging method
US20170303052A1 (en) Wearable auditory feedback device
WO2019039591A4 (en) Read-out system and read-out method
JP2014115457A (en) Information processor and recording medium
US20210350823A1 (en) Systems and methods for processing audio and video using a voice print
CN104509129A (en) Auto detection of headphone orientation
WO2017130486A1 (en) Information processing device, information processing method, and program
JP7100824B2 (en) Data processing equipment, data processing methods and programs
CN115211144A (en) Hearing aid system and method
CN109257490B (en) Audio processing method and device, wearable device and storage medium
US11929087B2 (en) Systems and methods for selectively attenuating a voice
CN114115515A (en) Method and head-mounted unit for assisting a user
WO2022267468A1 (en) Sound processing method and apparatus thereof
CN114371824A (en) Audio processing method, system and related device
US20180167745A1 (en) A head mounted audio acquisition module
WO2020026548A1 (en) Information processing device, information processing method, and acoustic system
WO2018116678A1 (en) Information processing device and method for control thereof
JP2021033368A (en) Reading device
JP2017183857A (en) Head-mounted display device, control method for head-mounted display device, and computer program

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20170925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171124