JP2019040005A - Reading aloud system and reading aloud method - Google Patents
Reading aloud system and reading aloud method Download PDFInfo
- Publication number
- JP2019040005A JP2019040005A JP2017160888A JP2017160888A JP2019040005A JP 2019040005 A JP2019040005 A JP 2019040005A JP 2017160888 A JP2017160888 A JP 2017160888A JP 2017160888 A JP2017160888 A JP 2017160888A JP 2019040005 A JP2019040005 A JP 2019040005A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- user
- imaging
- input
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000006243 chemical reaction Methods 0.000 claims abstract description 32
- 238000000605 extraction Methods 0.000 claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims description 104
- 230000008569 process Effects 0.000 claims description 23
- 230000005540 biological transmission Effects 0.000 claims description 16
- 230000010365 information processing Effects 0.000 claims description 8
- 230000007613 environmental effect Effects 0.000 claims 1
- 238000004891 communication Methods 0.000 description 79
- 239000011521 glass Substances 0.000 description 31
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 9
- 208000010415 Low Vision Diseases 0.000 description 8
- 230000004303 low vision Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B21/00—Teaching, or communicating with, the blind, deaf or mute
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
- G10L21/043—Time compression or expansion by changing speed
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/04—Time compression or expansion
- G10L21/057—Time compression or expansion for improving intelligibility
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Character Discrimination (AREA)
Abstract
Description
本発明は、文章を音声に変換して読み上げる読み上げシステム及び読み上げ方法に関する。 The present invention relates to a reading system and a reading method for converting a sentence into speech and reading it out.
近年、弱視者や文字を読むことが困難な読字障害者の視認を支援する機器の開発が行われている。例えば、特許文献1には、ロービジョン者が屋外で夜間等にも歩行ができるように、前方視界を撮像し表示することのできるウェアラブルディスプレイが開示されている。特許文献1のロービジョン者用ウェアラブルディスプレイによれば、撮像した画像のコントラスト及び明るさを変換して表示している。また、撮像画像に文字があった場合に文字認識処理を行ってその文字をユーザに音声で知らせることも開示している。
In recent years, development of devices that support the visual recognition of people with low vision and people with reading disabilities who are difficult to read characters has been carried out. For example,
ところで、上記特許文献1に記載のロービジョン者用ウェアラブルディスプレイにおいては、文字認識処理によって、その文字をロービジョン者にスピーカにより伝達するとのみ記載しており具体的にどのように音声を伝えるかについては開示がない。また、ユーザによって音の聞こえ方は異なるため、特許文献1に記載のロービジョン者用ウェアラブルディスプレイの場合、ユーザビリティに欠けるという問題がある。
By the way, in the wearable display for the low vision person described in the above-mentioned
そこで、本発明は上記問題に鑑みて成されたものであり、使用するユーザにとって上記特許文献1に記載のロービジョン者用ウェアラブルディスプレイよりも利便性に優れた読み上げシステムを提供することを目的とする。
Therefore, the present invention has been made in view of the above problems, and an object thereof is to provide a reading system that is more convenient for a user who uses the wearable display for low vision users described in
上記課題を解決するために、本発明の一態様に係る読み上げシステムは、ユーザが身に着けて使用する装着具に備えられ、ユーザの正面方向を撮像する撮像部と、撮像部が撮像した画像から文字を抽出する抽出部と、抽出部が抽出した文字を音声に変換する変換部と、装着具に備えられ、音声を出力する出力部と、装着具に備えられ、ユーザからの入力を受け付ける入力部と、装着具に備えられ、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力される音声の再生速度を制御する制御部とを備える。 In order to solve the above-described problem, a reading system according to an aspect of the present invention is provided in a wearing tool worn by a user and includes an imaging unit that images the front direction of the user, and an image captured by the imaging unit. An extraction unit that extracts characters from the input unit, a conversion unit that converts the characters extracted by the extraction unit into speech, an output unit that is provided in the wearing tool and outputs sound, and is provided in the wearing tool and receives input from the user An input unit, and a control unit that is provided in the wearing tool and controls a reproduction speed of the sound output from the output unit based on an input from a user received through the input unit.
上記課題を解決するために、本発明の一態様に係る読み上げ方法は、ユーザが身に着けて使用する装着具に備えられた撮像部により、ユーザの正面方向を撮像する撮像ステップと、撮像ステップにおいて撮像した画像から文字を抽出する抽出ステップと、抽出ステップにおいて抽出した文字を音声に変換する変換ステップと、装着具に備えられた出力部から音声を出力する出力ステップと、装着具に備えられた入力部からユーザからの入力を受け付ける入力ステップと、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力する音声の再生速度を制御する制御ステップとを含む。 In order to solve the above-described problem, a reading method according to an aspect of the present invention includes an imaging step of imaging a front direction of a user by an imaging unit provided in a wearing tool worn by the user, and an imaging step. An extraction step of extracting characters from the image captured in step, a conversion step of converting the characters extracted in the extraction step into speech, an output step of outputting sound from an output unit included in the mounting device, and a mounting device. An input step for receiving an input from the user from the input unit, and a control step for controlling the reproduction speed of the sound output from the output unit based on the input from the user received through the input unit.
また、上記読み上げシステムにおいて、制御部は、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力される音声を一時停止させることとしてもよい。 In the reading system, the control unit may temporarily stop the sound output from the output unit based on the input from the user received through the input unit.
また、上記読み上げシステムにおいて、制御部は、入力部を介して受け付けたユーザからの入力に基づいて、出力部から出力した音声を繰り返し再生することとしてもよい。 In the reading system, the control unit may repeatedly reproduce the sound output from the output unit based on the input from the user received through the input unit.
また、上記読み上げシステムにおいて、出力部は、変換部が文字を音声に変換している間、文字の変換処理中であることを示す音を出力することとしてもよい。 In the reading system, the output unit may output a sound indicating that the character conversion process is being performed while the conversion unit converts the character into a voice.
また、上記読み上げシステムにおいて、読み上げシステムは、抽出部と変換部とを備えるサーバを含み、装着具は、撮像部が撮像した画像をサーバに送信する送信部と、変換部が変換した音声を受信する受信部とを備え、出力部は、送信部が画像を送信してから受信部が音声を受信するまでの間、文字の変換処理中であることを示す音を出力することとしてもよい。 In the reading system, the reading system includes a server including an extraction unit and a conversion unit, and the wearing tool receives a transmission unit that transmits an image captured by the imaging unit to the server, and a sound converted by the conversion unit. The output unit may output a sound indicating that character conversion processing is in progress from when the transmission unit transmits an image until the reception unit receives voice.
また、上記読み上げシステムにおいて、装着具は、周囲の環境に関する環境情報を取得する取得部を備え、撮像部は、環境情報に基づいて撮像条件を変更することとしてもよい。 In the reading system, the wearing tool may include an acquisition unit that acquires environment information about the surrounding environment, and the imaging unit may change the imaging condition based on the environment information.
また、上記読み上げシステムにおいて、装着具は、撮像部が撮像している撮像画像中に文字があるか否かを判定する判定部を備え、出力部は、判定部が撮像画像中に文字が含まれると判定しているときに、撮像部による撮像方向に文字が存在することを示す音声を出力することとしてもよい。 In the reading system, the wearing tool includes a determination unit that determines whether there is a character in the captured image captured by the imaging unit, and the output unit includes the character in the captured image. When it is determined that a character is present, a sound indicating that a character is present in the imaging direction by the imaging unit may be output.
また、上記読み上げシステムにおいて、読み上げシステムは、撮像部が撮像した撮像画像と、当該撮像画像に基づいて変換部が変換して得られた音声とを対応付けて、ユーザの情報処理端末に送信するログ送信部を備えることとしてもよい。 In the reading system, the reading system associates the captured image captured by the imaging unit with the sound obtained by the conversion unit converting based on the captured image, and transmits the associated image to the user information processing terminal. It is good also as providing a log transmission part.
また、上記読み上げシステムにおいて、装着具は、自端末の位置を示す位置情報を取得する位置情報取得部を備え、撮像部は、撮像した撮像画像に、撮像したときに位置情報が取得した位置情報を対応付け、ログ送信部は、撮像画像と音声と共に位置情報をユーザの情報処理端末に送信することとしてもよい。 Further, in the reading system, the wearing tool includes a position information acquisition unit that acquires position information indicating the position of the terminal, and the imaging unit acquires the position information acquired by the position information when the captured image is captured. The log transmission unit may transmit the positional information together with the captured image and the sound to the information processing terminal of the user.
本発明の一態様に係る読み上げシステムは、文字から変換された音声の読み上げの速度を自由に調節することができる。したがって、ユーザビリティに優れた読み上げシステムを提供することができる。 The reading system according to one embodiment of the present invention can freely adjust the speed of reading a voice converted from a character. Therefore, it is possible to provide a reading system with excellent usability.
以下、本発明の一実施態様に係る読み上げシステムについて、図面を参照しながら詳細に説明する。 Hereinafter, a reading system according to an embodiment of the present invention will be described in detail with reference to the drawings.
<実施の形態>
<構成>
図1(a)は、読み上げシステム1に係る装着具100を装着しているユーザの外観例を示す図である。また、図1(b)は、装着具100を用いて撮像を行い、読み上げを行っている様子を示す外観例を示す図である。また、図2は、読み上げシステム1のシステム構成例を示す図である。
<Embodiment>
<Configuration>
FIG. 1A is a diagram illustrating an appearance example of a user wearing the wearing
図1及び図2に示すように、読み上げシステム1は、ユーザが身に着けて使用する装着具100に備えられ、ユーザの正面方向を撮像する撮像部111と、撮像部111が撮像した画像から文字を抽出する抽出部231と、抽出部231が抽出した文字を音声に変換する変換部232と、装着具100に備えられ、音声を出力する出力部156と、装着具100に備えられ、ユーザからの入力を受け付ける入力部154と、装着具100に備えられ、入力部154を介して受け付けたユーザからの入力に基づいて、出力部156から出力される音声の再生速度を制御する制御部155とを備える。このような読み上げシステム1について、以下詳細に説明する。
As shown in FIGS. 1 and 2, the
図1(a)、(b)に示すように、ユーザ10は、ウェアラブルグラス110を装着して使用する。ウェアラブルグラス110には、ユーザからの指示に従って、ユーザの正面方向を撮像できる位置に、撮像部111が配されている。撮像部111は、所謂カメラである。ウェアラブルグラス110は、コントローラ150と接続されている。なお、図1(a)においては、ウェアラブルグラス110は、コード120を介してイヤホン130を経由し、コード140を介して接続するように示しているが、ウェアラブルグラス110とコントローラ150とは、イヤホン130とコントローラ150と同様に直接接続されていてよい。また、ユーザ10は、イヤホン130を耳に装着し、コントローラ150から伝達された読み上げ音声を聞くことができる。図1(a)に示すように、ユーザ10は、コントローラ150を保持し、当該コントローラ150を用いて、撮像の指示や、読み上げ音声の再生に係る指示を行うことができる。図1(b)に示すように、ユーザが撮像指示を行うと、撮像部111は、撮像範囲160を撮像する。そして、撮像範囲160に含まれる文字を認識し、その文字を機械合成音声に変換して読み上げる。したがって、読み上げシステム1は、弱視者等に対して読みにくい文字の情報を提供することができる。
As shown in FIGS. 1A and 1B, the
図2は、読み上げシステム1のシステム構成例であり、読み上げシステム1は、装着具100と、サーバ200とを含む。装着具100と、サーバ200とは、ネットワーク300を介して通信可能に構成されている。装着具100とネットワーク300は、無線通信により通信を行う。なお、無線通信を実行できれば、どのような通信プロトコルを用いてもよい。また、サーバ200もネットワークと通信を行うが、これは、無線通信でも有線通信でもいずれの通信態様をとってもよく、また、通信を実行できればどのような通信プロトコルを用いてもよい。
FIG. 2 is a system configuration example of the
図2に示すように、装着具100は、ウェアラブルグラス110と、イヤホン130と、コントローラ150とを備える。即ち、本実施の形態においては、図2に示すように、ウェアラブルグラス110と、イヤホン130と、コントローラ150とを纏めて装着具100として呼称する。また、ここでは、ウェアラブルグラス110としているが、ユーザ10の正面方向(視野方向)を撮像できるものであればよく、眼鏡に限るものではないことは言うまでもない。
As shown in FIG. 2, the wearing
ウェアラブルグラス110は、撮像部111と、通信I/F112を備える。
The
撮像部111は、ユーザの正面方向を撮像可能なカメラである。撮像部111は、通信I/F112から指示された撮像信号を受けて撮像を行う。撮像部111は、ユーザの正面方向を撮像可能に設けられていればウェアラブルグラス110のどこに設けられてもよい。図1においては、ウェアラブルグラスの左側丁番部分に設ける例を示しているが、撮像部111は、右側丁番部分に設けることとしてもよいし、ブリッジ部分に設けることとしてもよい。撮像部111は、撮像して得られた撮像画像を、通信I/F112に伝達する。また、撮像部111は、逐次撮像を行いながら、撮像画像を解析して撮像画像中の文字の有無を検出する検出機能を有してよく、このとき、撮像画像中に文字が含まれていると判定した場合に、ユーザの正面方向に文字が存在すること旨を示す存在信号を通信I/F112に伝達する。
The
通信I/F112は、コントローラ150と通信を行う機能を有する通信インターフェースである。通信I/F112は、コントローラ150の通信I/F151と通信可能に接続されている。ここでは、図1に示すように有線により接続されていることとするが、これは、無線接続であってもよい。通信I/F112は、コントローラ150の通信I/F151から伝達された撮像信号を撮像部111に伝達する。また、通信I/F112は、撮像部111から伝達された撮像画像や、ユーザの正面方向に文字が存在することを示す存在信号を、通信I/F151に伝達する。
The communication I /
イヤホン130は、コントローラ150の出力部156に接続されており、出力部156から伝達された音声信号を音声として出力する機能を有する。ここでは、図1に示すように、イヤホン130は有線によりコントローラ150と接続されていることとするが、これは、無線接続であってもよい。イヤホン130は、撮像画像に基づいて検出された文字を読み上げた読み上げ音声や、文字の解析中であることを示す音や、撮像部111の正面方向に文字があることを示す音を出力する。
The
コントローラ150は、通信I/F151と、通信部152と、記憶部153と、入力部154と、制御部155と、出力部156とを備える。図1に示すように、コントローラ150の各部は互いにバスにより接続されている。
The
通信I/F151は、ウェアラブルグラス110の通信I/F112と通信を行う機能を有する通信インターフェースである。通信I/F151は、制御部155から撮像信号を受け取ると、当該撮像信号を通信I/F112に伝達する。また、通信I/F151は、通信I/F112から撮像画像や存在信号を受け取ると、制御部155に伝達する。
The communication I /
通信部152は、ネットワーク300を介してサーバ200と通信を実行する機能を有する通信インターフェースである。通信部152は、制御部155からの指示に従って、撮像画像をサーバ200に送信部として機能するとともに、撮像画像に含まれる文字を音声に変換した読み上げ音声をサーバ200から受信する受信部として機能する。通信部152は、サーバ200から読み上げ音声を受信した場合には、当該読み上げ音声を制御部155に伝達する。
The
記憶部153は、コントローラ150が機能するために必要とする各種のプログラムやデータを記憶する機能を有する。記憶部153は、例えば、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどにより実現することができるが、これらに限定されるものではない。記憶部153は、制御部155によって実行される読み上げプログラムや、撮像部111が撮像した撮像画像や、通信部152が受信した読み上げ音声の情報などを記憶する。また、記憶部153は、通信部152が撮像画像をサーバ200に送信してから読み上げ音声を受信するまでの間に出力部156から出力する音であって文字を音声に変換中であることを示す音声情報を記憶する。さらには、記憶部153は、撮像部111の撮像方向に文字があった場合にユーザ10にその旨を報知するための音声情報も記憶する。
The
入力部154は、ユーザ10からの入力を受け付ける機能を有する。入力部154は、例えば、コントローラ150に備えられたハードキーにより実現することができるが、これは、タッチパネルなどにより実現することとしてもよい。入力部154は、ユーザ10が撮像を指示するための撮像ボタン154aや、再生、一時停止、リプレイを指示するための再生ボタン154bや、音声の再生速度を調整するための調整ボタン154cを含んでよい。入力部154は、各ボタンの押下に応じて、押下された内容を示す信号を制御部155に伝達する。
The
制御部155は、コントローラ150の各部を制御する機能を有するプロセッサである。制御部155は、記憶部153に記憶されている各種プログラムを実行することで、コントローラ150として実行すべき機能を果たす。
The
制御部155は、入力部154から撮像指示を伝達された場合には、通信I/F151に撮像信号をウェアラブルグラス110に送信するように指示する。
When receiving an imaging instruction from the
また、制御部155は、通信I/F151から撮像画像を伝達された場合には、当該撮像画像をサーバ200に送信するように通信部152に指示する。また、当該指示の後に、制御部155は、記憶部153から、撮像画像に含まれる文字の音声への変換中であることを示す音声を読み出し、出力部156に出力するように指示する。
In addition, when the captured image is transmitted from the communication I /
制御部155は、通信部152から読み上げ音声を伝達された場合には、変換中であることを示す音声の出力の停止を出力部156に指示する。そして、制御部155は、読み上げ音声を出力するように出力部156に指示する。
When the reading voice is transmitted from the
また、制御部155は、通信I/F151から存在信号を伝達された場合には、記憶部153からユーザ10の正面方向に文字が存在することを示す音声を読み出して、出力部156に出力するように指示する。
In addition, when the presence signal is transmitted from the communication I /
また、制御部155は、入力部154から伝達されたユーザ10からの指示に応じて読み上げ音声の再生制御処理を実行する。例えば、一時停止指示を受け付けた場合には、読み上げ音声の再生を一時中止するように出力部156に指示する。
In addition, the
また、例えば、スロー再生指示を受け付けた場合には制御部155は読み上げ音声のスロー再生を実行するように出力部156に指示する。スロー再生指示は、再生速度の調整指示によって代替することもでき、制御部155は、読み上げ音声の再生速度を早くしたり遅くしたりすることもできる。また、制御部155は、リプレイ指示を受け付けた場合には、それまでに出力していた読み上げ音声をもう一度再生するように出力部156に指示する。
Further, for example, when a slow reproduction instruction is received, the
出力部156は、制御部155から指示された音声信号をイヤホン130に出力する機能を有する。出力部156は、読み上げ音声や、文字の音声への変換中を示す音声や、文字がユーザ10の正面方向に文字が存在することを示す音声を、イヤホン130に出力する。
The
以上が、装着具100の構成についての説明である。
The above is the description of the configuration of the wearing
次にサーバ200について説明する。図2に示すようにサーバ200は、通信部210と、記憶部220と、制御部230とを備える。通信部210と、記憶部220と、制御部230とは互いにバスを介して接続されている。
Next, the
通信部210は、ネットワーク300を介して装着具100(コントローラ150)と通信を実行する機能を有する通信インターフェースである。通信部210は、制御部230からの指示に従って、読み上げ音声を装着具100に送信する送信部として機能するとともに、撮像画像を受信する受信部として機能する。通信部210は、装着具100から撮像画像を受信した場合には、当該撮像画像を制御部230に伝達する。
The
記憶部220は、サーバ200が動作上必要とする各種プログラムやデータを記憶する。記憶部220は、例えば、HDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどにより実現することができるが、これらに限定されるものではない。記憶部220は、画像から文字を抽出するための文字認識プログラムや、認識した文字を音声変換するための音声変換プログラムや、読み上げ音声情報を記憶する。読み上げ音声情報の詳細については、後述する。
The
制御部230は、サーバ200の各部を制御する機能を有するプロセッサである。制御部230は、記憶部220に記憶されている各種プログラムを実行することで、サーバ200として実行すべき機能を果たす。制御部230は、文字認識プログラムを実行することで、抽出部231として機能し、音声変換プログラムを実行することで変換部232として機能する。
The
抽出部231は、撮像画像を解析して、当該撮像画像内に含まれる文字を抽出する機能を有する。当該解析技術には、既存の文字認識処理を用いることができる。 The extraction unit 231 has a function of analyzing a captured image and extracting characters included in the captured image. An existing character recognition process can be used for the analysis technique.
変換部232は、抽出部231が抽出した文字を音声(読み上げ音声)に変換する機能を有する。当該変換技術には、既存の変換処理を用いることができる。
The
以上が、サーバ200の構成についての説明である。
The above is the description of the configuration of the
<データ>
図3は、読み上げシステム1に係るデータのデータ構成例を示す図である。
<Data>
FIG. 3 is a diagram illustrating a data configuration example of data related to the
図3(a)は、装着具100(コントローラ150)がサーバ200に送信する送信データ310(撮像画像)のデータ構成例(フォーマット例)を示す図である。
FIG. 3A is a diagram illustrating a data configuration example (format example) of transmission data 310 (captured image) transmitted from the wearing tool 100 (controller 150) to the
図3(a)に示すように、送信データ310は、ユーザID311と、撮像画像情報312と、撮像時間情報313とが対応付けられた情報である。
As illustrated in FIG. 3A, the
ユーザID311は、装着具100を使用するユーザ10を一意に特定することができる識別情報である。これにより、サーバ200は、どのユーザからの撮像画像であるかを特定できるとともに、ユーザ毎に撮像画像や生成した読み上げ音声を管理することができる。
The
撮像画像情報312は、撮像部111が撮像した撮像画像の実データを示す情報である。
The captured
撮像時間情報313は、撮像画像情報312で示される撮像画像が撮像された日時を示す情報である。当該情報は、図示ししてないが、撮像部111の内部時計から取得することができる。
The
図3(b)は、サーバ200の記憶部220に記憶されており、読み上げシステム1を利用するユーザ毎に管理する読み上げ音声情報のデータ構成例を示す図である。当該データは、サーバ200が過去に変換して得られた読み上げ音声を管理するための情報である。
FIG. 3B is a diagram illustrating a data configuration example of the read voice information stored in the
図3(b)に示すように読み上げ音声情報320は、撮像時間情報321と、撮像画像情報322と、読み上げ音声323とが対応付けられた情報である。
As illustrated in FIG. 3B, the reading
撮像時間情報321は、対応する撮像画像が撮像された日時を示す情報で、撮像時間情報313と同一の情報である。
The
撮像画像情報322は、撮像画像の実データを示す情報で、撮像画像情報312と同一の情報である。
The captured
読み上げ音声323は、対応する撮像画像情報322から抽出部231が文字を抽出し、当該文字を変換部232が変換して得られた読み上げ音声を示す実データである。
The
読み上げ音声情報320があることにより、サーバ200は、過去の読み上げ音声を管理することができる。
The presence of the
以上が、読み上げシステム1に主として関わる情報の説明である。
The above is the description of the information mainly related to the
<動作>
ここから、読み上げシステム1の動作について説明する。まず、図4に示すシーケンス図を用いて、読み上げシステム1の全体的な動作を説明した後に、装着具100及びサーバ200の詳細な動作をそれぞれ、図5及び図6のフローチャートを用いて説明する。
<Operation>
From here, the operation of the
図4は、装着具100とサーバ200とのやり取りを示したシーケンス図である。図4に示すように、装着具100は、ユーザ10の正面方向の撮像を実行する(ステップS401)。そして、装着具100は、得られた撮像画像をサーバ200に送信する(ステップS402)。
FIG. 4 is a sequence diagram showing the exchange between the wearing
サーバ200は、装着具100から送信された撮像画像を受信する(ステップS403)。すると、サーバ200は、受信した撮像画像から文字を抽出する(ステップS404)。そして、サーバ200は、抽出した文字を音声に変換して読み上げ音声を生成する(ステップS405)。読み上げ音声を生成すると、サーバ200は、これを装着具100に送信する(ステップS406)。
The
装着具100は、サーバ200から送信された読み上げ音声を受信する(ステップS407)。すると、装着具100は、受信した読み上げ音声を、出力する(ステップS408)。これにより、読み上げシステム1は、ユーザ10の正面方向(視野方向)に存在する文字を認識して、音でユーザ10に伝えることができる。
The wearing
図5は、装着具100の動作を示すフローチャートである。
FIG. 5 is a flowchart showing the operation of the wearing
まず、装着具100の入力部154は、ユーザからの入力があったか否かを、各種のボタンの押下があったか否かに基づいて判定する(ステップS501)。ユーザからの入力があった場合には(ステップS501のYES)、ステップS502の処理に移行し、なかった場合には(ステップS501のNO)、ステップS512の処理に移行する。
First, the
ステップS502において、制御部155は、入力部154が受け付けた入力が撮像指示であったか否かを判定する(ステップS502)。入力が撮像指示であった場合には(ステップS502のYES)、ステップS503の処理に移行し、撮像指示でなかった場合には(ステップS502のNO)、ステップS506の処理に移行する。
In step S502, the
ステップS503において、入力部154が撮像指示をユーザから受け付けると、制御部155に撮像指示が伝達される。これを受けて制御部155は、通信I/F151に撮像信号をウェアラブルグラス110に伝達するように指示する。通信I/F151は当該指示に従って撮像信号を通信I/F112に伝達する。そして、通信I/F112は、撮像部111に撮像信号を伝達し、撮像部111は、撮像を実行する(ステップS503)。
In step S503, when the
撮像部111は、得られた撮像画像を通信I/F112に伝達し、通信I/F112は、撮像画像を、通信I/F151に伝達する。通信I/F151は、伝達された撮像画像を制御部155に伝達し、制御部155は、これをサーバ200に送信するよう通信部152に指示する。通信部152は、当該指示を受けて、撮像画像をネットワーク300を介してサーバ200に送信する(ステップS504)。
The
そして、撮像画像の送信後に、制御部155は、撮像画像中の文字を音声に変換中であることを示す音声を記憶部153から読み出し、当該音声を出力するように出力部156に指示する。これを受けて出力部156は、イヤホン130に当該音声を出力し、イヤホン130は、当該音声を報知し、ステップS501の処理に戻る。撮像画像に含まれる文字を音声に変換中であることを示す音声を報知することによって、ユーザ10は、今、文字を音声に変換する処理を行っている最中であることを認識することができ、何も音が鳴らない(ユーザ10に対して何の報知も成されない)場合に比して、いらだつことなく待機することができるようになる。
Then, after transmitting the captured image, the
一方、ステップS502において、入力指示が撮像指示ではないと判定した場合に(ステップS502のNO)、入力が音声の一時停止指示であったかを判定する(ステップS506)。入力が音声の一時停止指示であった場合には(ステップS506のYES)、制御部155は、出力部156に対して出力している音声を一時停止するように指示する。当該指示を受け付けて、出力部156は、音声の出力を停止し(ステップS507)、ステップS501の処理に戻る。当該一時停止は、新たな再生指示が入力されるまで、あるいは、完全停止指示が入力されるまで行われる。
On the other hand, if it is determined in step S502 that the input instruction is not an imaging instruction (NO in step S502), it is determined whether the input is a voice pause instruction (step S506). If the input is a voice pause instruction (YES in step S506), the
ステップS506において、入力指示が一時停止指示ではないと判定した場合に(ステップS506のNO)、入力がスロー再生の指示であるかを判定する(ステップS508)。入力がスロー再生の指示であった場合には(ステップS508のYES)、制御部155は、出力部156に対して出力している音声をスロー再生するように指示する。当該指示を受けて出力部156は、出力している音声のスロー再生を開始し(ステップS509)、ステップS501の処理に戻る。これによって、早口を聞き取ることに困難を覚えるユーザであっても、音声を正しく認識できるようになる。なお、ここではスロー再生にする例を示しているが、これは上述した通り、再生速度を速めることとしてもよい。再生速度を速めた場合には、撮像した内容に含まれる文字の概要を把握する時間を短縮するのに役立てることができる。
If it is determined in step S506 that the input instruction is not a pause instruction (NO in step S506), it is determined whether the input is a slow reproduction instruction (step S508). If the input is a slow playback instruction (YES in step S508), the
ステップS508において、入力指示がスロー再生ではないと判定した場合に(ステップS508のNO)、入力が再生又はリプレイの入力であるかを判定する(ステップS510)。入力が再生又はリプレイの入力ではない場合には(ステップS510のNO)、ステップS501の処理に戻る。入力が再生又はリプレイの入力であった場合には(ステップS510のYES)、制御部155は、出力部156に一次停止している音声の出力を再開または一度出力した音声のリプレイを実行するように指示する。これを受けて出力部156は、音声の再生を再開またはリプレイし、ステップS501の処理に戻る。これによって、ユーザ10は、読み上げ音声を聞き逃しても、再度聞き直すことができる。
If it is determined in step S508 that the input instruction is not slow playback (NO in step S508), it is determined whether the input is playback or replay input (step S510). If the input is not a reproduction or replay input (NO in step S510), the process returns to step S501. If the input is a playback or replay input (YES in step S510), the
ステップS501においてユーザからの入力がない場合に(ステップS501のNO)、制御部155は、サーバ200から読み上げ音声を受信したか否かを判定する(ステップS512)。読み上げ音声を受信していない場合には(ステップS512のNO)、ステップS501の処理に戻る。
When there is no input from the user in step S501 (NO in step S501), the
読み上げ音声を受信していた場合には(ステップS512のYES)、制御部155は、まず、出力部156に対して、出力している文字の音声への変換中であることを示す音声の出力を中止するように指示する。当該指示を受けて出力部156は、当該音声の出力を停止する(ステップS513)。
If the read-out voice has been received (YES in step S512), the
そして、制御部155は、出力部156に、通信部132から伝達された読み上げ音声を出力するように指示する。出力部156は、制御部155から伝達された読み上げ音声の出力を開始し(ステップS514)、ステップS501に戻る。
Then, the
以上が、装着具100(コントローラ150)の動作の説明である。 The above is description of operation | movement of the mounting tool 100 (controller 150).
図6は、サーバ200が撮像画像を装着具100から受信したときの動作を示すフローチャートである。
FIG. 6 is a flowchart illustrating an operation when the
まず、サーバ200の通信部210は、ネットワーク300を介して、装着具100からの撮像画像を受信する(ステップS601)。通信部210は、受信した撮像画像を制御部230に伝達する。
First, the
制御部230は、抽出部231として、伝達された撮像画像を解析して、文字を抽出する(ステップS602)。抽出部231は、抽出した文字列を変換部232に伝達する。
As the extraction unit 231, the
変換部232は、抽出した文字列を音声に変換し(ステップS603)、機会音声の合成音声である読み上げ音声を生成する。変換部232は、生成した読み上げ音声を通信部210に伝達する。
The
通信部210は、変換後の合成音声を読み上げ音声として、ネットワーク300を介して、装着具100に送信する(ステップS604)。
The
その後に、制御部230は、受信した撮像画像と、当該撮像画像の撮像日時と、当該撮像画像から得られた読み上げ音声とをそれぞれ、撮像画像情報322、撮像時間情報321、読み上げ音声323として、読み上げ音声情報に登録して(ステップS605)、処理を終了する。
Thereafter, the
以上が、サーバ200の動作である。以上に説明した動作を実行することにより、読み上げシステム1は、単に認識した文字を読み上げるのではなく、ユーザにとって聞き取りやすいように音声を再生することができる。
The above is the operation of the
<まとめ>
読み上げシステム1は、撮像画像に含まれる文字を認識して音声にして出力することができる。このとき、読み上げシステム1においては、読み上げ音声について、スロー再生や、一次停止、リプレイ等の操作をユーザが行うことができるので、ユーザは、各々の好みにより聞きやすいように音声を再生することができる。したがって、ユーザにとって利便性の高い読み上げシステムを提供することができる。また、読み上げシステム1においては、撮像画像から読み上げ音声を生成する処理を実行している間は、処理中であることを示す音声を報知することで、ユーザ10に状況を認識させることができる。
<Summary>
The
<補足>
上記実施の形態に係る読み上げシステムは、上記実施の形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
<Supplement>
It goes without saying that the reading system according to the above embodiment is not limited to the above embodiment, and may be realized by other methods. Hereinafter, various modifications will be described.
(1) 上記実施の形態においては、イヤホン130を用いて音声を出力することとしたが、ウェアラブルグラス110又はコントローラ150にスピーカを備えて、出力部156は、当該スピーカから読み上げ音声を出力することとしてもよい。このように構成することで、イヤホン130を装着することを苦痛とするユーザであっても、読み上げ音声を聞くことができる。また、この場合、複数のユーザが同時に音声を聞くことができるというメリットもある。
(1) In the above embodiment, the sound is output using the
(2) 上記実施の形態においては、装着具100として、ウェアラブルグラス110と、イヤホン130と、コントローラ150とを含み、それぞれ別の機器として構成する例を示した。しかし、これはその限りではなく、ウェアラブルグラス110と、イヤホン130と、コントローラ150とは一体に成形されてもよい。即ち、ウェアラブルグラス110は、イヤホン130の音声を出力する機能の代替としてスピーカを備え、コントローラ150が有する機能を保持してもよい。例えば、ウェアラブルグラス110のテンプル部分を中空構造とし、その内部に、コントローラ150のプロセッサやメモリ、通信モジュール等を搭載する構成としてもよい。そして、ウェアラブルグラス110のテンプルあるいはリムの外装側に音声再生制御や、撮像指示のための各種のボタンを配することとしてもよい。
(2) In the said embodiment, the
(3) 上記実施の形態においては、装着具100とサーバ200とを別の機器として説明したが、装着具100は、サーバ200が有する機能(抽出部及び変換部の機能)を備えることとしてもよい。例えば、コントローラ150にサーバ200が有する機能を実現するチップを備える構成にしてもよい。このように構成すれば、装着具100はスタンドアローンで読み上げシステムを構築することができる。また、撮像画像の送信及び読み上げ音声の受信に係るレイテンシを抑制することができる。
(3) In the above embodiment, the wearing
(4) 上記実施の形態においては、撮像画像から文字を抽出する範囲について予め定めておくこととしたが、これはその限りではない。例えば、ウェアラブルグラス110にユーザの目を撮像するカメラを設けて、視線方向を検出し、その視線方向を中心とした所定範囲を撮像画像に当てはめ、その所定範囲内の文字を検出するように構成してもよい。例えば、ウェアラブルグラス110は、撮像部111が撮像した第1撮像画像と、ユーザの目を撮像した第2撮像画像とをコントローラ150に伝達し、コントローラ150は、第1撮像画像と第2撮像画像とを、サーバ200に送信する。サーバ200の抽出部231は、第2撮像画像からユーザ10の視線方向を特定し、特定した視線方向を含む所定の範囲を特定し、第1撮像画像においてその所定の範囲内に対応する箇所から文字を抽出するように構成してもよい。
(4) In the above embodiment, the range for extracting characters from the captured image is determined in advance, but this is not limited thereto. For example, the
(5) 上記実施の形態においては、コントローラ150に対する撮像指示の入力を受け付けて、撮像部111が撮像を行うこととしたが、撮像のトリガはこれに限るものではない。例えば、ウェアラブルグラス110又はコントローラ150にマイクを備え、そのマイクでユーザの発する音声を取得する。そして、ユーザが発した特定の言葉に基づいて撮像を行ってもよい。即ち、音声入力による撮像を行ってもよい。
(5) In the above embodiment, the
また、あるいは、ウェアラブルグラス110にユーザの目を撮像するカメラを設け、ユーザの目のブリンク(まばたき)を撮像のトリガとしてもよい。
Alternatively, a camera that captures the user's eyes may be provided in the
(6) 上記実施の形態においては、入力部154は、コントローラ150に設ける構成を示したが、これはその限りではなく、ケーブル140の途上に設けられてもよい。
(6) In the above embodiment, the
(7) 上記実施の形態においては、特に記載していないが、読み上げシステム1は、読み上げ音声の言語を設定できる設定部を備えることとしてもよい。そして、抽出部231が抽出した文字を設定部に設定された言語に翻訳する翻訳部を備え、変換部232は、翻訳部が翻訳した文字を音声に変換することとしてもよい。この構成を備えることで、読み上げシステム1は、書かれている文字の通訳システムとして機能することができ、弱視者に限らず、異国のユーザにとっても有用なシステムとすることができる。
(7) Although not specifically described in the above embodiment, the
(8) 上記実施の形態においては、特に説明していないが、抽出部231は、撮像画像から文字を抽出する範囲を撮像画像全体ではなく、所定の範囲内にとどめてもよい。図7は、撮像画像700の一例を示しており、抽出部231は、この撮像画像700のうち、所定の範囲710内のみを文字を抽出する範囲としてもよい。あるいは、所定の範囲710を優先的に文字を抽出する範囲としてもよい。優先的に文字を抽出する範囲とするとは、当該範囲内をまず文字を抽出する範囲とし、所定の範囲710内から文字を抽出できなかった場合に所定の範囲710外から文字を抽出する処理を行うことをいう。
(8) Although not particularly described in the above embodiment, the extraction unit 231 may limit the range in which characters are extracted from the captured image to a predetermined range instead of the entire captured image. FIG. 7 shows an example of the captured
ここで所定の範囲710は、読み上げシステム1を利用するユーザによって設定されてよい。一般にユーザは、正面方向よりも若干下寄りの方向を見る傾向が高い。したがって、撮像画像700の下部寄りに所定の範囲710を設定すれば効果的である。
Here, the
また、所定の範囲710は、制御部230が設定することとしてもよい。具体的には、サーバ200が受信した大量の撮像画像について、文字を抽出できた範囲を特定する。そして、その平均範囲を、文字を抽出するための所定の範囲710とすることとしてもよい。
Further, the
また、更には、ウェアラブルグラス110に各種のセンサを備え、当該センサから得られるセンシングデータに基づいて所定の範囲710を決定することとしてもよい。例えば、ウェアラブルグラス110にジャイロセンサを搭載し、装着具100は、撮像画像とともにジャイロセンサのセンシングデータをサーバ200に送信する。そして、抽出部231は、当該ジャイロセンサのセンシングデータに基づいて所定の範囲710を決定してもよい。例えば、センシングデータから、ユーザ10がうつむき加減であると推定した場合には、所定の範囲710を撮像画像700全体に対して下方よりの位置に設定することとしてよい。
Furthermore, the
撮像画像700の全体を解析対象としないことで、音声への変換処理に要する時間を短縮することができる。
By not using the entire captured
(9) 上記実施の形態においては、特に記載しなかったが、サーバ200は、ユーザ10が保持するPC等の情報処理装置に、過去ログとして、対応する読み上げ音声情報320を送信する構成を備えてもよい。当該構成により、ユーザ10はいつでも過去の読み上げ音声を聞くことができるようになる。
(9) Although not particularly described in the above embodiment, the
また、さらには、装着具100は、自装置の存在する場所を示す位置情報を取得するための位置情報取得部を備えてもよい。位置情報取得部は、例えば、GPSやGNSS等を利用することにより実現することができる。
Furthermore, the wearing
そして、撮像部111が撮像画像を得るごとに、位置情報取得部は、位置情報を取得し、撮像画像に取得した位置情報を対応付ける。装着具100は、位置情報が対応付けられた撮像画像をサーバ200に送信する。サーバ200は、読み上げ音声情報320として、更に、撮像位置を示す撮像位置情報を対応付けて管理してよい。
Each time the
そうすると、サーバ200から、読み上げ音声情報320として、位置情報を含む情報がユーザ10の情報処理装置に送信されることから、ユーザ10の情報処理装置においては、更に、図8に示すように読み上げ音声を地図アプリケーションとともに提示することができるようになる。即ち、ユーザ10は、地図上において、いつどこで取得した読み上げ音声であるかを認識することができるようになる。そして、地図情報のログ情報801や802などの上にカーソル803を位置してクリックすることにより、情報処理装置は、読み上げ音声を音声再生ソフト等により再生することとしてもよい。例えば、図8の地図800に示すように、ログ情報801や、ログ情報802があることにより、どこで撮像した撮像画像に基づいて得られた読み上げ音声であるかを認識することができる。
Then, since information including position information is transmitted from the
(10) 上記実施の形態においては、装着具100の動作として詳細には説明していないが、撮像部111は、逐次撮像を行い、得られた撮像画像に文字が含まれているか否かを検出することとしてよい。そして、文字が含まれていることを検出した場合に、その旨をコントローラ150に伝達し、制御部155は、ユーザ10にそのときの正面方向に文字が存在することを認識させるための音声を報知してよい。そうすると、ユーザ10は、そのタイミング、入力部154に対して撮像指示を入力することができる。この構成を備えることで、ユーザ10が弱視者、特に、盲目であった場合など、文字が存在することも視認できないような場合に、ユーザ10に文字の存在を認識させることができ、ユーザ10にとって、利便性の高い読み上げシステム1を提供することができる。
(10) Although the above embodiment has not been described in detail as the operation of the wearing
(11) 上記実施の形態においては、特に記載していないが、撮像部111は、ユーザ(ウェアラブルグラス110)の置かれている環境に応じて撮像条件を変えてもよい。例えば、ウェアラブルグラス110は、各種のセンサ(例えば、照度センサなど)を備え、露光時間や画角を変更することとしてもよい。
(11) Although not particularly described in the above embodiment, the
(12)上記実施の形態においては、特に記載していないが、サーバ200が画像から文字を抽出できなかったり、抽出した文字を音声に変換できなかったり、画像に文字が含まれていなかった場合には、エラー信号を装着具100に送信し、装着具100はこれを受けてエラーを示す音声を出力部156から出力することとしてもよい。また、エラー音や上記実施の形態に示した変換中であることを示す音声の他、例えば、装着具100を起動したときの起動音や、撮像部111が撮像を行ったときの撮像音(シャッター音)、待機中を示す音、ユーザが処理のキャンセルの入力を行ったときのキャンセル音など各種の音を記憶部153に記憶しておき、制御部155は装着具100の状態に応じて対応する音を出力部156から出力させることとしてもよい。また、通信部152が通信できない(ネットワークと接続できない)場合に、その旨を示す音声を出力部156から出力することとしてもよい。このように各種の状態に応じた音を出力する構成をとることで、装着具100は、装置の状態を音のみでユーザに通知することができる。
(12) In the above embodiment, although not specifically described, the
(13)上記実施の形態においては、特に記載していないが、サーバ200は、撮像画像から文字を抽出した箇所や、文字を抽出した範囲の撮像画像に対する割合に応じて生成する読み上げ音声の態様を変更することとしてもよい。
(13) Although not particularly described in the above embodiment, the
文字を抽出した箇所に応じて音声の態様を変えるとは、撮像画像から文字を抽出した撮像画像における箇所に応じて、ユーザによって音声が聞こえてくる方向を変更することをいう。例えば、文字を抽出した箇所が、撮像画像の右寄りから抽出した場合には、ユーザの右側から読み上げ音声が聞こえるように出力部156から出力するように構成してもよい。この構成にすることによって、ユーザから見てどちらの方向にある文字を読み上げたのかを感覚的にユーザに認識させることができる。
Changing the sound mode according to the location where the character is extracted means changing the direction in which the user hears the sound according to the location in the captured image where the character is extracted from the captured image. For example, when the part from which the character is extracted is extracted from the right side of the captured image, it may be configured to output from the
また、文字を抽出した範囲の撮像画像に対する割合に応じて生成する読み上げ音声の態様を変更するとは、文字を抽出した範囲の撮像画像に対する割合の多寡に応じて、読み上げ音声の音量を変更するように構成してもよい。即ち、当該割合のパーセンテージと、読み上げ音声を出力する音量とを対応付けて記憶しておき、撮像画像から文字を抽出した範囲のパーセンテージと照らし合わせて読み上げ音声を出力する音量を決定し、その決定した音量で読み上げ音声を出力することとしてもよい。 In addition, changing the aspect of the read-out sound to be generated according to the ratio of the character extraction range to the captured image changes the volume of the read-out sound according to the ratio of the ratio of the character extraction range to the captured image. You may comprise. That is, the percentage of the ratio and the volume for outputting the reading voice are stored in association with each other, and the volume for outputting the reading voice is determined by comparing with the percentage of the range in which characters are extracted from the captured image. It is also possible to output a read-out voice at the volume set.
(14)上記実施の形態においては、送信データ310は、ユーザID311と、撮像画像情報312と、撮像時間情報313とが対応付けられていることとしているが、これ以外にも各種の情報が対応付けられていてよい。例えば、上記補足に示したように、装着具100が存在する箇所を示す位置情報や、装着具100の姿勢を特定し得るジャイロセンサや加速度センサ等のセンシングデータの情報も対応付けられていてもよい。
(14) In the above embodiment, the
また、読み上げ音声情報についても、撮像時間情報321と、撮像画像情報322と、読み上げ音声323とが対応付けられた情報であるとしているが、これ以外にも、撮像画像を解析して得られた文字のテキストデータや、送信データ310に含まれている位置情報やセンシングデータなども対応付けられてよい。
In addition, the reading voice information is also information in which the
読み上げ音声情報は、各種の情報をより多く蓄積して集積することで、各ユーザのライフログとして利用することができる。そして、ユーザからの要望に応じて、サーバ200は、蓄積している情報のうち指定された情報を供与する供与部を備えてもよい。例えば、位置情報を蓄積することによって、ユーザの単位時間当たり(例えば、1日)の移動量に関する情報を提供したり、ユーザがどこに行ったのかの情報を提供したり、ジャイロセンサの情報を利用してユーザの姿勢を特定することで、姿勢の情報を提供(例えば、姿勢の良し悪しなど)したりすることもできる。
The reading voice information can be used as a life log of each user by accumulating and accumulating various kinds of information. And according to the request from a user, the
(15)上記実施の形態においては、読み上げシステム1が音声の読み上げを実行する手法として、読み上げシステム1を構成する各機能部として機能するプロセッサ(制御部155、制御部230)が読み上げプログラム等を実行することにより、読み上げ処理を実行することとしているが、これは装置に集積回路(IC(Integrated Circuit)チップ、LSI(Large Scale Integration))等に形成された論理回路(ハードウェア)や専用回路を組み込むことによって実現してもよい。また、これらの回路は、1または複数の集積回路により実現されてよく、上記実施の形態に示した複数の機能部の機能を1つの集積回路により実現されることとしてもよい。LSIは、集積度の違いにより、VLSI、スーパーLSI、ウルトラLSIなどと呼称されることもある。すなわち、図9に示すように、読み上げシステム1を構成する装着具100及びサーバ200における各機能部は、物理的な回路により実現されてもよい。即ち、図9に示すように、装着具100は、撮像回路111aと通信I/F回路112aとを備えるウェアラブルグラス110と、イヤホン130と、通信I/F回路151aと、通信部152aと、記憶回路153aと、入力回路154aと、制御回路155aと、出力回路156aとから構成されてよく、上記実施の形態において対応する各機能部と同様の機能を有することとしてよい。そして、同様に、サーバ200も、通信回路210aと、記憶回路220aと、抽出回路231a及び変換回路232aとを含む制御回路230aとから構成されてよい。
(15) In the above embodiment, as a method for the
また、上記読み上げプログラムは、プロセッサが読み取り可能な記録媒体に記録されていてよく、記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記読み上げプログラムは、当該読み上げプログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記プロセッサに供給されてもよい。本発明は、上記読み上げプログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 The reading program may be recorded on a recording medium that can be read by the processor. As the recording medium, a “non-temporary tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like. Etc. can be used. The reading program may be supplied to the processor via any transmission medium (such as a communication network or a broadcast wave) that can transmit the reading program. The present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the reading program is embodied by electronic transmission.
なお、上記読み上げプログラムは、例えば、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。 The reading-out program can be implemented using, for example, a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), or a markup language such as HTML5.
(16)上記実施の形態及び各補足に示した構成は、適宜組み合わせることとしてもよい。 (16) The configurations described in the above embodiment and each supplement may be combined as appropriate.
1 読み上げシステム
100 装着具
110 ウェアラブルグラス
111 撮像部
112 通信I/F
130 イヤホン
150 コントローラ
151 通信I/F
152 通信部
153 記憶部
154 入力部
155 制御部
156 出力部
200 サーバ
210 通信部
220 記憶部
230 制御部
231 抽出部
232 変換部
1
130
152
Claims (10)
前記撮像部が撮像した画像から文字を抽出する抽出部と、
前記抽出部が抽出した文字を音声に変換する変換部と、
前記装着具に備えられ、前記音声を出力する出力部と、
前記装着具に備えられ、ユーザからの入力を受け付ける入力部と、
前記装着具に備えられ、前記入力部を介して受け付けた前記ユーザからの入力に基づいて、前記出力部から出力される音声の再生速度を制御する制御部とを備える読み上げシステム。 An imaging unit that is provided in a wearing tool that a user wears and uses, and that images the front direction of the user;
An extraction unit that extracts characters from an image captured by the imaging unit;
A conversion unit that converts the characters extracted by the extraction unit into speech;
An output unit provided in the wearing tool and outputting the sound;
An input unit provided in the wearing tool for receiving input from a user;
A reading system comprising: a control unit that is provided in the wearing tool and that controls a reproduction speed of a sound output from the output unit based on an input from the user received through the input unit.
前記装着具は、
前記撮像部が撮像した画像を前記サーバに送信する送信部と、
前記変換部が変換した音声を受信する受信部とを備え、
前記出力部は、前記送信部が画像を送信してから前記受信部が前記音声を受信するまでの間、前記文字の変換処理中であることを示す音を出力することを特徴とする請求項4に記載の読み上げシステム。 The reading system includes a server including the extraction unit and the conversion unit,
The wearing tool is
A transmission unit that transmits an image captured by the imaging unit to the server;
A receiving unit that receives the voice converted by the converting unit;
The output unit outputs a sound indicating that the character conversion process is in progress from when the transmitting unit transmits an image until the receiving unit receives the voice. 4. A reading system according to 4.
前記撮像部は、前記環境情報に基づいて撮像条件を変更することを特徴とする請求項1〜5のいずれか一項に記載の読み上げシステム。 The wearing device includes an acquisition unit that acquires environmental information about the surrounding environment,
The reading system according to claim 1, wherein the imaging unit changes an imaging condition based on the environment information.
前記出力部は、前記判定部が前記撮像画像中に文字が含まれると判定しているときに、撮像部による撮像方向に文字が存在することを示す音声を出力することを特徴とする請求項1〜6のいずれか一項に記載の読み上げシステム。 The wearing tool includes a determination unit that determines whether there is a character in a captured image captured by the imaging unit,
The output unit outputs sound indicating that a character is present in an imaging direction of the imaging unit when the determination unit determines that a character is included in the captured image. The reading system according to any one of 1 to 6.
前記撮像部が撮像した撮像画像と、当該撮像画像に基づいて前記変換部が変換して得られた音声とを対応付けて、前記ユーザの情報処理端末に送信するログ送信部を備えることを特徴とする請求項1〜7のいずれか一項に記載の読み上げシステム。 The reading system is
A log transmission unit configured to associate the captured image captured by the imaging unit with the sound obtained by the conversion unit based on the captured image and transmit the associated image to the information processing terminal of the user; The reading system according to any one of claims 1 to 7.
前記撮像部は、撮像した撮像画像に、撮像したときに前記位置情報が取得した位置情報を対応付け、
前記ログ送信部は、前記撮像画像と前記音声と共に前記位置情報を前記ユーザの情報処理端末に送信することを特徴とする請求項8に記載の読み上げシステム。 The wearing tool includes a position information acquisition unit that acquires position information indicating the position of the terminal.
The imaging unit associates the captured image with the positional information acquired by the positional information when the captured image is captured,
The reading system according to claim 8, wherein the log transmission unit transmits the position information together with the captured image and the sound to the information processing terminal of the user.
前記撮像ステップにおいて撮像した画像から文字を抽出する抽出ステップと、
前記抽出ステップにおいて抽出した文字を音声に変換する変換ステップと、
前記装着具に備えられた出力部から前記音声を出力する出力ステップと、
前記装着具に備えられた入力部からユーザからの入力を受け付ける入力ステップと、
前記入力部を介して受け付けた前記ユーザからの入力に基づいて、前記出力部から出力する音声の再生速度を制御する制御ステップとを含む読み上げ方法。 An imaging step of imaging the front direction of the user by an imaging unit provided in a wearing tool worn by the user; and
An extraction step of extracting characters from the image captured in the imaging step;
A conversion step of converting the characters extracted in the extraction step into speech;
An output step of outputting the sound from an output unit provided in the wearing tool;
An input step for receiving an input from a user from an input unit provided in the wearing tool;
And a control step of controlling a playback speed of the sound output from the output unit based on an input from the user received via the input unit.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017160888A JP2019040005A (en) | 2017-08-24 | 2017-08-24 | Reading aloud system and reading aloud method |
PCT/JP2018/031366 WO2019039591A1 (en) | 2017-08-24 | 2018-08-24 | Read-out system and read-out method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017160888A JP2019040005A (en) | 2017-08-24 | 2017-08-24 | Reading aloud system and reading aloud method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019040005A true JP2019040005A (en) | 2019-03-14 |
Family
ID=65440089
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017160888A Pending JP2019040005A (en) | 2017-08-24 | 2017-08-24 | Reading aloud system and reading aloud method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2019040005A (en) |
WO (1) | WO2019039591A1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020201435A (en) * | 2019-06-12 | 2020-12-17 | 株式会社ポニーキャニオン | Information processing terminal and information processing method |
JP2021129299A (en) * | 2020-02-11 | 2021-09-02 | ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co., Ltd. | Image text broadcast method and device, electronic circuit, and storage medium |
WO2022209043A1 (en) * | 2021-03-30 | 2022-10-06 | 株式会社Raise the Flag. | Ambient environment information transmission device |
US11776286B2 (en) | 2020-02-11 | 2023-10-03 | NextVPU (Shanghai) Co., Ltd. | Image text broadcasting |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006227219A (en) * | 2005-02-16 | 2006-08-31 | Advanced Telecommunication Research Institute International | Information generating device, information output device, and program |
JP5554110B2 (en) * | 2010-03-26 | 2014-07-23 | 日本電信電話株式会社 | Document processing method and document processing system |
JP2011209787A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Information processor, information processing method, and program |
JP2014165616A (en) * | 2013-02-23 | 2014-09-08 | Hyogo Prefecture | Wearable display for low vision person |
JP6120444B2 (en) * | 2013-12-25 | 2017-04-26 | Kddi株式会社 | Wearable device |
JP2016194612A (en) * | 2015-03-31 | 2016-11-17 | 株式会社ニデック | Visual recognition support device and visual recognition support program |
-
2017
- 2017-08-24 JP JP2017160888A patent/JP2019040005A/en active Pending
-
2018
- 2018-08-24 WO PCT/JP2018/031366 patent/WO2019039591A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020201435A (en) * | 2019-06-12 | 2020-12-17 | 株式会社ポニーキャニオン | Information processing terminal and information processing method |
JP2021129299A (en) * | 2020-02-11 | 2021-09-02 | ネクストヴイピーユー(シャンハイ)カンパニー リミテッドNextvpu(Shanghai)Co., Ltd. | Image text broadcast method and device, electronic circuit, and storage medium |
US11776286B2 (en) | 2020-02-11 | 2023-10-03 | NextVPU (Shanghai) Co., Ltd. | Image text broadcasting |
WO2022209043A1 (en) * | 2021-03-30 | 2022-10-06 | 株式会社Raise the Flag. | Ambient environment information transmission device |
Also Published As
Publication number | Publication date |
---|---|
WO2019039591A4 (en) | 2019-05-09 |
WO2019039591A1 (en) | 2019-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10448139B2 (en) | Selective sound field environment processing system and method | |
JP6143975B1 (en) | System and method for providing haptic feedback to assist in image capture | |
JP6574937B2 (en) | COMMUNICATION SYSTEM, CONTROL METHOD, AND STORAGE MEDIUM | |
US9791948B2 (en) | Control device and storage medium | |
US20180124497A1 (en) | Augmented Reality Sharing for Wearable Devices | |
US20180123813A1 (en) | Augmented Reality Conferencing System and Method | |
US9541761B2 (en) | Imaging apparatus and imaging method | |
US20170303052A1 (en) | Wearable auditory feedback device | |
WO2019039591A4 (en) | Read-out system and read-out method | |
JP2014115457A (en) | Information processor and recording medium | |
US20210350823A1 (en) | Systems and methods for processing audio and video using a voice print | |
CN104509129A (en) | Auto detection of headphone orientation | |
WO2017130486A1 (en) | Information processing device, information processing method, and program | |
JP7100824B2 (en) | Data processing equipment, data processing methods and programs | |
CN115211144A (en) | Hearing aid system and method | |
CN109257490B (en) | Audio processing method and device, wearable device and storage medium | |
US11929087B2 (en) | Systems and methods for selectively attenuating a voice | |
CN114115515A (en) | Method and head-mounted unit for assisting a user | |
WO2022267468A1 (en) | Sound processing method and apparatus thereof | |
CN114371824A (en) | Audio processing method, system and related device | |
US20180167745A1 (en) | A head mounted audio acquisition module | |
WO2020026548A1 (en) | Information processing device, information processing method, and acoustic system | |
WO2018116678A1 (en) | Information processing device and method for control thereof | |
JP2021033368A (en) | Reading device | |
JP2017183857A (en) | Head-mounted display device, control method for head-mounted display device, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20170925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20171124 |