JP2008233672A - Masking sound generation apparatus, masking sound generation method, program, and recording medium - Google Patents
Masking sound generation apparatus, masking sound generation method, program, and recording medium Download PDFInfo
- Publication number
- JP2008233672A JP2008233672A JP2007075283A JP2007075283A JP2008233672A JP 2008233672 A JP2008233672 A JP 2008233672A JP 2007075283 A JP2007075283 A JP 2007075283A JP 2007075283 A JP2007075283 A JP 2007075283A JP 2008233672 A JP2008233672 A JP 2008233672A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- sound signal
- scrambled
- acoustic
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/80—Jamming or countermeasure characterized by its function
- H04K3/82—Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection
- H04K3/825—Jamming or countermeasure characterized by its function related to preventing surveillance, interception or detection by jamming
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/175—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general using interference effects; Masking sound
- G10K11/1752—Masking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K1/00—Secret communication
- H04K1/06—Secret communication by transmitting the information or elements thereof at unnatural speeds or in jumbled order or backwards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K1/00—Secret communication
- H04K1/10—Secret communication by using two signals transmitted simultaneously or successively
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K2203/00—Jamming of communication; Countermeasures
- H04K2203/10—Jamming or countermeasure used for a particular application
- H04K2203/12—Jamming or countermeasure used for a particular application for acoustic communication
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04K—SECRET COMMUNICATION; JAMMING OF COMMUNICATION
- H04K3/00—Jamming of communication; Counter-measures
- H04K3/40—Jamming having variable characteristics
- H04K3/45—Jamming having variable characteristics characterized by including monitoring of the target or target signal, e.g. in reactive jammers or follower jammers for example by means of an alternation of jamming phases and monitoring phases, called "look-through mode"
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Soundproofing, Sound Blocking, And Sound Damping (AREA)
Abstract
Description
本発明は、マスキングサウンドを生成する技術に関する。 The present invention relates to a technique for generating a masking sound.
ある音(対象音)が聞こえているときに対象音に近い音響特性(周波数特性など)を持つ別の音(マスキングサウンド)が存在すると、その対象音が聞こえにくくなるという現象が一般に知られており、マスキング効果と呼ばれている。マスキング効果は、人間の聴覚特性に根ざしたものであり、マスキングサウンドの周波数が対象音の周波数に近いほど、また、マスキングサウンドの音量レベルが対象音の音量レベルに対して相対的に高いほど顕著になることが知られている。 It is generally known that when a certain sound (target sound) is heard and there is another sound (masking sound) with acoustic characteristics (frequency characteristics, etc.) close to the target sound, the target sound becomes difficult to hear. This is called the masking effect. The masking effect is rooted in human auditory characteristics, and becomes more prominent as the masking sound frequency is closer to the target sound frequency and the masking sound volume level is higher relative to the target sound volume level. It is known to become.
このマスキング効果を利用した音響技術は、従来種々提案されており、その例として特許文献1ないし2に開示された技術が挙げられる。特許文献1には、取得した音を所定のフレームに分割し、各フレーム内で時間的に逆に再生することにより音を無意味化しマスキングサウンドを生成する技術が開示されている。また、特許文献2には、音信号を複数のセグメントに分割し、この複数のセグメントの順序を入れ替えることにより音を無意味化しマスキングサウンドを生成する技術が開示されている。
特許文献1および2に記載の技術によれば、収音した音からリアルタイムにマスキングサウンドを生成するため、音信号の処理に高いパフォーマンスが要求されていた。
本発明は上記の問題に鑑みてなされたものであり、マスキングしたい音の音響特性をマスキングするのに最も適した音響特性を有するマスキングサウンドを生成する技術を提供することにある。
According to the techniques described in
The present invention has been made in view of the above problems, and it is an object of the present invention to provide a technique for generating a masking sound having an acoustic characteristic most suitable for masking an acoustic characteristic of a sound to be masked.
本発明に係るマスキングサウンド生成装置は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、音を収音し前記音の音響特性を分析する音響特性分析手段と、前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段とを具備することを特徴とする。 The masking sound generation apparatus according to the present invention stores a plurality of scrambled sound signals in which the time series of the sound signal is changed by dividing the sound signal into sections of a predetermined time length, and reconfiguring the sound signal. Storage means for storing each acoustic characteristic of the signal, acoustic characteristic analyzing means for collecting sound and analyzing the acoustic characteristic of the sound, acoustic characteristics analyzed by the acoustic characteristic analyzing means, and acoustics of the scrambled sound signal Output means for comparing a characteristic with a predetermined algorithm to determine a scrambled sound signal, reading the determined scrambled sound signal from the storage means, and outputting it.
また、本発明に係るマスキングサウンド生成装置は、上記の構成において、前記出力手段は、前記音響特性分析手段により分析された前記音の音響特性に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力しても良い。 In the masking sound generation apparatus according to the present invention, in the above configuration, the output unit generates a scrambled sound signal read from the storage unit based on an acoustic characteristic of the sound analyzed by the acoustic characteristic analysis unit. Sound processing may be performed and output.
本発明に係るマスキングサウンド生成装置の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段とを具備することを特徴とするマスキングサウンド生成装置。 Another configuration of the masking sound generation apparatus according to the present invention stores a plurality of scrambled sound signals in which the time series of the sound signal is changed by reconfiguring the sound signal into sections of a predetermined time length. Storage means for storing the acoustic characteristics of each of the scrambled sound signals, receiving means for receiving information on the acoustic characteristics of the sound to be masked from the operator, acoustic characteristics received by the receiving means and the scrambled sound signal A masking sound generating apparatus comprising: output means for comparing a sound characteristic with a predetermined algorithm to determine a scrambled sound signal, reading out the determined scrambled sound signal from the storage means, and outputting the signal.
また、本発明に係るマスキングサウンド生成装置は、上記の構成において、前記出力手段は、前記受取手段が受取った前記マスキングされる音の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力しても良い。 In the masking sound generation apparatus according to the present invention, in the above configuration, the output means includes a scrambled sound read from the storage means based on information on acoustic characteristics of the masked sound received by the receiving means. The signal may be subjected to acoustic processing and output.
また、本発明に係るマスキングサウンド生成装置の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段とを具備することを特徴とする。 Further, another configuration of the masking sound generation device according to the present invention stores a plurality of scrambled sound signals whose time series is changed by dividing the sound signal into sections of a predetermined time length and reconfiguring the sound signal. Storing means, receiving means for receiving an instruction signal designating any of the scrambled sound signals stored in the storage means from an operator, and storing the scrambled sound signal indicated by the instruction signal received by the receiving means. Output means for reading out from the means and outputting.
本発明に係るマスキングサウンド生成装置は、上記のいずれかの構成において、音信号を受取り、該音信号を所定区間に区切って加工することにより、前記各区間の時系列が変更されたスクランブル音信号を生成し、前記記憶手段に記憶させるスクランブル手段とを更に備えていても良い。 A masking sound generation apparatus according to the present invention is a scrambled sound signal in which the time series of each section is changed by receiving a sound signal and processing the sound signal into predetermined sections in any one of the above configurations And scramble means for generating and storing it in the storage means.
本発明に係るマスキングサウンド生成装置は、上記のいずれかの構成において、操作者から前記スクランブル音信号が放音される空間の音響特性に関する情報を受取る受信手段を更に有し、前記出力手段は、前記受信手段が受取った空間の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力しても良い。 The masking sound generation apparatus according to the present invention further includes receiving means for receiving information on acoustic characteristics of a space where the scrambled sound signal is emitted from an operator in any one of the above configurations, and the output means includes: Based on the information about the acoustic characteristics of the space received by the receiving means, the scrambled sound signal read from the storage means may be subjected to acoustic processing and output.
本発明に係るマスキングサウンド生成方法は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶段階と、音を収音し前記音の音響特性を分析する音響特性分析段階と、前記音響特性分析段階において分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階とを具備することを特徴とする。 The masking sound generation method according to the present invention stores a plurality of scrambled sound signals in which the time series of the sound signal is changed by dividing the sound signal into sections of a predetermined time length and reconfiguring the sound signal, A storage step of storing each acoustic characteristic of the scrambled sound signal; an acoustic characteristic analysis step of collecting sound and analyzing the acoustic characteristic of the sound; and the acoustic characteristic and the scrambled sound analyzed in the acoustic characteristic analysis step An output step of comparing the acoustic characteristics of the signal with a predetermined algorithm to determine a scrambled sound signal, and reading out the determined scrambled sound signal from the storage device and outputting it;
本発明に係るマスキングサウンド生成方法の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶段階と、操作者からマスキングされる音の音響特性に関する情報を受取る受取段階と、前記受取段階において受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階とを具備することを特徴とする。 Another configuration of the masking sound generation method according to the present invention is that a plurality of scrambled sound signals in which the time series of the sound signal is changed are stored in a storage device by reconfiguring the sound signal by dividing the sound signal into sections of a predetermined time length. A storage step for storing and storing each acoustic characteristic of the scrambled sound signal; a receiving stage for receiving information on the acoustic characteristic of the sound to be masked from an operator; and the acoustic characteristic received in the receiving stage and the scrambled An output step of comparing the acoustic characteristics of the sound signal with a predetermined algorithm to determine a scrambled sound signal, and reading out the determined scrambled sound signal from the storage device and outputting it;
また、本発明に係るマスキングサウンド生成方法の別の構成は、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を記憶装置に複数記憶する記憶段階と、操作者から前記記憶段階において記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取段階と、前記受取段階において受取られた指示信号が示すスクランブル音信号を、前記記憶装置から読出して出力する出力段階とを具備することを特徴とする。 Further, another configuration of the masking sound generation method according to the present invention is a storage device that stores a scrambled sound signal in which the time series of the sound signal is changed by reconfiguring the sound signal by dividing the sound signal into sections of a predetermined time length. A plurality of storage stages, a reception stage for receiving an instruction signal designating one of the scrambled sound signals stored in the storage stage from an operator, and a scrambled sound signal indicated by the instruction signal received in the reception stage. And an output stage for reading out from the storage device and outputting it.
本発明に係るプログラムは、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、音を収音し前記音の音響特性を分析する音響特性分析手段と、前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段として機能させる。 The program according to the present invention stores a plurality of scrambled sound signals in which the time series of the sound signal is changed by dividing the sound signal into sections of a predetermined time length and reconfiguring each of the scrambled sound signals. Storage means for storing the acoustic characteristics, acoustic characteristic analysis means for collecting sound and analyzing the acoustic characteristics of the sound, acoustic characteristics analyzed by the acoustic characteristic analysis means, and acoustic characteristics of the scrambled sound signal A scrambled sound signal is determined by comparison with a predetermined algorithm, and the determined scrambled sound signal is read from the storage means and functions as an output means for outputting.
本発明に係るプログラムの別の構成は、コンピュータを、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段として機能させる。 Another configuration of the program according to the present invention is to store a plurality of scrambled sound signals in which the time series of the sound signal is changed by reconfiguring the computer by dividing the sound signal into sections of a predetermined time length. Storage means for storing the acoustic characteristics of each of the scrambled sound signals, receiving means for receiving information on the acoustic characteristics of the sound to be masked from the operator, acoustic characteristics received by the receiving means and the scrambled sound signal The scrambled sound signal is determined by comparing the acoustic characteristics with a predetermined algorithm, and the determined scrambled sound signal is read from the storage means and functions as output means for outputting.
また、本発明に係るプログラムの別の構成は、コンピュータを、音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段として機能させる。 In another configuration of the program according to the present invention, the computer stores a plurality of scrambled sound signals in which the time series of the sound signal is changed by reconfiguring the sound signal into sections of a predetermined time length. Storing means, receiving means for receiving an instruction signal designating any of the scrambled sound signals stored in the storage means from an operator, and storing the scrambled sound signal indicated by the instruction signal received by the receiving means. It functions as an output means for reading out from the means and outputting.
本発明に係るコンピュータ読み取り可能な記録媒体は、音信号を所定区間に区切って加工することにより、前記各区間の時系列が変更されたスクランブル音信号を複数記憶するとともに、前記各スクランブルデータを選択的に読み出せるように記憶していることを特徴とする。 The computer-readable recording medium according to the present invention stores a plurality of scrambled sound signals in which the time series of each section is changed by dividing the sound signal into predetermined sections, and selects each scrambled data. It is memorized so that it can be read out automatically.
本発明に係るマスキングサウンド生成装置またはマスキングサウンド生成方法またはプログラムまたは記録媒体により、マスキングしたい音の音響特性をマスキングするのに最も適した音響特性を有するマスキングサウンドを生成することができる。 With the masking sound generation device, the masking sound generation method, the program, or the recording medium according to the present invention, it is possible to generate a masking sound having an acoustic characteristic most suitable for masking the acoustic characteristic of the sound to be masked.
以下、本発明の実施形態について図面を用いて説明する。
(A;構成)
(A−1;全体構成)
図1は、本発明に係るサウンドマスキングシステム1の構成を示す図である。図1に示すように、音響空間20Aには、マイクロホン30が天井から吊り下げられて設置されている。音響空間20Bにはスピーカ40が天井から吊り下げられて設置されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(A: Configuration)
(A-1: Overall configuration)
FIG. 1 is a diagram showing a configuration of a
マイクロホン30は、音響空間20Aにおける音(人間の話し声や空調の動作音などの可聴音)を収音してアナログの音信号に変換し、マスキングサウンド生成装置10へ出力する。
スピーカ40は、マスキングサウンド生成装置10からアナログの音信号を受取り、音響空間20Bにおいて再生する。
The
The
(A−2;マスキングサウンド生成装置10の構成)
次に、マスキングサウンド生成装置10の構成について図2を参照して説明する。マスキングサウンド生成装置10は、マスキングサウンド(マスカー)を表す音信号を生成する。該マスキングサウンドは音響空間20Bにおいて放音され、音響空間20Aにおける会話の内容を他の音響空間20Bのユーザに聞きとられにくくしたり(セキュリティーの保護)、他の音響空間20Bのユーザが音響空間20Aから漏れ聞こえる音により会話が妨害されたり作業の集中を乱されたりしないようにする(騒音のマスキング)。
(A-2: Configuration of the masking sound generator 10)
Next, the configuration of the masking
CPU(Central Processing Unit)100は、記憶部200に格納されている各種プログラムを実行することにより本発明に特徴的な動作を行ったり、マスキングサウンド生成装置10の各部の動作を制御したりする。
A CPU (Central Processing Unit) 100 executes various programs stored in the
音声入力部300は、アナログ/デジタル(以下、「A/D」と略記する)コンバータ310と入力端子320とを有する。入力端子320にはマイクロホン30が接続されており、マイクロホン30により生成された音信号は、入力端子320を介してA/Dコンバータ310へ入力される。A/Dコンバータ310は、マイクロホン30から受取った音信号にA/D変換を施し、デジタルの音信号をCPU100へ出力する。
The
音声出力部400は、D/Aコンバータ410とアンプ420と出力端子430とを有する。D/Aコンバータ410は、CPU100から受取った音信号に対して、D/A変換を施すことによってアナログの音信号へ変換する。アンプ420は、D/Aコンバータ410から受取った音信号の振幅(マスタボリューム)を最適な値に調整して、マスキング効果が最大となるように制御する。音信号の増幅率は、後述する操作部500からの信号に基づいてCPU100により制御される。出力端子430はスピーカ40と接続されており、音信号はスピーカ40へ出力され、音響空間20Bにおいてマスキングサウンド(マスカー)として放音される。
The
操作部500はタッチパネルを有する入力装置であり、マスキングサウンド生成装置10のユーザにより該タッチパネルが押下された場合に、操作内容をCPU100へと出力する。図3は、操作部500の外観を示した図である。操作部500のタッチパネルは、動作モード選択部510、音信号選択部520、性別選択部530、年齢選択部540、言語選択部550、音響空間選択部560、および音量レベル選択部570を有する。
The
ユーザによりタッチパネル上の特定の領域が押下されると、該領域は同図に例示されているように選択された領域が網掛け表示となると共に、対応する項目が選択されたことを示す信号がCPU100に出力される。なお、音量レベル選択部570においては、大きい数字ほど大きい音量レベルが対応付けられている。以下ではそれらの信号を、それぞれ動作モード選択情報、音信号選択情報、性別選択情報、年齢選択情報、言語選択情報、音響空間選択情報、および音量レベル選択情報と呼ぶ。また、性別選択情報、年齢選択情報、言語選択情報、および音響空間選択情報を条件設定情報と総称する。
When a specific area on the touch panel is pressed by the user, the selected area is shaded as shown in the figure, and a signal indicating that the corresponding item is selected is displayed. It is output to the
再び図2において、光ディスク再生装置600は、装着された光ディスクから記録されているデータを読み出す装置である。読み出されたデータは、CPU100へ出力される。
In FIG. 2 again, the optical
記憶部200は、ROM(Read Only Memory)210およびRAM(Random Access Memory)220を有する。
ROM210は、本発明に特徴的な機能をCPU100に実行させるための制御プログラムやデータが格納されている。
RAM220は、各種の記憶領域を有し、CPU100によってワークエリアとして利用される。また、RAM220は、音声入力部300から受取った各音信号を所定時間分記憶可能な音信号記憶領域を有する。前記所定時間は長時間であるほど好ましく、マスキングサウンド生成装置としては高い性能を有するが、ハード資源の容量や性能により上限値があるため、本実施形態においては一例として180秒に設定した。また、RAM220は、マスキングサウンドの音信号生成に係るパラメータなど各種のデータを記憶する。
以上に説明した各ユニットは、バス700を介して接続されており、互いにデータの授受を行う。
The
The
The
The units described above are connected via a
(A−3;制御プログラムおよびデータ)
次に、ROM210に記憶されている制御プログラムについて説明する。CPU100は、制御プログラムを実行することにより、以下に説明する処理を始めとする各種の処理を実行する。
(A-3; control program and data)
Next, the control program stored in the
まず、「音響特性分析処理」について説明する。音響特性分析処理とは、入力された音信号を所定長の区間に分割し、生成された各断片(以下、フレームと呼ぶ)における話速、フォルマント、および周波数特性を分析する処理である。 First, the “acoustic characteristic analysis process” will be described. The acoustic characteristic analysis process is a process of dividing an input sound signal into sections of a predetermined length and analyzing speech speed, formant, and frequency characteristics in each generated fragment (hereinafter referred to as a frame).
まず、話速の分析について説明する。本実施形態において、「話速(発話速度)」とは、音声が発せられるときの速さであり、単位時間あたりの音節数などで定義される。ここで音節とは、一定の声の長さを持つ音素(例えば母音)のまとまり、または一定の声の長さを持つ音素の前および/または後に非常に短い音素(例えば子音)を従えるまとまりを意味する。音響特性分析処理において、CPU100は、受取った音信号の各フレームについて、音信号の時間軸波形を生成し、当該時間軸波形のエンベロープ(包絡線)にスムージング処理を施す。そしてスムージング処理された波形から各音節を構成する波形のピーク位置をフレームごとに検出して、ピーク数を計測する。その後、当該ピーク数を音節数とし、音節数をフレーム長で除した単位時間あたりの音節数を話速として算出する。ここでピークとは、各音節を構成する波形においてレベルが最大の箇所を言う。話速はフレーム毎に異なるが、CPU100は、上記フレームごとにその時点での話速を分析し、それらの値の平均値、該平均値のフレーム間のばらつきである標準偏差σを算出し出力する。
First, the analysis of speech speed will be described. In the present embodiment, “speech speed (speech speed)” is the speed at which a voice is emitted, and is defined by the number of syllables per unit time or the like. A syllable is a group of phonemes having a certain voice length (for example, vowels), or a group that can follow a very short phoneme (for example, consonants) before and / or after a phoneme having a certain voice length. means. In the acoustic characteristic analysis process, the
次に、フォルマントの分析について説明する。フォルマントとは、音声のスペクトル包絡上で特定の周波数領域にエネルギーが集中して生じる山である。これは、人間の声などが固有に持っている周波数スペクトル(倍音成分の分布パターン)であり、声の高さや強さに依存しないという特徴を有する。フォルマントを分析することで、話者の性別、年齢、使用言語などを読み取ることができることが知られている。音響特性分析処理において、CPU100は、受取った音信号の各フレームにおける波形をフーリエ変換する。そしてCPU100は、フーリエ変換により得られた振幅スペクトルの対数を求め、それをフーリエ逆変換して各フレームのスペクトル包絡を生成する。そしてCPU100は、得られたスペクトル包絡の低い周波数から第1フォルマントの周波数および第2フォルマントの周波数、第3フォルマントの周波数を抽出する。なお、本実施形態においては、第1ないし第3フォルマントの周波数を抽出するが、そのうちいずれか1つまたは2つ、または第4フォルマント以降について分析しても良い。
Next, formant analysis will be described. A formant is a mountain formed by concentrating energy in a specific frequency region on the spectrum envelope of speech. This is a frequency spectrum (overtone component distribution pattern) inherent to a human voice or the like, and has a feature that it does not depend on the pitch or strength of the voice. It is known that the sex, age, language used, etc. of a speaker can be read by analyzing formants. In the acoustic characteristic analysis process, the
次に、周波数特性の分析について説明する。CPU100は、受取った音信号をフレームごとに読み出し、フーリエ変換により各フレームの周波数領域のスペクトルデータを生成する。生成されたスペクトルデータからは、音信号が表す音のピッチなどを読み取ることが出来る。
以上が、音響特性分析処理である。
Next, frequency characteristic analysis will be described. The
The above is the acoustic characteristic analysis process.
次に、音信号の「リバース処理」について説明する。リバース処理において、CPU100は、受取った音信号の各フレームを一旦時間軸領域の信号に変換する。そして、該音信号の各フレームを時間軸において逆から読み出し、各音信号を新たな音信号へ変換する。本処理は、すなわち元の音信号が生成された順序とは逆の時間的順序で古いデータから読み出して新たな音信号を生成する処理である。このリバース処理により生成された音信号からは、処理前の音信号に含まれていた内容を理解することはできない。
Next, “reverse processing” of sound signals will be described. In the reverse processing, the
次に、音信号の各フレームの「窓掛け処理」について説明する。窓掛け処理とは、内容が連続していないフレーム同士を接続する場合に、その音がスムーズに移行するように接続部分の波形を変換する処理である。
具体的には、CPU100は、例えば三角関数などからなる「整形関数」を各フレームの音信号に乗算することにより、各フレームの頭部では滑らかに立ち上がるように、そして各フレームの尾部では滑らかに立ち下がるように整形する。音響処理により連続した音信号が複数のフレームに分割され、元の音信号と異なる順序で接続された場合には、その接続部分においてクリックノイズが発生することがあるが、この窓掛け処理により該ノイズは除去される。
Next, the “windowing process” for each frame of the sound signal will be described. The windowing process is a process of converting the waveform of the connection portion so that the sound smoothly transitions when frames whose contents are not continuous are connected.
Specifically, the
次に、ROM210に記憶されているデータについて説明する。
まず、「フレーム長選択テーブル」について説明する。図4は、フレーム長選択テーブルの1例を示した図である。フレーム長選択テーブルにおいては、上述した話速の範囲に対してフレーム長が対応付けられている。例えば、話速7.5以上12.5未満〔秒−1〕に対して、フレーム長の値0.10〔秒〕が対応付けられている。ここで、1フレーム長は、話速が各話速の範囲の中間の値であるときの1音節の時間と同程度に設定した。すなわち、話速10〔秒−1〕では1音節の発話速度は0.10秒であり、話速10〔秒−1〕が含まれる話速7.5以上12.5未満の範囲に対応するフレーム長をこの1音節の発話時間(0.10秒)に設定した。これは、1フレーム長が1音節より極端に短い時間の場合には、1音節が複数フレームに分割され、各フレームをリバース再生しても元の音節として認識されるおそれがあり、1フレーム長が1音節より極端に長い時間の場合には、各フレームをランダムに再構成しても1フレーム内の各音節がそのまま認識されるおそれがあるからである。
Next, data stored in the
First, the “frame length selection table” will be described. FIG. 4 is a diagram showing an example of the frame length selection table. In the frame length selection table, the frame length is associated with the above-described speech speed range. For example, a frame length value of 0.10 [second] is associated with a speech speed of 7.5 or more and less than 12.5 [second- 1 ]. Here, the length of one frame is set to be approximately the same as the time of one syllable when the speech speed is an intermediate value in the range of each speech speed. That is, at a speech speed of 10 [seconds -1 ], the utterance speed of one syllable is 0.10 seconds, which corresponds to a range of speech speeds of 7.5 to less than 12.5 including the speech speed of 10 [seconds -1 ]. The frame length was set to this one syllable speech time (0.10 seconds). This is because when one frame length is extremely shorter than one syllable, one syllable is divided into a plurality of frames, and each frame may be recognized as the original syllable even if reversely played back. This is because if the time is extremely longer than one syllable, each syllable in one frame may be recognized as it is even if each frame is randomly reconstructed.
次に、「スクランブル音信号」について説明する。スクランブル音信号とは、人間の音声をスクランブル(無意味化または理解不能化)した音信号である。具体的には、人間の音声を収音して対応する波形データを生成し、所定時間(例えば100ミリ秒)ごとに複数のフレームに分割し、それらを元の音声とは異なる順序で組み合わせて新たに生成した音信号である。本実施形態においては、複数のスクランブル音信号(スクランブル音信号1、2、3…)が、後述する初期設定処理においてROM210に格納される。なお、人間は、このスクランブル音信号から言語としての意味を理解することはできない。
また、ROM210には、人の音声の音信号以外に、広帯域ノイズの一例としてホワイトノイズの音信号も記憶されている。なお、ホワイトノイズとは、測定周波数帯域において一様なパワースペクトル密度を有する雑音である。
Next, the “scrambled sound signal” will be described. A scrambled sound signal is a sound signal obtained by scrambled human speech (meaningless or unintelligible). Specifically, human speech is collected and corresponding waveform data is generated, divided into a plurality of frames every predetermined time (for example, 100 milliseconds), and these are combined in a different order from the original speech. This is a newly generated sound signal. In the present embodiment, a plurality of scrambled sound signals (scrambled
The
次に、「スクランブル音信号選択テーブル」について説明する。図5に示すように、スクランブル音信号選択テーブルにおいては、ROM210に格納されたスクランブル音信号の各々を特定可能なスクランブル音信号番号に対して、その音の発音体属性情報、および音響特性情報が書き込まれている。発音体属性情報には、そのスクランブル音信号の元となった音声を発音した人の性別、年齢、言語、および名前が含まれる。例えば、スクランブル音信号1は、30歳の日本人男性である「Aさん」により吹き込まれた音声から生成されたものである。音響特性情報には、該スクランブル音信号の話速、フォルマント、および周波数特性に関するデータが含まれる。なお、フォルマント、および周波数特性の項目には、フォルマント、および周波数特性のデータを一意に識別するためのファイル名が書き込まれており、データは別途ROM210に書き込まれている。
Next, the “scrambled sound signal selection table” will be described. As shown in FIG. 5, in the scrambled sound signal selection table, sound generator attribute information and acoustic characteristic information of the sound are stored for each scrambled sound signal number that can identify each scrambled sound signal stored in the
(B;動作)
次に、本実施形態の動作について説明する。
(B−1;初期設定処理)
CPU100は、マスキングサウンドを生成の前に初期設定処理を行う。図6は、初期設定処理におけるCPU100が行う処理の流れを示したフローチャートである。
(B: Operation)
Next, the operation of this embodiment will be described.
(B-1: Initial setting process)
The
まず、ステップSA100において、CPU100は音信号を受信する。ここで、CPU100が音信号を受信する方法は2つある。1つは、ユーザがマイクロホン30を介して音声を吹き込み、CPU100は、音声入力部300を介して音信号を受取る方法である。もう1つの方法は、音信号が書き込まれた光ディスクから光ディスク再生装置600により音信号を読み出す方法である。この場合、光ディスクとしては、例えば既製品として販売されている光ディスクでもよいし、ユーザが予め音信号を光ディスクに書き込んだものでも良い。
First, in step SA100, the
ユーザは、上記いずれかの方法で音信号を入力し終えると、該音信号に関する発音体属性情報(該音声を発音した人の性別、年齢、言語、および名前)について図示せぬ入力手段を介して入力する。CPU100は、受取った音信号と発音体属性情報とを、相互に関連付けて一旦RAM220に書き込む。
When the user finishes inputting the sound signal by any of the above methods, the sound generator attribute information (gender, age, language, and name of the person who pronounced the sound) regarding the sound signal is input via an input unit (not shown). Enter. The
本動作例においては、前者の方法すなわちマイクロホン30を介して音声を入力する方法と、後者の方法すなわち光ディスクなどの記憶媒体から音信号を読み出す方法を併用する。前者の方法で入力される音信号は、以下の通りである。スクランブル音信号1および2の元となる音信号として、それぞれ30歳の日本人男性である「Aさん」、25歳の日本人女性である「Bさん」の発音を表す音信号が入力される。また、スクランブル音信号3の元となる音信号として、平均年齢25歳の日本人の男女5人からなる「Cグループ(5人)」の発音を表す音信号が入力される。
In this operation example, the former method, that is, a method of inputting sound through the
また、後者の方法で入力される音信号は以下の通りである。スクランブル音信号4の元となる音信号として、10歳の日本人の男児の発音を表す音信号が入力される。また、スクランブル音信号5の元となる音信号として、30歳のイギリス人男性の音から生成された音信号が入力される。
The sound signal input by the latter method is as follows. A sound signal representing the pronunciation of a 10-year-old Japanese boy is input as the sound signal that is the basis of the scrambled
なお、入力すべき音信号は、各ユーザが音響空間20Aを利用する頻度、および音響空間20Aにおいて使用される言語の種類を参考にして選択すれば良い。例えば、音響空間20Aが、「Aさん」や「Bさん」や「Cグループ」により頻繁に利用されたり、頻繁に英語による会議が行われるような場合には、上述のようにそれら頻繁に利用する人の音声や使用言語の音信号を入力しておくと良い。
The sound signal to be input may be selected with reference to the frequency with which each user uses the
次に、ステップSA110において、CPU100は、音響特性分析処理を行う。具体的には、CPU100は、RAM220に書き込まれた各音信号において、話速、フォルマント、および周波数特性を分析し、その分析結果である音響特性情報を各分析対象となった音信号と関連付けて一旦RAM220に書き込む。
Next, in step SA110, the
ステップSA120において、CPU100は、ROM210に格納されたスクランブル音信号選択テーブルの更新を行う。具体的には、CPU100は、各音信号に関する発音体属性情報と音響特性とをRAM220から読み出し、スクランブル音信号選択テーブルに書き込む。その際、図5に示すように、スクランブル音信号1、2、3、4、および5の元となる音信号に関する発音体属性情報と音響特性は、それぞれスクランブル音信号1、2、3、4、および5の欄に書き込む。
In step SA120,
ステップSA130において、CPU100は、音信号スクランブル処理を行う。図7は、音信号スクランブル処理の流れを示すフローチャートである。また、図8は、音信号スクランブル処理に伴う音信号の波形を示した図である。
In step SA130, the
図7のステップSB100において、CPU100は、RAM220に書き込まれた音信号を複製する。本動作例においては、CPU100は、音信号を3つに複製し、複製された音信号をRAM220に書き込む。なお、以下ではこれらの音信号を音信号A、B、およびCと呼ぶ。以下に説明するステップSB110ないしステップSB150は、音信号A、B、およびCのそれぞれについて行われ、それらの音信号は互いに異なる音信号へと変換される。以下の処理は、3つの音信号について同時に実行しても良いし、順次実行しても良い。
In step SB100 in FIG. 7, the
ステップSB110において、CPU100は、音信号のフレーム化を以下のように行う。すなわち、CPU100は、当該音信号の話速に関する情報をRAM220から読み出す。そしてCPU100は、ROM210に記憶されているフレーム長選択テーブルにおいて、平均値、平均値+σ、平均値−σの値に対応付けられたフレーム長を読み出し、RAM220に書き込まれた音信号A、B、およびCを読み出したそれぞれのフレーム長で分割し、分割した結果生成されたフレームをRAM220に書き込む。なお、図8の(a)―A、(a)―B、および(a)―Cには、音信号A、B、およびCが異なるフレーム長で分割された状況が示されている。
In step SB110, the
ステップSB120において、CPU100は、RAM220に書き込まれた音信号のフレームの各々について、上述したリバース処理を行う。リバース処理がなされた結果、音信号A、B、およびCの各フレームは、それぞれ図8の(b)―A、(b)―B、および(b)―Cに示されるようにフレーム内で時間的に逆に倒置されたデータに変換される。
In step SB120,
ステップSB130において、各フレームには窓掛け処理が行われる。その結果、各フレームの頭部および尾部に対応する部分の波形が整形される。
ステップSB140において、CPU100は、各音信号についてその複数のフレームの順序をランダムに並べ替える(図8(c)参照)。
ステップSB150において、CPU100は、並べ替えられたフレームの音信号をつなぎ合わせ、新たな音信号を生成する。
ステップSB160において、CPU100は、ステップSB110ないし150においてそれぞれ別個に処理がなされた音信号A、B、およびCをミキシング処理し、スクランブル音信号を生成する(図8(d)参照)。
In step SB130, a windowing process is performed on each frame. As a result, the waveform of the portion corresponding to the head and tail of each frame is shaped.
In step SB140, the
In step SB150, the
In step SB160, the
以上の処理により生成されたスクランブル音信号は、以下のような特徴を持つ。すなわち、生成されるスクランブル音信号においては、元の音信号の音量レベルの変動幅が小さくなり、平均的な音量レベルに収束する。なぜならば、元の音信号は短いフレームで分割されそれらのフレームはランダムに順序が並べ替えられているだけでなく、そのような処理がなされた複数の音信号が重ねあわされているからである。このため、スクランブル音信号の音量レベルは略一定に保たれており、元の音信号の音量レベルの変動によるマスキング効果の不安定さが低減される。 The scrambled sound signal generated by the above processing has the following characteristics. That is, in the generated scrambled sound signal, the fluctuation range of the volume level of the original sound signal becomes small and converges to an average volume level. This is because the original sound signal is divided into short frames and the frames are not only randomly rearranged, but also a plurality of sound signals that have undergone such processing are overlaid. . For this reason, the volume level of the scrambled sound signal is kept substantially constant, and the instability of the masking effect due to fluctuations in the volume level of the original sound signal is reduced.
また、音信号を分割するフレーム長は話速に応じて適切に設定されるため、元の音に含まれていた音素は適切に分割されており、高いマスキング効果を有する。また、音素の分割やフレーム内のリバース処理により音の無意味化が十分になされており、ユーザのプライバシーやセキュリティーは保護される。また、各フレームのつなぎ目においては窓掛け処理がなされていることから、生成されたスクランブル音信号は滑らかにつながった音信号となる。 In addition, since the frame length for dividing the sound signal is appropriately set according to the speech speed, the phonemes included in the original sound are appropriately divided and have a high masking effect. In addition, sound is rendered meaningless by dividing phonemes and performing reverse processing within the frame, thereby protecting the user's privacy and security. In addition, since the windowing process is performed at the joint of each frame, the generated scrambled sound signal is a smoothly connected sound signal.
再び図6において、CPU100は、ステップSA140において、生成されたスクランブル音信号をROM210に書き込む。
また、CPU100は、音信号選択部520の各選択肢の右横に、スクランブル音信号選択テーブルにおいて該番号のスクランブル音信号に関連付けられた「名前」を表示する。
In FIG. 6 again, the
Further, the
なお、ROM210には、ホワイトノイズを表す音信号も予め格納されている。従って、初期設定処理を終えた段階で、ROM210には、マスキングサウンドの元となる音信号として、スクランブル音信号とホワイトノイズの音信号が格納された状態となる。
Note that the
(B−2;マスキングサウンド生成処理)
次に、マスキングサウンド生成処理について説明する。図9は、マスキングサウンド生成処理の流れを示したフローチャートである。
マスキングサウンド生成装置10のユーザは、マスキングサウンド生成処理を実行させるにあたり、操作部500の動作モード選択部510を操作し、1または2のいずれかの動作モードを選択する。操作部500は、選択された動作モードを示す動作モード情報をCPU100に出力する。以下では、ユーザによりそれぞれの動作モードが選択された場合のマスキングサウンド生成処理について説明する。
(B-2; Masking sound generation process)
Next, the masking sound generation process will be described. FIG. 9 is a flowchart showing the flow of the masking sound generation process.
When executing the masking sound generation process, the user of the masking
(B−2−1;動作モード1)
本動作モードは、音響空間20Aにおける音の音響特性に基づいて、マスキングサウンドを生成する上で適切なスクランブル音信号が自動的に選択されるモードである。
(B-2-1; operation mode 1)
This operation mode is a mode in which an appropriate scrambled sound signal is automatically selected for generating a masking sound based on the acoustic characteristics of the sound in the
ステップSC100において、CPU100は、動作モード情報を受信する。
ステップSC110において、CPU100は、受信した動作モード情報が1であるか否かを判断する。本動作モードにおいては、動作モード情報は「1」であるから、ステップSC110の判断結果は“Yes”となり、ステップSC120の処理が行われる。
In step SC100,
In step SC110,
ステップSC120において、CPU100は、音響空間20Aにおける音を表す音信号を受取り、該音信号の音響特性分析処理を行う。本処理は、初期設定処理における音響特性分析処理と同様であるため、その説明を省略する。
In step SC120, the
ステップSC130において、CPU100は、ステップSC120の音響特性分析処理の結果に基づいて、ROM210に書き込まれたスクランブル音信号からいずれか1つ適切な音信号を読み出す。すなわち、CPU100は、ステップSC120における分析結果として得た音響特性(話速、フォルマント、および周波数特性)を、スクランブル音信号選択テーブルと照らし合わせ、最も音響特性が類似しているスクランブル音信号を選択する。
In step SC130, the
ステップSC140において、CPU100は、読み出した音信号(本実施形態では180秒のデータ)をマスキングサウンドとして出力する。なお、スクランブル音信号は、180秒間のデータであるから、出力を開始してから180秒後以降は、該スクランブル音信号をループ状に繰り返し出力する。なお、出力されるスクランブル音信号の音量レベルは、使用者により音量レベル選択部570により入力された音量レベルに応じて最適な値に設定され、該処理は割り込み処理として実行される。
In step SC140, the
本動作モードにおいては、音響空間20Aにおける音の音響特性を分析し、該音と最も音響特性が類似したスクランブル音信号がROM210に格納された多数のスクランブル音信号から選択される。上述のように、マスキングサウンドが対象音の音響特性と類似している場合に最も高いマスキング効果が発揮される。従って、出力されるマスキングサウンドは、音響空間20Aにおいて生じている音をマスキングするのに最も適した音響特性を有する。
In this operation mode, the acoustic characteristics of the sound in the
(B−2−2;動作モード2)
次に、動作モード2おけるマスキングサウンド生成処理について説明する。本動作モードは、ユーザの指示内容に従ってマスキングサウンドが自動的に選択されるモードである。
(B-2-2; operation mode 2)
Next, the masking sound generation process in the
ステップSA100において、CPU100は、動作モード情報を受信する。
ステップSA110において、CPU100は、受信した動作モード情報が1であるか否かを判断する。本動作モードにおいては、動作モード情報は「2」であるから、ステップSC110の判断結果は“No”となり、ステップSC150の処理が行われる。
In step SA100, the
In step SA110,
さて、ユーザは、次のいずれかの方法によりマスキングサウンドの生成に係るパラメータを入力する。まず1つめの方法について説明する。ユーザは、操作部500の音信号選択部520の右横に表示されている「名前」を参照し、いずれかの音信号を直接指定する。例えば音響空間20Aにおいて「Aさん」が発声する場合には、ユーザは、音信号選択部520において「1」を押下し、英語による会議が行われる場合には、「5」を押下する。
Now, the user inputs parameters relating to the generation of the masking sound by one of the following methods. First, the first method will be described. The user refers to the “name” displayed on the right side of the sound
もう1つの方法は、ユーザが、性別選択部530、年齢選択部540、言語選択部550、および音響空間選択部560の中から1つまたは複数について、特定の選択肢を選択する方法である。この場合、前記選択された情報に基づいてCPU100が音信号を選択する。例えば、「大人」の「男性」が「執務室」において「英語」で話をする場合には、図3に示すように性別選択部530、年齢選択部540、言語選択部550、および音響空間選択部560の各項目が選択される。
Another method is a method in which the user selects a specific option for one or more of the
操作部500は、上述の操作内容に応じて音信号選択情報または条件設定情報を出力する。
ステップSC150において、CPU100は、操作部500から音信号選択情報または条件設定情報を受信する。
The
In step SC150,
ステップSC130において、CPU100は、操作部500から受取った音信号選択情報または条件設定情報に基づいて音信号を選択する。すなわち、CPU100が音信号選択情報を受取った場合には、該音信号選択情報が表すスクランブル音信号をROM210から読み出してマスキングサウンドとして出力する。また、CPU100が条件設定情報を受信した場合には、該条件設定情報に書き込まれた性別、年齢、言語、そして音響空間の種類に関する情報を、スクランブル音信号選択テーブルと照らし合わせ、所定のアルゴリズム、例えば、最も一致した項目の数が多い音信号や、過去の選択履歴の中から最近選択された音信号、あるいは使用頻度が最も高い音信号など設定条件に合致するスクランブル音信号を読み出す。前記所定のアルゴリズムは、利用者の要求に応じて任意に設定すればよい。
In step SC <b> 130,
なお、このとき音響空間選択情報において、「住宅」が書き込まれていた場合には、CPU100は、マスキングサウンドとしてホワイトノイズの音信号を選択しても良い。なぜなら、一般に人の音から生成されたマスキングサウンドよりもホワイトノイズなどのランダムノイズから生成されたマスキングサウンドの方が、マスキング効果は低いものの不快感や違和感を引き起こす程度が低いため、居住性や快適性を優先する住宅では不快感や違和感が低いホワイトノイズによるマスキングが望まれるからである。また、「住宅」以外の場合でもホワイトノイズの音信号を優先することがあるのは言うまでもない。
At this time, if “house” is written in the acoustic space selection information, the
ステップSC140において、CPU100は、選択したスクランブル音信号またはホワイトノイズの音信号のいずれかを出力する。なお、出力されるスクランブル音信号の音量レベルは、使用者により音量レベル選択部570により入力された音量レベルに応じて最適な値に設定される。なお、該処理は割り込み処理として実行される。
In step SC140,
本動作モードにおいては、音響空間20Aにおける音の特長や音響空間20Aの種類などの情報に基づいて、最も該音および音響空間20Aの音響特性に合致したスクランブル音信号が、ROM210に格納された複数のスクランブル音信号またはホワイトノイズから選択される。この場合、ユーザは、ROM210にどのような音信号が格納されているかについて知らなくても、簡便に最適なマスキングサウンドを生成させることができる。
In this operation mode, a plurality of scrambled sound signals that most closely match the sound and the acoustic characteristics of the
(C;変形例)
以上、本発明の一実施形態について説明したが、かかる実施形態に以下に述べるような変形を加えても良いことは勿論である。また、以下に述べる変形を組み合わせて用いてもよい。
(C: Modification)
Although one embodiment of the present invention has been described above, it is needless to say that the embodiment may be modified as described below. Moreover, you may use combining the deformation | transformation described below.
(1)上記実施形態においては、マスキングサウンド生成装置10のCPU100が本発明に特徴的な処理の多くを実行する場合について説明したが、それぞれの処理を行うハードウェアモジュールを設けて同様の処理を行わせるようにしても良い。
(1) In the above embodiment, the case where the
(2)上記実施形態においては、初期設定処理において、音信号に各種の処理(フレーム化処理、リバース処理、窓掛け処理、およびランダム化処理)を全て施す場合について説明した。しかし、上述した全ての処理を必ずしも行わなくても良く、それらの処理を組み合わせることにより言語としての意味が理解できない程度に音信号が改変されていれば良い。 (2) In the above-described embodiment, the case has been described in which various processes (frame processing, reverse processing, windowing processing, and randomization processing) are all performed on the sound signal in the initial setting processing. However, it is not always necessary to perform all the processes described above, and it is sufficient that the sound signal is modified to such an extent that the meaning as a language cannot be understood by combining these processes.
(3)上記実施形態においては、スクランブル音信号選択テーブルにおいて、音信号に関する複数の情報(性別、年齢、言語、話速、フォルマント、周波数特性)について書き込む場合について説明した。しかし、音響特性分析処理において、話速、フォルマント、周波数特性の全てについて必ずしも分析する必要は無く、これら全ての項目について初期設定処理において書き込む必要もない。また、発音体属性情報の全てを書き込む必要は無い。CPU100は、書き込まれた項目の範囲内で最も一致の度合いが高いスクランブル音信号を選択するようにすれば良い。
(3) In the above embodiment, a case has been described in which a plurality of pieces of information (gender, age, language, speech speed, formant, frequency characteristics) regarding a sound signal are written in the scrambled sound signal selection table. However, in the acoustic characteristic analysis process, it is not always necessary to analyze all of the speech speed, formant, and frequency characteristic, and it is not necessary to write all these items in the initial setting process. Further, it is not necessary to write all of the sound generator attribute information. The
(4)上記実施形態においては、音響特性分析処理の方法の一例について説明した。しかし、各音響特性の分析方法は、上述の方法に限定されるものではなく、同様の分析結果が得られる方法であればどのような方法を用いても良い。 (4) In the said embodiment, an example of the method of the acoustic characteristic analysis process was demonstrated. However, the analysis method of each acoustic characteristic is not limited to the method described above, and any method may be used as long as a similar analysis result can be obtained.
(5)上記実施形態においては、動作モード1において、音響空間20Aで収音した音信号の音響特性を分析する処理について説明した。しかし、実際にマスキングサウンドが放音される空間は音響空間20Bであり、両音響空間の間には壁などの音響特性を変化させる障害物即ち遮音構造体が存在する。従って、CPU100は、音響特性分析処理を行う前に、対象となる音信号に前記遮音構造体の遮音特性を模したフィルタリング処理を施して該音信号が壁を透過した場合の音響効果を付与し、その後音響特性分析処理を行うようにしても良い。その結果、生成されるマスキングサウンドは、音響空間20Bのユーザに聞こえる騒音を模した音信号から生成されたものとなるため、より高いマスキング効果が期待できる。
(5) In the above embodiment, the process of analyzing the acoustic characteristics of the sound signal collected in the
(6)上記実施形態においては、マイクロホン30とスピーカ40を別々の音響空間に設ける場合について説明した。しかし、同じ音響空間にマイクロホン30およびスピーカ40を設置しても良い。例えば音響空間20Aにマイクロホン30およびスピーカ40を設置した場合、音響空間20Aのユーザの会話内容からマスキングサウンドが生成され、該マスキングサウンドは音響空間20Aにおいて放音されるため、音響空間20Bには、会話内容とマスキングサウンドの両者が漏れ聞こえることになる。その結果、音響空間20Bのユーザは、音響空間20Aのユーザの会話内容を理解することが困難になる。この場合、前記マイクロホン30とスピーカ40によりハウリングが発生しないような配置や信号処理を行うことは当然のことである。
(6) In the above embodiment, the case where the
(7)上記実施形態においては、マイクロホン30およびスピーカ40を別々の音響空間に設置する場合について説明した。しかし、同じ空間内にマイクロホン30およびスピーカ40を離して設置して、マイクロホン30の付近のエリアで秘匿性の高い会話がなされ、スピーカ40の付近のエリアのユーザにマスキングサウンドを放音することで該会話内容が聞こえないようにするようにしても良い。
(7) In the above embodiment, the case where the
(8)上記実施形態においては、音響空間20Aにマイクロホン30を、音響空間20Bにスピーカ40を設置する場合について説明した。しかし、複数の音響空間、例えば音響空間20Aおよび20Bのそれぞれにおいて、マイクロホン30およびスピーカ40の両者を設置するようにしてもよい。その場合、マスキングサウンド生成装置10は入力手段を有し、ユーザは、秘匿性の高い会話を行う場合には入力手段を介してその旨を入力し、マスキングサウンド生成装置10は、該入力がなされた音響空間においてはマイクロホン30で音を収音し、他方の音響空間において生成されたマスキングサウンドを放音するように制御すれば良い。
(8) In the above embodiment, the case where the
(9)上記実施形態においては、CPU100は、音信号スクランブル処理において入力された音信号を相異なるフレーム長の3つの音信号に複製し、それぞれの音信号において相異なる音信号処理を施し、その後それらの音信号をミキシングしてマスキングサウンドを生成した。しかし、扱う音信号の系統数は3に限られるものではなく、1または2でも良いし4以上でも良いが、マスキングサウンドとしての効果は、系統数がより多いほど高い。
(9) In the above embodiment, the
(10)上記実施形態においては、CPU100は、音信号のフレーム化において、話速の平均値および時間的なばらつきである標準偏差σから、平均値、平均値+σ、平均値−σの値を算出し、複製された音信号の各々のフレーム化処理に適用する場合に場合について説明した。しかし、利用される値は、平均値と平均値±σの値に限られるものではない。例えば、σに代えて標準誤差などとしても良いし、σに代えて予め定められた値を用いるとしても良い。
また、フレーム長選択テーブルにおいては、話速に対してフレーム長を3つ対応させておくようにし、CPU100は話速の平均値に対応する3つのフレーム長を読み出し、読み出されたフレーム長を用いて各々の音信号をフレームに分割するようにすれば良い。
(10) In the above embodiment, the
Further, in the frame length selection table, three frame lengths are associated with the speech speed, and the
(11)上記実施形態においては、複製された音信号をそれぞれ異なるフレーム長で分割する場合について説明した。しかし、複数の複製された音信号を共通のフレーム長で分割するようにしても良い。その場合、CPU100は話速の平均値に対応するフレーム長を読み出し、読み出されたフレーム長を用いて各々の音信号をフレームに分割するようにすれば良い。
(11) In the above embodiment, the case where the duplicated sound signal is divided by different frame lengths has been described. However, a plurality of replicated sound signals may be divided by a common frame length. In that case, the
(12)上記実施形態においては、ランダムノイズとしてホワイトノイズを用いる場合について説明した。しかし、ランダムノイズの種類は、ホワイトノイズに限定されず、例えばピンクノイズ(パワースペクトル密度が周波数に反比例する雑音)など他の音源でも良いし、空調から実際に発生する騒音や振動などから予め生成した音信号を用いるなどしても良い。 (12) In the above embodiment, the case where white noise is used as random noise has been described. However, the type of random noise is not limited to white noise, but may be other sound sources such as pink noise (noise whose power spectral density is inversely proportional to frequency), or generated in advance from noise or vibration actually generated from air conditioning. You may use the sound signal which did.
(13)上記実施形態においては、既成の音信号をROM210に書き込むために光ディスク再生装置を設け、光ディスクに書き込まれた音信号をROM210に書き込む場合について説明した。しかし、外部から音信号を取り込むための装置は、光ディスク再生装置に限られるものではなく、例えばインターネットなどの通信網を介して音信号をサーバからダウンロードしたり、マスキングサウンド生成装置10に外部機器との接続を仲介するI/O部を設けて、該I/O部に接続されたFlash Memoryなどから音信号をROM210に移動したりしても良い。
(13) In the above embodiment, a case has been described in which an optical disk playback device is provided to write an existing sound signal to the
(14)上記実施形態においては、動作モード1および2が選択可能である場合について説明した。しかし、両方の動作モードに示した処理が実行可能である必要はなく、いずれか一方だけでも良い。
(14) In the above embodiment, the case where the
(15)上記実施形態においては、初期設定処理において音信号スクランブル処理を施し、予めスクランブル音信号をROM210に書き込んでおく場合について説明した。しかし、CPU100は、音信号スクランブル処理することなく受取った音信号をROM210に格納し、マスキングサウンド生成処理の際に音信号スクランブル処理を行いながらマスキングサウンドを出力するようにしても良い。
また、光ディスクにスクランブルされた音信号が格納されている場合には、初期設定処理において音信号スクランブル処理を行わなくても良い。
(15) In the above embodiment, the case where the sound signal scramble process is performed in the initial setting process and the scramble sound signal is written in the
When the scrambled sound signal is stored on the optical disc, the sound signal scramble process may not be performed in the initial setting process.
(16)上記実施形態においては、スクランブルされた音信号を複数生成し、それらの音信号をROM210に格納し、マスキングサウンドを生成する際にそれらを選択して用いる旨説明した。従って、上記実施形態における「スクランブルされた複数の音信号の組み」を記憶した記憶媒体を作成し、他の音信号の再生装置において該記憶媒体から読み出された音信号を選択して出力するようにしても良い。
(16) In the above-described embodiment, it has been described that a plurality of scrambled sound signals are generated, the sound signals are stored in the
(17)上記実施形態においては、動作モード1では、CPU100がスクランブル音信号選択テーブルを参照し、受取った音信号の音響特性に最も類似しているスクランブル音信号を選択する場合について説明した。また、動作モード2では、CPU100がスクランブル音信号選択テーブルを参照し、ユーザから入力された各種条件と最も一致度が高いスクランブル音信号を選択する場合について説明した。しかし、CPU100は、上記いずれの場合においても、スクランブル音信号選択テーブルにおいて、スクランブル音信号を選択するにあたり、最も一致度が高いものではなく、一致度が一定のレベルを超えるものの中から選択するなどしても良い。
(17) In the above embodiment, in the
(18)上記実施形態においては、動作モード1において、音響特性分析処理の分析結果に基づいて、最も音響特性が類似したスクランブル音信号またはホワイトノイズの音信号が選択される場合について説明した。しかし、複数の音信号を同時に選択することができるようにしても良い。その場合、例えば動作モード1においては、操作部500において、選択される音信号の数を設定するための入力部を設けると良い。そしてCPU100は、最も音響特性が一致した順に、所定の数の音信号を選択するようにすれば良い。また、動作モード2において操作者により音信号が直接選択される場合には、音信号選択部520において押下された複数の選択肢と対応する複数の音信号が選択されるようにすればよい。以上のようにすれば、複数の音信号がマスキングサウンドとして重ねて出力されるため、効果的なマスキングがなされることが期待できる。
(18) In the above-described embodiment, the case has been described in which the scrambled sound signal or the white noise sound signal having the most similar acoustic characteristics is selected in the
(19)上記実施形態において、音響空間選択情報の内容に基づいて、出力されるマスキングサウンドに各種音響効果を付与しても良い。例えば音響空間選択情報が「ホール」である場合には、CPU100は、読み出されたスクランブル音信号またはホワイトノイズの音信号に対して残響効果を付与しても良い。なお、残響の付与方法としては、所定の時間遅延させた複数の音信号を重ね合わせる(FIRフィルタによる反射音の畳み込み処理)など、従来技術を適用可能である。また、「会議室」や「ホール」など、選択された音響空間の種類に応じて、残響時間や重ね合わせる音信号の数に差を設けるようにしても良い。
また、別の音響効果として反射音を畳み込む処理などにより音色の変換を施しても良い。会議室では、音が会議室の壁や机で反射したり室内で反響したりして、会議室独特の音色へと変換される。従って、音響空間選択情報が例えば「会議室」である場合には、CPU100は、読み出されたスクランブル音信号またはホワイトノイズの音信号の波形を調整して、該音信号を上記会議室特有の音色へ変換するなどしても良い。
以上の音響処理を施すことにより、更に違和感の少ないマスキングサウンドが生成される。
(19) In the above embodiment, various acoustic effects may be imparted to the output masking sound based on the content of the acoustic space selection information. For example, when the acoustic space selection information is “Hall”, the
Moreover, you may perform timbre conversion by the process etc. which convolve a reflected sound as another acoustic effect. In the conference room, the sound is reflected by the walls and desks of the conference room or reverberated in the room, and is converted into a tone unique to the conference room. Therefore, when the acoustic space selection information is “conference room”, for example, the
By performing the above acoustic processing, a masking sound with less discomfort is generated.
(20)上記実施形態においては、音響空間選択部560における選択肢として、「会議室」、「住宅」、「ホール」、「執務室」など、部屋の種類が書き込まれている場合について説明した。しかし、例えば「音がよく反響する空間」、「無響室」などといった部屋の音響特性を示す選択肢を設けても良い。要は、音響特性選択情報は、音響空間の音響特性を示す情報であれば良い。
(20) In the above embodiment, the case where the type of room such as “meeting room”, “house”, “hall”, “office room”, etc. is written as an option in the acoustic
(21)上記実施形態においては、動作モード2において、音響空間選択情報に基づいて音信号が選択される場合について説明した。しかし、そのような場合に限らず、いずれの動作モードで動作している場合においても音響空間選択部560への入力が可能であるようにしても良い。そのようにすれば、上記変形例(19)にも説明したように、音響空間20の音響特性に基づいて各種の音響処理をマスキングサウンドに対して施すことが可能となる。
(21) In the above embodiment, the case where the sound signal is selected based on the acoustic space selection information in the
(22)上記実施形態においては、動作モード1において、音響特性分析処理の分析結果を、スクランブル音信号またはホワイトノイズの選択に用いる場合について説明した。その場合、音響特性分析処理において更に、音響空間20Aにおける残響時間や反射音特性(インパルス応答)などを測定し、該音響特性分析処理の分析結果に基づいて、読み出された音信号に対して各種の音響処理を施して出力するようにしても良い。例えば音響空間20Aは「ホール」である場合、ホールは一般に残響時間が非常に長いことから、読み出された音信号に対して残響処理を施すなどしても良い。
(22) In the above-described embodiment, the case where the analysis result of the acoustic characteristic analysis process is used for selecting a scrambled sound signal or white noise in the
(23)上記実施形態においては、動作モード2において、条件設定情報が入力された場合には該条件設定情報に基づいて音信号を読み出して出力する場合について説明した。その場合、読み出した音信号に対し、条件設定情報に基づいて各種音響処理を施しても良い。例えば、性別選択情報が「男性」である場合には、音信号をイコライジングして周波数の低い周波数成分を強調して「男性」の声を模した音信号に変換するようにするなどしても良い。また、年齢選択情報が「小人」である場合には、音信号をイコライジングして周波数の高い周波数成分を強調して「小人」の声を模した音信号に変換するなどしても良い。
(23) In the above embodiment, in the
1…サウンドマスキングシステム、10…マスキングサウンド生成装置、20A、20B…音響空間、30…マイクロホン、40…スピーカ、100…CPU、200…記憶部、210…ROM、220…RAM、300…音声入力部、310…A/Dコンバータ、320…入力端子、400…音声出力部、410…D/Aコンバータ、420…アンプ、430…出力端子、500…操作部、510…動作モード選択部、520…音信号選択部、530…性別選択部、540…年齢選択部、550…言語選択部、560…音響空間選択部、570…音量レベル選択部、600…光ディスク再生装置、700…バス
DESCRIPTION OF
Claims (14)
音を収音し前記音の音響特性を分析する音響特性分析手段と、
前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段と
を具備することを特徴とするマスキングサウンド生成装置。 A memory for storing a plurality of scrambled sound signals in which the time series of the sound signal is changed and for storing acoustic characteristics of each of the scrambled sound signals by reconfiguring the sound signal by dividing it into sections of a predetermined time length Means,
Acoustic characteristic analysis means for collecting sound and analyzing acoustic characteristics of the sound;
The acoustic characteristic analyzed by the acoustic characteristic analyzing means and the acoustic characteristic of the scrambled sound signal are compared by a predetermined algorithm to determine a scrambled sound signal, and the determined scrambled sound signal is read from the storage means and output. And an output means. A masking sound generation apparatus comprising: an output means;
操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、
前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段と
を具備することを特徴とするマスキングサウンド生成装置。 A memory for storing a plurality of scrambled sound signals in which the time series of the sound signal is changed and for storing acoustic characteristics of each of the scrambled sound signals by reconfiguring the sound signal by dividing it into sections of a predetermined time length Means,
Receiving means for receiving information about the acoustic characteristics of the sound to be masked from the operator;
Output means for comparing the acoustic characteristics received by the receiving means and the acoustic characteristics of the scrambled sound signal by a predetermined algorithm to determine a scrambled sound signal, reading out the determined scrambled sound signal from the storage means and outputting it And a masking sound generating device.
操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、
前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段と
を具備することを特徴とするマスキングサウンド生成装置。 Storage means for storing a plurality of scrambled sound signals in which the time series of the sound signal is changed by dividing the sound signal into sections of a predetermined time length and reconfiguring;
Receiving means for receiving an instruction signal designating any of the scrambled sound signals stored in the storage means from an operator;
A masking sound generating apparatus comprising: output means for reading out and outputting the scrambled sound signal indicated by the instruction signal received by the receiving means from the storage means.
を更に備えることを特徴とする請求項1ないし3のいずれかに記載のマスキングサウンド生成装置。 Scrambling means for receiving a sound signal, processing the sound signal into predetermined sections, and generating a scrambled sound signal in which the time series of each section is changed, and storing the scrambled sound signal in the storage means. The masking sound generation apparatus according to claim 1, wherein the masking sound generation apparatus is a masking sound generation apparatus.
ことを特徴とする請求項1に記載のマスキングサウンド生成装置。 The output means performs an acoustic process on the scrambled sound signal read from the storage means based on the acoustic characteristics of the sound analyzed by the acoustic characteristics analysis means, and outputs the result. Masking sound generator.
ことを特徴とする請求項2に記載のマスキングサウンド生成装置。 The output means performs an acoustic process on the scrambled sound signal read from the storage means based on information about the acoustic characteristics of the masked sound received by the receiving means, and outputs the scrambled sound signal. The masking sound generator described in 1.
前記出力手段は、前記受信手段が受取った空間の音響特性に関する情報に基づいて、前記記憶手段から読出したスクランブル音信号に音響処理を施して出力する
ことを特徴とする請求項1ないし4のいずれかに記載のマスキングサウンド生成装置。 Receiving means for receiving information on acoustic characteristics of a space where the scrambled sound signal is emitted from an operator;
5. The output unit according to claim 1, wherein the output unit performs an acoustic process on the scrambled sound signal read from the storage unit based on information about the acoustic characteristics of the space received by the receiving unit. A masking sound generator according to claim 1.
音を収音し前記音の音響特性を分析する音響特性分析段階と、
前記音響特性分析段階において分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階と
を具備することを特徴とするマスキングサウンド生成方法。 By dividing and reconfiguring the sound signal into sections of a predetermined time length, a plurality of scrambled sound signals whose time series of the sound signal are changed are stored in a storage device, and the acoustic characteristics of each of the scrambled sound signals are A memory stage to memorize,
An acoustic characteristic analysis stage for collecting sound and analyzing the acoustic characteristics of the sound;
The acoustic characteristic analyzed in the acoustic characteristic analysis step and the acoustic characteristic of the scrambled sound signal are compared by a predetermined algorithm to determine a scrambled sound signal, and the determined scrambled sound signal is read from the storage device and output. A masking sound generation method comprising: an output stage.
操作者からマスキングされる音の音響特性に関する情報を受取る受取段階と、
前記受取段階において受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶装置から該決定したスクランブル音信号を読出して出力する出力段階と
を具備することを特徴とするマスキングサウンド生成方法。 By dividing and reconfiguring the sound signal into sections of a predetermined time length, a plurality of scrambled sound signals whose time series of the sound signal are changed are stored in a storage device, and the acoustic characteristics of each of the scrambled sound signals are A memory stage to memorize,
A receiving stage for receiving information about the acoustic characteristics of the sound to be masked from the operator;
An output step of determining the scrambled sound signal by comparing the acoustic characteristic received in the receiving step with the acoustic characteristic of the scrambled sound signal by a predetermined algorithm, and reading and outputting the determined scrambled sound signal from the storage device And a masking sound generating method comprising:
操作者から前記記憶段階において記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取段階と、
前記受取段階において受取られた指示信号が示すスクランブル音信号を、前記記憶装置から読出して出力する出力段階と
を具備することを特徴とするマスキングサウンド生成方法。 A storage step of storing a plurality of scrambled sound signals in which the time series of the sound signal is changed by dividing the sound signal into sections of a predetermined time length and reconfiguring the sound signal;
Receiving an instruction signal designating any of the scrambled sound signals stored in the storage step from an operator;
A masking sound generation method comprising: an output step of reading out and outputting the scrambled sound signal indicated by the instruction signal received in the receiving step from the storage device.
音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、
音を収音し前記音の音響特性を分析する音響特性分析手段と、
前記音響特性分析手段により分析された音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段
として機能させるためのプログラム。 Computer
A memory for storing a plurality of scrambled sound signals in which the time series of the sound signal is changed and for storing acoustic characteristics of each of the scrambled sound signals by reconfiguring the sound signal by dividing it into sections of a predetermined time length Means,
Acoustic characteristic analysis means for collecting sound and analyzing acoustic characteristics of the sound;
The acoustic characteristic analyzed by the acoustic characteristic analyzing means and the acoustic characteristic of the scrambled sound signal are compared by a predetermined algorithm to determine a scrambled sound signal, and the determined scrambled sound signal is read from the storage means and output. Program to function as output means.
音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶すると共に、前記スクランブル音信号の各々の音響特性を記憶する記憶手段と、
操作者からマスキングされる音の音響特性に関する情報を受取る受取手段と、
前記受取手段により受取られた音響特性と前記スクランブル音信号の音響特性とを所定のアルゴリズムにより比較してスクランブル音信号を決定し、前記記憶手段から該決定したスクランブル音信号を読出して出力する出力手段
として機能させるためのプログラム。 Computer
A memory for storing a plurality of scrambled sound signals in which the time series of the sound signal is changed and for storing acoustic characteristics of each of the scrambled sound signals by reconfiguring the sound signal by dividing it into sections of a predetermined time length Means,
Receiving means for receiving information about the acoustic characteristics of the sound to be masked from the operator;
Output means for comparing the acoustic characteristics received by the receiving means and the acoustic characteristics of the scrambled sound signal by a predetermined algorithm to determine a scrambled sound signal, reading out the determined scrambled sound signal from the storage means and outputting it Program to function as.
音信号を所定時間長の区間に分割して再構成することにより、前記音信号の時系列が変更されたスクランブル音信号を複数記憶する記憶手段と、
操作者から前記記憶手段に記憶されたスクランブル音信号のいずれかを指定する指示信号を受取る受取手段と、
前記受取手段により受取られた指示信号が示すスクランブル音信号を、前記記憶手段から読出して出力する出力手段
として機能させるためのプログラム。 Computer
Storage means for storing a plurality of scrambled sound signals in which the time series of the sound signal is changed by dividing the sound signal into sections of a predetermined time length and reconfiguring;
Receiving means for receiving an instruction signal designating any of the scrambled sound signals stored in the storage means from an operator;
A program for causing a scrambled sound signal indicated by an instruction signal received by the receiving means to function as an output means for reading out and outputting from the storage means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007075283A JP5103974B2 (en) | 2007-03-22 | 2007-03-22 | Masking sound generation apparatus, masking sound generation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007075283A JP5103974B2 (en) | 2007-03-22 | 2007-03-22 | Masking sound generation apparatus, masking sound generation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008233672A true JP2008233672A (en) | 2008-10-02 |
JP5103974B2 JP5103974B2 (en) | 2012-12-19 |
Family
ID=39906501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007075283A Expired - Fee Related JP5103974B2 (en) | 2007-03-22 | 2007-03-22 | Masking sound generation apparatus, masking sound generation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5103974B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010231218A (en) * | 2010-04-27 | 2010-10-14 | Sony Corp | Music reproduction device |
JP2011154125A (en) * | 2010-01-26 | 2011-08-11 | Yamaha Corp | Apparatus for performing sound masking and program |
JP2011154141A (en) * | 2010-01-26 | 2011-08-11 | Yamaha Corp | Masker sound generation apparatus and program |
JP2011175182A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Information processor and operation method thereof |
EP2367169A2 (en) | 2010-01-26 | 2011-09-21 | Yamaha Corporation | Masker sound generation apparatus and program |
WO2012043597A1 (en) * | 2010-09-28 | 2012-04-05 | ヤマハ株式会社 | Masking sound outputting device, and masking sound outputting means |
JP2012113130A (en) * | 2010-11-25 | 2012-06-14 | Yamaha Corp | Sound masking apparatus |
JP2012141524A (en) * | 2011-01-06 | 2012-07-26 | Dainippon Printing Co Ltd | Encrypted data generation device, encrypted data generation method, encryption device, encryption method, and program |
JP2013231987A (en) * | 2013-06-24 | 2013-11-14 | Yamaha Corp | Conversation leakage prevention device |
JP2014174255A (en) * | 2013-03-07 | 2014-09-22 | Sony Corp | Signal processing device, signal processing method, and storage medium |
JP2014199445A (en) * | 2013-03-11 | 2014-10-23 | 学校法人上智学院 | Sound masking apparatus and method, and program |
CN104637485A (en) * | 2015-03-03 | 2015-05-20 | 山东省计算中心(国家超级计算济南中心) | Generating method for shielding signals used for protecting Chinese speech privacy |
US10499151B2 (en) * | 2015-05-15 | 2019-12-03 | Nureva, Inc. | System and method for embedding additional information in a sound mask noise signal |
JP2021124684A (en) * | 2020-02-07 | 2021-08-30 | 沖電気工業株式会社 | Acoustic processing device, acoustic processing program and acoustic processing method |
JP2021135361A (en) * | 2020-02-26 | 2021-09-13 | 沖電気工業株式会社 | Sound processing device, sound processing program and sound processing method |
CN115512683A (en) * | 2022-09-21 | 2022-12-23 | 中国人民解放军61623部队 | Voice processing method, device, computer equipment and storage medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH055334A (en) * | 1991-04-22 | 1993-01-14 | Daiken Trade & Ind Co Ltd | Masking partition |
JPH06308977A (en) * | 1993-04-22 | 1994-11-04 | Matsushita Electric Works Ltd | Soundproof partition |
JP2004205889A (en) * | 2002-12-26 | 2004-07-22 | Daiichikosho Co Ltd | Karaoke remote controller and karaoke player featured by music selection system |
JP2005084645A (en) * | 2003-09-11 | 2005-03-31 | Glory Ltd | Masking device |
JP2005283804A (en) * | 2004-03-29 | 2005-10-13 | Daiichikosho Co Ltd | Karaoke remote controller with electronic table of contents book function |
JP2005534061A (en) * | 2002-07-24 | 2005-11-10 | アプライド マインズ インク | Method and system for masking languages |
JP2006267174A (en) * | 2005-03-22 | 2006-10-05 | Yamaguchi Univ | Device for protection of speech privacy |
JP2007017840A (en) * | 2005-07-11 | 2007-01-25 | Nissan Motor Co Ltd | Speech authentication device |
-
2007
- 2007-03-22 JP JP2007075283A patent/JP5103974B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH055334A (en) * | 1991-04-22 | 1993-01-14 | Daiken Trade & Ind Co Ltd | Masking partition |
JPH06308977A (en) * | 1993-04-22 | 1994-11-04 | Matsushita Electric Works Ltd | Soundproof partition |
JP2005534061A (en) * | 2002-07-24 | 2005-11-10 | アプライド マインズ インク | Method and system for masking languages |
JP2004205889A (en) * | 2002-12-26 | 2004-07-22 | Daiichikosho Co Ltd | Karaoke remote controller and karaoke player featured by music selection system |
JP2005084645A (en) * | 2003-09-11 | 2005-03-31 | Glory Ltd | Masking device |
JP2005283804A (en) * | 2004-03-29 | 2005-10-13 | Daiichikosho Co Ltd | Karaoke remote controller with electronic table of contents book function |
JP2006267174A (en) * | 2005-03-22 | 2006-10-05 | Yamaguchi Univ | Device for protection of speech privacy |
JP2007017840A (en) * | 2005-07-11 | 2007-01-25 | Nissan Motor Co Ltd | Speech authentication device |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8861742B2 (en) | 2010-01-26 | 2014-10-14 | Yamaha Corporation | Masker sound generation apparatus and program |
JP2011154125A (en) * | 2010-01-26 | 2011-08-11 | Yamaha Corp | Apparatus for performing sound masking and program |
JP2011154141A (en) * | 2010-01-26 | 2011-08-11 | Yamaha Corp | Masker sound generation apparatus and program |
EP2367169A2 (en) | 2010-01-26 | 2011-09-21 | Yamaha Corporation | Masker sound generation apparatus and program |
EP2367169A3 (en) * | 2010-01-26 | 2014-11-26 | Yamaha Corporation | Masker sound generation apparatus and program |
JP2011175182A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Information processor and operation method thereof |
JP2010231218A (en) * | 2010-04-27 | 2010-10-14 | Sony Corp | Music reproduction device |
JP2012095262A (en) * | 2010-09-28 | 2012-05-17 | Yamaha Corp | Masker sound output device |
WO2012043597A1 (en) * | 2010-09-28 | 2012-04-05 | ヤマハ株式会社 | Masking sound outputting device, and masking sound outputting means |
CN103109317A (en) * | 2010-09-28 | 2013-05-15 | 雅马哈株式会社 | Masking sound outputting device, and masking sound outputting means |
US9286880B2 (en) | 2010-09-28 | 2016-03-15 | Yamaha Corporation | Masking sound outputting device and masking sound outputting method |
JP2012113130A (en) * | 2010-11-25 | 2012-06-14 | Yamaha Corp | Sound masking apparatus |
JP2012141524A (en) * | 2011-01-06 | 2012-07-26 | Dainippon Printing Co Ltd | Encrypted data generation device, encrypted data generation method, encryption device, encryption method, and program |
JP2014174255A (en) * | 2013-03-07 | 2014-09-22 | Sony Corp | Signal processing device, signal processing method, and storage medium |
JP2014199445A (en) * | 2013-03-11 | 2014-10-23 | 学校法人上智学院 | Sound masking apparatus and method, and program |
JP2013231987A (en) * | 2013-06-24 | 2013-11-14 | Yamaha Corp | Conversation leakage prevention device |
CN104637485A (en) * | 2015-03-03 | 2015-05-20 | 山东省计算中心(国家超级计算济南中心) | Generating method for shielding signals used for protecting Chinese speech privacy |
US10856079B2 (en) | 2015-05-15 | 2020-12-01 | Nureva, Inc. | System and method for embedding additional information in a sound mask noise signal |
US10499151B2 (en) * | 2015-05-15 | 2019-12-03 | Nureva, Inc. | System and method for embedding additional information in a sound mask noise signal |
EP3826324A1 (en) | 2015-05-15 | 2021-05-26 | Nureva Inc. | System and method for embedding additional information in a sound mask noise signal |
US11356775B2 (en) | 2015-05-15 | 2022-06-07 | Nureva, Inc. | System and method for embedding additional information in a sound mask noise signal |
JP2021124684A (en) * | 2020-02-07 | 2021-08-30 | 沖電気工業株式会社 | Acoustic processing device, acoustic processing program and acoustic processing method |
JP7532791B2 (en) | 2020-02-07 | 2024-08-14 | 沖電気工業株式会社 | SOUND PROCESSING DEVICE, SOUND PROCESSING PROGRAM, AND SOUND PROCESSING METHOD |
JP2021135361A (en) * | 2020-02-26 | 2021-09-13 | 沖電気工業株式会社 | Sound processing device, sound processing program and sound processing method |
CN115512683A (en) * | 2022-09-21 | 2022-12-23 | 中国人民解放军61623部队 | Voice processing method, device, computer equipment and storage medium |
CN115512683B (en) * | 2022-09-21 | 2024-05-24 | 中国人民解放军61623部队 | Speech processing method, device, computer equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP5103974B2 (en) | 2012-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5103974B2 (en) | Masking sound generation apparatus, masking sound generation method and program | |
JP4245060B2 (en) | Sound masking system, masking sound generation method and program | |
Saitou et al. | Speech-to-singing synthesis: Converting speaking voices to singing voices by controlling acoustic features unique to singing voices | |
JP5103973B2 (en) | Sound masking system, masking sound generation method and program | |
Raitio et al. | Analysis of HMM-Based Lombard Speech Synthesis. | |
JP2004522186A (en) | Speech synthesis of speech synthesizer | |
JP2000511651A (en) | Non-uniform time scaling of recorded audio signals | |
US11727949B2 (en) | Methods and apparatus for reducing stuttering | |
JPWO2004049304A1 (en) | Speech synthesis method and speech synthesis apparatus | |
JP6349112B2 (en) | Sound masking apparatus, method and program | |
JP2010014913A (en) | Device and system for conversion of voice quality and for voice generation | |
JP4785563B2 (en) | Audio processing apparatus and audio processing method | |
JP5707944B2 (en) | Pleasant data generation device, pleasant sound data generation method, pleasant sound device, pleasant sound method and program | |
JP6681264B2 (en) | Audio processing device and program | |
JP4564416B2 (en) | Speech synthesis apparatus and speech synthesis program | |
US20040054524A1 (en) | Speech transformation system and apparatus | |
JP5648485B2 (en) | Confidential data generating device, concealed data generating method, concealing device, concealing method and program | |
JP5741175B2 (en) | Confidential data generating device, concealed data generating method, concealing device, concealing method and program | |
Le Roux et al. | Single channel speech and background segregation through harmonic-temporal clustering | |
JP6232710B2 (en) | Sound recording device | |
JP3241582B2 (en) | Prosody control device and method | |
Stojanović et al. | Estimation of the Subjective Intelligibility With Superimposition of BN8 in the Environment of the Orthodox Church Built in the Moravian Style | |
JP5644268B2 (en) | Confidential data generating device, concealed data generating method, concealing device, concealing method and program | |
JP4267954B2 (en) | GENERAL CYCLE SIGNAL GENERATION METHOD, DEVICE, VOICE SYNTHESIS METHOD, DEVICE, VOICE SYNTHESIS PROGRAM AND RECORDING MEDIUM | |
Kapse et al. | Feature Extraction Techniques for Voice Operated PC Application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100120 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120904 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120917 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151012 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |