JP6299053B2 - Arrayed sound collection sensor device - Google Patents
Arrayed sound collection sensor device Download PDFInfo
- Publication number
- JP6299053B2 JP6299053B2 JP2016146990A JP2016146990A JP6299053B2 JP 6299053 B2 JP6299053 B2 JP 6299053B2 JP 2016146990 A JP2016146990 A JP 2016146990A JP 2016146990 A JP2016146990 A JP 2016146990A JP 6299053 B2 JP6299053 B2 JP 6299053B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- sound
- shunt
- stenosis
- analysis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 description 114
- 238000004458 analytical method Methods 0.000 description 81
- 208000031481 Pathologic Constriction Diseases 0.000 description 65
- 230000036262 stenosis Effects 0.000 description 65
- 208000037804 stenosis Diseases 0.000 description 65
- 238000012545 processing Methods 0.000 description 47
- 238000012360 testing method Methods 0.000 description 45
- 230000008569 process Effects 0.000 description 40
- 239000013598 vector Substances 0.000 description 36
- 238000003745 diagnosis Methods 0.000 description 32
- 206010059053 Shunt stenosis Diseases 0.000 description 21
- 238000001228 spectrum Methods 0.000 description 18
- 238000000605 extraction Methods 0.000 description 11
- 210000000245 forearm Anatomy 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 230000003595 spectral effect Effects 0.000 description 10
- 230000017531 blood circulation Effects 0.000 description 8
- 238000000513 principal component analysis Methods 0.000 description 8
- 210000004204 blood vessel Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 7
- 230000010349 pulsation Effects 0.000 description 7
- 238000002555 auscultation Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000002966 stenotic effect Effects 0.000 description 5
- 210000003462 vein Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000002860 competitive effect Effects 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 239000011347 resin Substances 0.000 description 3
- 229920005989 resin Polymers 0.000 description 3
- 230000002238 attenuated effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000502 dialysis Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- JOYRKODLDBILNP-UHFFFAOYSA-N Ethyl urethane Chemical compound CCOC(N)=O JOYRKODLDBILNP-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 206010047141 Vasodilatation Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003872 anastomosis Effects 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 239000002473 artificial blood Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000004352 blood vessel remodeling Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 208000020832 chronic kidney disease Diseases 0.000 description 1
- 208000022831 chronic renal failure syndrome Diseases 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000004064 dysfunction Effects 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000001631 haemodialysis Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 230000024883 vasodilation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- External Artificial Organs (AREA)
Description
この発明は,アレイ状採音センサ装置に関し,特にシャント狭窄診断支援システムで有効に利用できるアレイ状採音センサ装置に関する。 This invention relates to an array sound receiving sensor unit, about the array voice pickup sensor equipment in particular can be effectively utilized in the shunt stenosis diagnosis support system.
慢性腎不全患者の多くは,前腕部において動脈と静脈を吻合させるシャントと呼ばれる人工的な血管の改造手術を受けている。このシャントにより静脈から対外へ循環させる血流量を安定に保つことができ透析効率を高めることができる。シャントの問題は,シェアストレスなどにより,血管の狭窄や閉塞が生じることである。このため,血管の状態を定常的に診断するとともに,必要に応じて経皮的血管拡張術により血流の回復を行う必要がある。 Many patients with chronic renal failure have undergone artificial blood vessel remodeling procedures called shunts that anastomoses arteries and veins in the forearm. With this shunt, the blood flow circulated from the vein to the outside can be kept stable, and the dialysis efficiency can be increased. The problem with shunting is that blood vessels become constricted or occluded due to shear stress. For this reason, it is necessary to constantly diagnose the state of blood vessels and restore blood flow by percutaneous vasodilatation as necessary.
シャントの狭窄状態の検査法として,血管造影検査が一般的であり,血流路が像として得られる信頼性の高い検査であるが,侵襲的である。加えて,高価な装置が必要であり,専門スタッフも複数人必要であることから,大きな病院でなければ導入されていない。非侵襲な一般的診断法は,シャントから発生する血流音(シャント音)を聴診することである。シャント音は狭窄がある場合,拍動がとぎれることや(断続狭窄音),高音が混在すること(高周波狭窄音)があり,熟練者による丁寧な聴診では7〜8割程度検出が可能であると言われている。しかしながら,熟練者による丁寧な聴診が必要であり,シャント狭窄診断が必要な患者数に比べて熟練者の数は圧倒的に少ない。そこで,熟練者による精密な診断が必要な患者を前もってスクリーニングできる自動機械の実現が望まれている。 An angiography test is generally used as a test method for shunt stenosis, and is a highly reliable test in which the blood flow path is obtained as an image, but it is invasive. In addition, since expensive equipment is required and more than one specialized staff is required, it is not installed unless it is a large hospital. A common non-invasive diagnostic method is to auscultate blood flow sound (shunt sound) generated from the shunt. Shunt sounds may have stenosis, pulsation may be interrupted (intermittent stenosis sound), and high sounds may be mixed (high frequency stenosis sound), and 70 to 80% can be detected by careful auscultation by a skilled person. It is said. However, careful auscultation by skilled workers is necessary, and the number of skilled workers is overwhelmingly smaller than the number of patients who need shunt stenosis diagnosis. Therefore, it is desired to realize an automatic machine that can screen patients who need precise diagnosis by skilled workers in advance.
これまでに,シャント音を信号処理によって判断する際,シャント音の音圧(音全体のパワー)(特許文献7)及び,そのスペクトル情報(FFT,LPC,ケプストラム)によって解析する方法が提案されている(特許文献1,2,5,非特許文献1,3)。また,ウェーブレット変換等,時間−周波数解析による手法も提案されている(特許文献3,6,非特許文献2)。しかし,解析結果を観察する方法では読解の技術が必要である。そこで,それらの解析結果から狭窄の程度を数値化するために,狭窄シャント音波形からの相関を算出する方法(特許文献4),音圧,スペクトルピーク情報を特徴ベクトルとしてニューラルネットワークで学習させる手法(特許文献2),ウェーブレット変換結果を画像解析手法を用いて各時間−周波数エリアのパワーから評価,及び画像の相関を利用する方法(特許文献3)が提案されているが,未だ対応できない狭窄音も存在する。その理由は,狭窄に伴う変化は多種存在すること,その狭窄の程度によって音色が異なる,また正常であっても個人差が存在するからである。 So far, when a shunt sound is determined by signal processing, a method of analyzing the sound pressure of the shunt sound (power of the entire sound) (Patent Document 7) and its spectrum information (FFT, LPC, cepstrum) has been proposed. (Patent documents 1, 2, 5, non-patent documents 1, 3). In addition, methods using time-frequency analysis such as wavelet transform have been proposed (Patent Documents 3 and 6, Non-Patent Document 2). However, the method of observing the analysis results requires reading skills. Therefore, in order to quantify the degree of stenosis from these analysis results, a method for calculating the correlation from the stenosis shunt sound waveform (Patent Document 4), and a method for learning sound pressure and spectral peak information as a feature vector using a neural network (Patent Document 2), a method (Patent Document 3) has been proposed in which the wavelet transform result is evaluated from the power of each time-frequency area using an image analysis method, and the correlation between images has been proposed (Patent Document 3), but still not supported There is also sound. The reason is that there are many types of changes associated with stenosis, the timbre varies depending on the degree of stenosis, and there are individual differences even if normal.
他方,シャント音を採音するセンサについても問題がある。すなわち,基本的にシャント音はシャントによる血流がある静脈上でしか確認されない。また,狭窄音はシャント音の波及する狭窄部で顕著に確認され,それ以外の箇所では専門家による聴診,解析結果ともに正常音と変わらない結果が得られることが多い。これまでにシャント音の採音に用いられているセンサは原理的に1チャンネルごと設置するものであり,人による聴診によりシャント音を確認した後,その位置にセンサを取り付けることでしかシャント音を採取することができない。殊に,狭窄を検出するためには狭窄上に設置しなければならない。また,皮膚上の形状にフィットしない等,固定する方法に難のあるものもある。 On the other hand, there is a problem with sensors that collect shunt sounds. That is, shunt sounds are basically confirmed only on veins where blood flow is caused by shunts. In addition, the stenosis sound is remarkably confirmed in the stenosis part where the shunt sound spreads, and in other places, the result of auscultation and analysis by an expert is often the same as the normal sound. Sensors used to collect shunt sounds have been installed for each channel in principle, and after confirming the shunt sound by human auscultation, the shunt sound can only be obtained by attaching a sensor at that position. Cannot be collected. In particular, in order to detect stenosis, it must be placed on the stenosis. In addition, there are things that are difficult to fix because they do not fit the shape on the skin.
さらに信号解析法上の改善も必要である。シャント狭窄診断に限らず,病気の医療診断や製造物の異常診断では,多数の音響データや加速度データあるいはX線吸収データなどから被検査対象の特徴を範疇に分類し,その特徴から被検対象の状態を判定する診断が行われており,この診断を行う有効な手段として自己特徴マップSOM法が知られている。精密で正確な診断と判定を行うために,データ数の増加とともにデータ自体の成分も増加させる傾向がある。このような背景から,データ量の増大が処理時間の増大をもたらすという問題があった。 Furthermore, improvements in signal analysis methods are also necessary. Not only for shunt stenosis diagnosis, but also for medical diagnosis of diseases and abnormal diagnosis of products, the characteristics of the test object are classified into categories based on many acoustic data, acceleration data, X-ray absorption data, etc. A diagnosis for determining the state of the self-feature map is performed, and the self-feature map SOM method is known as an effective means for performing the diagnosis. In order to perform accurate and accurate diagnosis and determination, the data itself tends to increase as the number of data increases. From such a background, there has been a problem that an increase in data amount causes an increase in processing time.
この発明は,特に,多様なシャント狭窄音の存在を前提として,これらのシャント狭窄音を識別して,シャント狭窄のスクリーニングを支援するシャント狭窄診断支援システムにおいて有効であり,熟練者でなくとも容易に採音することができるアレイ状採音センサ装置を提供するものである。 The invention is particularly, assuming the existence of a variety of shunt stenosis sounds, to identify these shunt stenosis sound is effective in Resid Yanto stenosis diagnosis support system to support the screening of shunt stenosis, but a skilled person Both provide an arrayed sound pickup sensor device that can pick up sound easily.
まずシャント狭窄診断支援システムについて説明しておく。First, the shunt stenosis diagnosis support system will be described.
第1のシャント狭窄診断支援システムは,被験者から採音したシャント音の少なくとも1拍動分の被験シャント音波形データを生成するシャント音入力手段,上記シャント音入力手段で生成された被験サンプルのシャント音波形データと評価指標となる複数種類の指標サンプルのシャント音波形データの時間周波数特性のうちの少なくとも指標サンプルの時間周波数特性を用いて自己組織化マップを作成し,この作成された自己組織化マップ上における指標サンプルの位置に対する被験サンプルの位置を解析する第1の解析手段,および複数種類の指標サンプルのシャント音波形データの時間周波数特性に基づく複数種類のモデルを作成し,被験サンプルのシャント音波形データの時間周波数特性の上記各モデルに属する確率を解析する第2の解析手段を備えるものである。 The first sheet Yanto stenosis diagnosis support system, shunt sound input means for generating at least pulsation component of the test shunt sound waveform data of a shunt sound and sound receiving from the subject, the test sample produced in the shunt sound input means A self-organizing map is created using at least the time-frequency characteristics of the index sample among the shunt sound-form data and the time-frequency characteristics of the shunt sound-form data of a plurality of types of index samples as evaluation indexes, and the created self-organization map is created. A first analysis means for analyzing the position of the test sample relative to the position of the index sample on the quantization map, and a plurality of types of models based on the time frequency characteristics of the shunt sound waveform data of the plurality of types of index samples, Analyzing the probability of belonging to each of the above models of the time-frequency characteristics of shunt sound waveform data Those comprising analyzing means.
被験者の採音により得られる音信号の複数拍動分の被験シャント音波形データを作成することが好ましい。 It is preferable to create test shunt sound waveform data for a plurality of beats of the sound signal obtained by the subject's sound collection.
第1の解析手段による指標サンプルには正常音のサンプルと狭窄音のサンプルが含まれることが好ましく,さらに狭窄音のサンプルには複数種類の(多種多様な)異なる狭窄音のサンプルが含まれることが好ましい。正常音,狭窄音の区別,狭窄音の種類は熟達した専門家の判断に依る。各サンプルとも複数人数分あることが好ましく,また一人から得られる音信号から複数拍動分のシャント音サンプル波形データを作成することが好ましい。 The index sample by the first analysis means preferably includes a normal sound sample and a stenosis sound sample, and the stenosis sound sample includes a plurality of (various) different stenosis sound samples. Is preferred. The distinction between normal and stenotic sounds and the type of stenotic sound depends on the judgment of an expert. Each sample is preferably for a plurality of persons, and it is preferable to create shunt sound sample waveform data for a plurality of beats from a sound signal obtained from one person.
上記第1の解析手段は,被験サンプルのデータと指標サンプルのデータとを混ぜて自己組織化マップを作成するものであってもよいし,指標サンプルのデータにより作成された自己組織化マップ上に占める被験サンプルの位置を示したものであってもよい。 The first analysis means may create a self-organizing map by mixing the data of the test sample and the data of the index sample, or on the self-organizing map created by the data of the index sample. It may indicate the position of the occupied test sample.
好ましくは,上記第1の解析手段による解析結果に基づいてシャント狭窄の可能性についての判定を行う第1の判定手段をさらに備える。また,上記第2の解析手段による解析結果に基づいてシャント狭窄の可能性についての判定を行う第2の判定手段をさらに備える。 Preferably, the apparatus further includes a first determination unit that determines a possibility of shunt stenosis based on an analysis result by the first analysis unit. The apparatus further includes second determination means for determining the possibility of shunt stenosis based on the analysis result by the second analysis means.
さらに,上記第1の解析手段による解析結果に基づいてシャント狭窄の可能性についての判定を行う第1の判定手段と,上記第2の解析手段による解析結果に基づいてシャント狭窄の可能性についての判定を行う第2の判定手段と,上記第1の判定手段の判定と上記第2の判定手段の判定とに基づいて統合的判定を行う統合判定手段をさらに備えるとよい。 Further, a first determination means for determining the possibility of shunt stenosis based on the analysis result by the first analysis means, and a possibility of the shunt stenosis based on the analysis result by the second analysis means. It is preferable to further include a second determination unit that performs the determination, and an integrated determination unit that performs an integrated determination based on the determination of the first determination unit and the determination of the second determination unit.
これらの場合に,上記第1の解析手段による解析結果,上記第2の解析手段による解析結果,上記第1の判定手段による判定結果,上記第2の判定手段による判定結果,または上記統合判定手段による統合判定結果を出力する出力手段を備えるようにすると,解析結果や判定結果を知ることができる。 In these cases, the analysis result by the first analysis unit, the analysis result by the second analysis unit, the determination result by the first determination unit, the determination result by the second determination unit, or the integrated determination unit If an output means for outputting the integrated judgment result is provided, the analysis result and judgment result can be known.
第1の解析手段による解析結果に基づいて人がシャント狭窄の有無や程度を判断してもよいし,同じように第2の解析手段による解析結果に基づいて人がシャント狭窄について判断してもよい。統合判定を人が行ってもよい。 Based on the analysis result by the first analysis means, the person may determine the presence or degree of the shunt stenosis, and similarly, even if the person determines the shunt stenosis based on the analysis result by the second analysis means. Good. A person may make the integrated determination.
シャント音の採音手段として,この発明によるアレイ状採音センサ装置を用いるとよい。この発明によるアレイ状採音センサ装置の詳細は後述する。上記シャント音入力手段はこのアレイ状採音センサ装置の各マイクロホンからの出力信号のそれぞれに基づいて被験シャント音波形データを生成する。上記第1の解析手段および上記第2の解析手段は,上記各マイクロホンのそれぞれの出力信号に基づいて作成された被験シャント音波形データを解析に用いる。 As the shunt sound collection means, the arrayed sound collection sensor device according to the present invention may be used. Details of the arrayed sound pickup sensor device according to the present invention will be described later . The shunt sound input means generates test shunt sound waveform data based on the output signals from the microphones of the arrayed sound collection sensor device . The first analysis means and the second analysis means use test shunt sound waveform data created based on the output signals of the microphones for analysis.
第1のシャント狭窄診断支援システムによると,第1の解析手段および第2の解析手段という異なる解析方法の2系統の解析処理を行っているから,狭窄の可能性についての精度の高い検出が可能となる。また第1の解析手段において,多種多様な狭窄音の指標サンプル間での中間的な特徴を持った狭窄音を知ることができるようになる。 According to the first shunt stenosis diagnosis support system , since two systems of analysis processing of different analysis methods of the first analysis means and the second analysis means are performed, it is possible to detect the possibility of stenosis with high accuracy. It becomes. In the first analysis means, it becomes possible to know a stenosis sound having an intermediate characteristic among a variety of stenosis sound index samples.
一実施態様では,第1の解析手段においては,自己組織化マップ(SOM:Self-Organizing Maps)を用い,結果として得られるSOM(これを特徴マップと呼ぶ)上で視覚的に診断することが可能である。SOMは教師なし競合近傍学習によって,類似した特徴のデータを近傍に集めた特徴マップを出力するニューラルネットワークであり,多数の臨床サンプルを診断の指標サンプルとし,被験サンプルを含めてSOMにより学習させる,または指標サンプルのみを学習させたのちに被験サンプルを入力する。結果として得られる特徴マップでは,被験サンプルがどのような指標サンプルに類似するのかを視覚的に判断できる。ゆえに,個人差や狭窄の形状,程度に由来する多様なシャント音に対応することが期待できる支援システムが実現する。もちろん,支援システムに判断を行なわせるようにしてもよい。 In one embodiment, the first analysis means may use a self-organizing map (SOM) and make a visual diagnosis on the resulting SOM (referred to as a feature map). Is possible. The SOM is a neural network that outputs a feature map in which similar feature data are collected in the vicinity by unsupervised competitive neighborhood learning. A large number of clinical samples are used as diagnostic index samples, and learning is performed by the SOM including the test samples. Alternatively, the test sample is input after learning only the index sample. The resulting feature map can visually determine what index sample the test sample is similar to. Therefore, a support system that can be expected to cope with various shunt sounds derived from individual differences and the shape and degree of stenosis is realized. Of course, the support system may make a decision.
SOMへと入力する特徴ベクトルはSOMにとって正常,狭窄の特徴が捉えやすいようにシャント音から解析された信号であり,一実施態様では,時間−周波数解析結果であるSTMEM法(Short-time Maximum Entropy Method )を用いる。シャント音の解析には時間−周波数解析を行うことが経験的,実験的に示されているが,ウェーブレット変換では正常,狭窄による違い以外の情報量が多く,望ましくないことが確認されている。一方,STMEM法は短時間ごとのスペクトル包絡が得られる。その最適なスペクトル包絡を得るための次数は多くのシャント音を解析することによって正常,狭窄の情報が失われず,かつ過多な情報が入り込まない条件とすることができる。 The feature vector input to the SOM is a signal analyzed from a shunt sound so that the normal and narrow features of the SOM can be easily grasped. In one embodiment, the STMEM method (Short-time Maximum Entropy) which is a time-frequency analysis result is used. Method). Time-frequency analysis has been empirically and experimentally shown for shunt sound analysis, but it has been confirmed that the wavelet transform is undesirable because of the large amount of information other than differences due to normality and stenosis. On the other hand, the STMEM method can obtain a spectral envelope every short time. The order for obtaining the optimum spectral envelope can be made a condition in which normal and stenotic information is not lost and excessive information does not enter by analyzing many shunt sounds.
第2の解析手段の好ましい実施態様としては,シャント音の特徴と同様に,周波数スペクトルと音圧の時間変化が重要な特徴である音声の認識技術として用いられる,メルケプストラム法(MFCC:Mel Frequency Cepstrum Coefficient)と隠れマルコフモデル(HMM:Hidden Markov Model )による機械学習を利用することができる。実験的検討の結果,SOMによる診断とHMMによる診断を併用することで狭窄検出の向上を図ることに有効であることが示されている。すなわち,SOMによる狭窄診断支援の性能に関して別のアプローチを通すことで,その評価を行うことができると共に,精度を向上させることができる。 As a preferred embodiment of the second analysis means, a mel cepstrum method (MFCC: Mel Frequency) used as a speech recognition technique in which the time change of the frequency spectrum and the sound pressure is an important feature as well as the feature of the shunt sound. Machine learning using Cepstrum Coefficient (Hidden Markov Model) and Hidden Markov Model (HMM) can be used. As a result of the experimental examination, it is shown that it is effective to improve the detection of stenosis by using both the diagnosis by SOM and the diagnosis by HMM. In other words, through another approach regarding the performance of SOM stenosis diagnosis support, the evaluation can be performed and the accuracy can be improved.
上記支援システムにおいて,好ましくは,上記第1の解析手段が逐次細分化自己組織化マップを作成する手段(詳しくは後述する)を含む。 Oite above support system preferably includes means for the first analysis unit to create a sequential subdivision self-organizing map (the details will be described later).
第2のシャント狭窄診断支援システムは逐次細分化自己組織化マップ作成処理を用いることを特徴としている。すなわち,第2のシャント狭窄診断支援システムは,被験者から採音したシャント音の少なくとも1拍動分の被験シャント音波形データを生成するシャント音入力手段,上記シャント音入力手段で生成された被験サンプルのシャント音波形データと評価指標となる複数種類の指標サンプルのシャント音波形データの時間周波数特性のうちの少なくとも指標サンプルの時間周波数特性を用いて逐次細分化自己組織化マップ作成処理により自己組織化マップを作成し,この作成された自己組織化マップ上における指標サンプルの位置に対する被験サンプルの位置を解析する解析手段,および上記解析手段による解析結果を出力する出力手段を備えるものである。 The second sheet Yanto stenosis diagnosis support system is characterized by using a sequential subdivision self-organizing map creating process. That is, the second sheet Yanto stenosis diagnosis support system, generated by the shunt sound input means, the shunt sound input means for generating at least pulsation component of the test shunt sound waveform data of a shunt sound and voice pickup from the subject test Self-organization by sequential subdivision self-organizing map creation processing using at least the time-frequency characteristics of the index sample among the shunt sound waveform data of the sample and the time-frequency characteristics of the shunt sound waveform data of multiple types of index samples as evaluation indices An analysis means for creating an integrated map and analyzing the position of the test sample with respect to the position of the index sample on the created self-organizing map, and an output means for outputting an analysis result by the analysis means.
一実施態様では,上記解析手段は,指標サンプルのデータを学習データとして学習データから階層化した範疇データを作成する手段を有し,この作成手段が,最初の階層を作成する段階で,学習データを類型化する複数の代表データの作成,および学習データを当該代表データへ帰属させる処理を行い,次の階層以降を作成する段階で,前階層の各代表データに帰属する学習データを類型化する新代表データの作成,前階層の各代表データに帰属する学習データを当該の新代表データへ帰属させる処理,および前階層の各代表データからどの新代表データが作成されたかを示す帰属情報を作成する処理を指定された上限回数まで逐次的に繰り返すものである。 In one embodiment, the analyzing means includes means for creating category data in which the index sample data is hierarchized from the learning data as learning data, and the creating means creates learning data at the stage of creating the first hierarchy. Create multiple representative data to classify and assign the learning data to the representative data, and classify the learning data belonging to each representative data in the previous hierarchy at the stage of creating the next and subsequent layers Creation of new representative data, processing to assign learning data belonging to each representative data of the previous hierarchy to the new representative data, and creation of attribution information indicating which new representative data was created from each representative data of the previous hierarchy The processing to be performed is sequentially repeated up to the designated upper limit number of times.
逐次細分化自己組織化マップ作成方法は,マップを次第に細分化しつつ主成分分析を実施することで,初期配置の大域的な構造を保ちつつ高速にマップを作成できる方法である。この方法は,主成分分析で初期値を作成する方法であるから,学習データの大域的な配置換えは,境界細分点を含むセルに属するデータのみである。したがって,主成分分析で得られた初期配置の大域的な構造を保ちつつマップを作成することができる。さらに,同じ学習データを用いてマップを再度作成すると,わずかに1%程度の点が隣接するセルに移動するだけであり,局所的な再現性も高い。 The sequential subdivision self-organizing map creation method is a method that can create a map at high speed while maintaining the global structure of the initial arrangement by performing principal component analysis while gradually subdividing the map. Since this method is a method of creating initial values by principal component analysis, the global rearrangement of learning data is only data belonging to cells including boundary subdivision points. Therefore, a map can be created while maintaining the global structure of the initial arrangement obtained by principal component analysis. Furthermore, when a map is created again using the same learning data, only about 1% of points move to adjacent cells, and local reproducibility is also high.
第2の支援システムにおいても,被験者の採音により得られる音信号の複数拍動分の被験シャント音波形データを作成することが好ましい。 Also in the second support system , it is preferable to create test shunt sound waveform data for a plurality of beats of a sound signal obtained by the subject's sound collection.
上記解析手段における指標サンプルには正常音のサンプルと狭窄音のサンプルが含まれるこが好ましく,さらに狭窄音のサンプルには複数種類の(多種多様な)異なる狭窄音のサンプルが含まれることが好ましい。正常音,狭窄音の区別,狭窄音の種類は熟達した専門家の判断に依る。各サンプルとも複数人数分あることが好ましく,また一人から得られる音信号から複数拍動分のシャント音サンプル波形データを作成することが好ましい。 The index sample in the analyzing means preferably includes a normal sound sample and a stenosis sample, and the stenosis sample preferably includes a plurality of (various) different stenosis samples. . The distinction between normal and stenotic sounds and the type of stenotic sound depends on the judgment of an expert. Each sample is preferably for a plurality of persons, and it is preferable to create shunt sound sample waveform data for a plurality of beats from a sound signal obtained from one person.
上記解析手段は,被験サンプルのデータと指標サンプルのデータとを混ぜて自己組織化マップを作成するものであってもよいし,指標サンプルのデータにより作成された自己組織化マップ上に被験サンプルのデータによるマップを重ねるものであってもよい。 The analysis means may be a method for creating a self-organizing map by mixing test sample data and index sample data, or on the self-organizing map created by the index sample data. You may superimpose the map by data.
好ましくは,上記解析手段による解析結果に基づいてシャント狭窄の可能性についての判定を行う判定手段をさらに備える。 Preferably, the information processing apparatus further includes a determination unit that determines the possibility of shunt stenosis based on the analysis result of the analysis unit.
解析結果の出力手段は表示装置,プリンタ,他の装置(サーバなど)に解析結果を送信する通信装置などである。出力手段に出力された解析手段による解析結果に基づいて人がシャント狭窄の有無や程度を判断してもよい。 The analysis result output means includes a display device, a printer, and a communication device that transmits the analysis result to another device (such as a server). A person may determine the presence or absence and the degree of shunt stenosis based on the analysis result by the analysis means output to the output means.
シャント音の採音手段として,この発明によるアレイ状採音センサ装置を用いることができる。上記シャント音入力手段はこのアレイ状採音センサ装置の各マイクロホンからの出力信号のそれぞれに基づいて被験シャント音波形データを生成する。上記解析手段は,上記各マイクロホンのそれぞれの出力信号に基づいて作成された被験シャント音波形データを解析に用いる。 As a shunt sound collection means, the arrayed sound collection sensor device according to the present invention can be used . The upper SL shunt sound input means for generating a test shunt sound waveform data based on the output signals from each microphone of the array voice pickup sensor device. The analysis means uses test shunt sound waveform data created based on the output signals of the microphones for analysis.
この発明によるアレイ状採音センサ装置は,シート状軟質支持体に複数の空洞があけられ,これらの空間のそれぞれの底部にマイクロホンが設けられているものである。 In the arrayed sound collection sensor device according to the present invention , a plurality of cavities are formed in a sheet-like soft support, and a microphone is provided at the bottom of each of these spaces.
好ましい実施態様では,上記空洞が複数列,複数行にわたって形成されているものであるが,縦,横方向に規則正しく配置する必要はなく,各列が同じ長さにわたっている必要もない。結果的にランダムにみえるような配置でもよい。また,マイクロホンの数は多い方がよいが,最低限2個のマイクロホン(空洞)があればよい。マイクロホンの上記のような数,配置を総称してアレイ状と呼ぶ。 In a preferred embodiment, the cavities are formed in a plurality of columns and a plurality of rows. However, the cavities need not be regularly arranged in the vertical and horizontal directions, and each column does not have to have the same length. As a result, an arrangement that looks random may be used. The number of microphones should be large, but at least two microphones (cavities) are sufficient. The above number and arrangement of microphones are collectively referred to as an array.
このアレイ状採音センサ装置は,シート状軟質支持体を,その空洞の開口が被験者の前腕の皮膚と対向するように向けて,被験者の前腕のシャントが形成されている部分およびその前後,左右付近の皮膚を覆うように配置し,何らかの手段で固定する。たとえば,面ファスナーが設けられたゴム製または布製の押えバンド(保持帯)を支持体の上から被験者の腕に巻き,面ファスナーで固定するとよい。支持体にこのようなゴムバンドまたは布バンドを固定しておいてもよい。 In this array-type sound pickup sensor device, the sheet-like soft support is directed so that the cavity opening faces the skin of the subject's forearm, and the forearm shunt portion of the subject and its front, rear, left and right Place it so that it covers the nearby skin, and fix it by some means. For example, a rubber or cloth presser band (holding band) provided with a hook-and-loop fastener may be wound on the subject's arm from above the support and fixed with the hook-and-loop fastener. Such a rubber band or cloth band may be fixed to the support.
アレイ状採音センサ装置には,複数のマイクロホンが設けられており,いずれか少なくとも一つのマイクロホンから被験者のシャントの狭窄状態を適切に表わす音信号を採取することが期待できるので,熟練者による事前の聴診を必ずしも行なわなくても被験者に装着して容易に採音することができる。また,シート状軟質支持体を用いているから,被験者の前腕における血管の走行等による皮膚の凹凸に応じて変形し血流を妨げずに密着させることができる。すなわち,被験者の血管の圧迫を最小限に抑えることができる。軟質支持体の密着によりマイクロホンが配置された空洞内の空間が隙間なくシールされ,音信号の高いS/N比が得られる。多数のマイクロホンが二次元的に配置されていれば,広い範囲にわたって多くの狭窄箇所を調べることができるし,シャント音の波及,静脈の走行等の調査も可能となる。上記のような押えバンドを用いれば,マイクロホンが採音中に外れてしまうこともない。 The arrayed sound collection sensor device is provided with a plurality of microphones, and it can be expected that a sound signal that appropriately represents the constriction state of the subject's shunt is collected from any one of the microphones. Even if it does not necessarily perform auscultation, it can be easily put on the subject and sampled. In addition, since the sheet-like soft support is used, it can be deformed according to the unevenness of the skin due to the running of blood vessels in the forearm of the subject and can be brought into close contact without disturbing the blood flow. That is, it is possible to minimize the pressure on the blood vessels of the subject. The space in the cavity where the microphone is arranged is sealed without gaps by the close contact of the soft support, and a high S / N ratio of the sound signal is obtained. If a large number of microphones are arranged two-dimensionally, it is possible to examine many stenosis locations over a wide range, and to investigate the spread of shunt sounds, the running of veins, and the like. If the presser band as described above is used, the microphone does not come off during sound collection.
上記の逐次細分化自己組織化マップ作成処理を実行するプログラムは,コンピュータに,複数の学習データを引き渡し,当該学習データから階層化した範疇データを作成させるプログラムであって,前記の階層化した範疇データを得る手順が,最初の階層を作成する段階で,学習データを類型化する複数の代表データの作成,および学習データを当該代表データへ帰属させる処理を行うこと,ならびに次の階層以降を作成する段階で,前階層の各代表データに帰属する学習データを類型化する新代表データの作成,前階層の各代表データに帰属する学習データを当該の新代表データへ帰属させる処理,および前階層の各代表データからどの新代表データが作成されたかを示す帰属情報を作成する処理を指定された上限回数まで逐次的に繰り返すことを特徴とし,出力される範疇データが代表データとこれに帰属する学習データと次の階層の代表データを含んでいることを特徴とするものである。 The program for executing the above-described sequential subdivision self-organizing map creation process is a program for delivering a plurality of learning data to a computer and creating category data hierarchized from the learning data. In the step of obtaining data, at the stage of creating the first hierarchy, creating multiple representative data that classifies the learning data, assigning the learning data to the representative data, and creating the next and subsequent hierarchies In this stage, the creation of new representative data that classifies the learning data belonging to each representative data of the previous hierarchy, the process of assigning the learning data belonging to each representative data of the previous hierarchy to the new representative data, and the previous hierarchy The process of creating attribution information indicating which new representative data has been created from each representative data of is repeated sequentially up to the specified maximum number of times. It is characterized by, category data output is characterized in that it contains representative data of the learning data and the next hierarchy belonging to the representative data.
一実施態様では,コンピュータに,入力データを引き渡し,当該入力データが上記プログラムで得られる範疇データのいずれに帰属するかを判定させるプログラムであって,当該プログラムが,学習データを上記のプログラムに引渡し範疇データを作成する手続き,入力データがどの範疇に帰属するかを判定する手続き,および当該判定結果を表示部へ伝達する手続きを有することを特徴とする。 In one embodiment, a program for handing over input data to the computer and determining to which category data the input data belongs is determined by the program, the program handing over the learning data to the program. It is characterized by having a procedure for creating category data, a procedure for judging to which category the input data belongs, and a procedure for transmitting the judgment result to the display unit.
他の実施態様では,コンピュータに,入力データと参照データ群を引き渡すことで動作させるプログラムであって,入力データと参照データを統合して学習データを作成する手続き,学習データを上記プログラムに引渡し範疇データを作成する手続き,および入力データがどの範疇に帰属するかを判定結果として表示部へ伝達する手続きを有することを特徴とする。 In another embodiment, the program is operated by passing the input data and the reference data group to the computer, the procedure for creating the learning data by integrating the input data and the reference data, and the passing of the learning data to the program It is characterized by having a procedure for creating data and a procedure for transmitting to the display section as a judgment result which category the input data belongs to.
逐次細分化自己組織化マップ作製方法は,複数の学習データをコンピュータに引き渡し,当該学習データから階層化した範疇データを作成させる方法であって,前記の階層化した範疇データを得る手順が,最初の階層を作成する段階で,学習データを類型化する複数の代表データの作成,および学習データを当該代表データへ帰属させる処理を行うこと,次の階層以降を作成する段階で,前階層の各代表データに帰属する学習データを類型化する新代表データの作成,前階層の各代表データに帰属する学習データを当該の新代表データへ帰属させる処理,および前階層の各代表データからどの新代表データが作成されたかを示す帰属情報を作成する処理を特徴とし,出力される範疇データが,代表データとこれに帰属する学習データと次の階層の代表データを含んでいることを特徴とするものである。 Exiled following subdivision SOM manufacturing method, passing a plurality of learning data to the computer, a method for creating a category data layered from the learning data, the procedure to obtain the category data hierarchy of the can, At the stage of creating the first hierarchy, creating multiple representative data that classifies the learning data, and assigning the learning data to the representative data, and at the stage of creating the next hierarchy, Create new representative data that categorizes the learning data belonging to each representative data, process to assign the learning data belonging to each representative data in the previous hierarchy to the new representative data, and which new data from each representative data in the previous hierarchy It is characterized by the process of creating attribution information that indicates whether representative data has been created. The category data that is output includes the representative data, the learning data belonging to it, and the next level. And it is characterized in that it contains representative data.
逐次細分化自己組織化マップ作成装置は,所与の学習データから階層化した範疇データを作成する装置であって,前記の階層化した範疇データを得る手段が,最初の階層を作成する段階で,学習データを類型化する複数の代表データの作成,および学習データを当該代表データへ帰属させる処理を行い,次の階層以降を作成する段階で,前階層の各代表データに帰属する学習データを類型化する新代表データの作成,前階層の各代表データに帰属する学習データを当該の新代表データへ帰属させる処理,および前階層の各代表データからどの新代表データが作成されたかを示す帰属情報を作成する処理を指定された上限回数まで逐次的に繰り返すことを特徴とし,出力される範疇データが代表データとこれに帰属する学習データと次の階層の代表データを含んでいることを特徴とするものである。 Exiled following subdivision SOM generating apparatus is an apparatus for creating a category data hierarchized from a given training data, it means for obtaining a category data hierarchy of the can, creating a first level stage In the step of creating a plurality of representative data that classifies the learning data and assigning the learning data to the representative data, the learning data belonging to each representative data of the previous hierarchy at the stage of creating the next and subsequent layers Create new representative data to classify the data, process to assign the learning data belonging to each representative data in the previous hierarchy to the new representative data, and which new representative data was created from each representative data in the previous hierarchy The process of creating attribution information is iteratively repeated up to the specified maximum number of times, and the category data to be output is representative data, the learning data belonging to it, That it contains a table data is characterized in.
逐次細分化自己組織化マップ作成プログラム,方法または装置によると,処理時間の増加という問題を解決するために,組み分ける範疇の数を次第に増加させるとともに範疇に帰属するデータ数を次第に少なくする,逐次的な処理を実現することで処理時間の短縮が可能となる。 According to the sequential subdivision self-organizing map creation program, method or apparatus , in order to solve the problem of increase in processing time, the number of categories to be grouped is gradually increased and the number of data belonging to the categories is gradually decreased. Processing time can be shortened by realizing a typical process.
1 シャント狭窄診断支援システムの全体構成
図1はシャント狭窄診断支援システムの全体構成を示すものである。
1 Overall Configuration of Shunt Stenosis Diagnosis Support System FIG. 1 shows the overall configuration of a shunt stenosis diagnosis support system.
センサ部1は被験者からシャント音を採音するものであり,後述するように複数のマイクロホンを含み,音信号を電気信号に変換する。マイクロホンから出力される電気信号は増幅器2で増幅される。増幅器2は複数のマイクロホンのそれぞれについて設けられる。これらのセンサ部1と増幅器2の具体的構成については後に詳述する。 The sensor unit 1 collects a shunt sound from a subject and includes a plurality of microphones as will be described later, and converts the sound signal into an electrical signal. The electric signal output from the microphone is amplified by the amplifier 2. The amplifier 2 is provided for each of the plurality of microphones. Specific configurations of the sensor unit 1 and the amplifier 2 will be described in detail later.
採音された被験シャント音を表わす電気信号は次にA/D変換器3においてディジタル信号に変換される。マイクロホンごとに1チャンネルが割当てられる。A/D変換器3は全チャンネルの被験シャント音信号をディジタル信号に符号化し,シリアル信号として信号処理装置4に入力する。A/D変換器3は操作部11からのトリガ信号に応答して被験シャント音の採取(A/D変換)を開始する。 The electrical signal representing the sampled shunt sound sampled is then converted into a digital signal by the A / D converter 3. One channel is assigned to each microphone. The A / D converter 3 encodes the test shunt sound signal of all channels into a digital signal and inputs it to the signal processing device 4 as a serial signal. The A / D converter 3 starts sampling of the test shunt sound (A / D conversion) in response to the trigger signal from the operation unit 11.
信号処理装置4は具体的にはコンピュータ(コンピュータ・システム)により実現される。信号処理装置4には,被験者データ記憶部7,参照データ群記憶部8および演算処理部10が含まれ,後述するフローチャート(図5,図10〜図16)に示される処理を実行するプログラムが格納されている。演算処理部10を大きく機能的に分けると,特徴抽出部5と解析判定部6が含まれる。演算処理部10は異なる手法に従う2種類の特徴抽出/解析処理を行う。第1の特徴抽出/解析処理は,シャント音の短時間最大エントロピー法(STMEM:Short Time Maximum Entropy Method )結果を特徴ベクトルとし,自己組織化マップ(SOM:Self-Organizing Maps)により学習させ,結果として得られるSOM(これを特徴マップと呼ぶ)により判定または診断するものである。第2の特徴抽出/解析処理は,周波数スペクトルと音圧の時間変化が重要な特徴である音声の認識技術として用いられる,メルケプストラム法(MFCC:Hel Frequency Cepstrum Coefficient)と隠れマルコフモデル(HMM:Hidden Markov Model )による機械学習を利用して判定または診断を行うものである。STMEM法またはMFCC法による時間周波数特徴抽出を特徴抽出部5が,SOM法またはHMM法による解析を解析判定部6がそれぞれ実行する。SOM法では逐次細分化SOM法を用いる。これらの特徴抽出,解析判定の詳細については後述する。解析判定部6における判定または診断には,後述するように人による診断のための解析結果の表示と,自動判定とがある。上記第1,第2の解析判定結果に基づく総合的な判定または診断も可能である。判定または診断によって,正常,狭窄,個人の特徴,狭窄の程度等が明らかになる。 Specifically, the signal processing device 4 is realized by a computer (computer system). The signal processing device 4 includes a subject data storage unit 7, a reference data group storage unit 8, and an arithmetic processing unit 10, and a program for executing processing shown in flowcharts (FIGS. 5 and 10 to 16) described later. Stored. If the arithmetic processing unit 10 is largely functionally divided, a feature extraction unit 5 and an analysis determination unit 6 are included. The arithmetic processing unit 10 performs two types of feature extraction / analysis processing according to different methods. The first feature extraction / analysis process uses a short-time maximum entropy method (STMEM) result of the shunt sound as a feature vector, and learns by using a self-organizing map (SOM). Is determined or diagnosed by the SOM obtained as follows (referred to as a feature map). In the second feature extraction / analysis process, a mel cepstrum method (MFCC) and a hidden Markov model (HMM), which are used as a speech recognition technique in which the time change of the frequency spectrum and the sound pressure is an important feature, are used. Judgment or diagnosis is performed using machine learning by Hidden Markov Model). The feature extraction unit 5 executes time-frequency feature extraction by the STMEM method or the MFCC method, and the analysis determination unit 6 executes analysis by the SOM method or the HMM method. In the SOM method, the sequential subdivided SOM method is used. Details of the feature extraction and analysis determination will be described later. The determination or diagnosis in the analysis determination unit 6 includes display of an analysis result for diagnosis by a person and automatic determination as described later. Comprehensive determination or diagnosis based on the first and second analysis determination results is also possible. Judgment or diagnosis reveals normality, stenosis, individual characteristics, degree of stenosis, and the like.
A/D変換器3から出力されるシャント音のディジタル信号は被験者データ記憶部7に記憶される。また,そのデータは参照データ群記憶部8内の参照データ群に組み込むこともできる。これらのデータとともに被験者情報(氏名等)を記憶することにより,被験者の履歴として残すことができ,被験者個人の特徴を組み込んだ判定をすることも可能とする。 The digital signal of the shunt sound output from the A / D converter 3 is stored in the subject data storage unit 7. The data can also be incorporated into a reference data group in the reference data group storage unit 8. By storing the subject information (name, etc.) together with these data, it can be left as a history of the subject, and it is also possible to make a judgment incorporating the characteristics of the individual subject.
参照データ群とは,解析判定部6における判定アルゴリズムにおいて被験シャント音を判定する際に指標となるデータ群である。記憶部8には詳しく調べられた各種の特徴(正常,狭窄,狭窄タイプ,狭窄の程度)に応じてラベル付されたシャント音のディジタルデータが記憶されている。被験シャント音と同様に特徴ベクトル化され,判定アルゴリズムに用いられる。高速化のために予め特徴ベクトル化されたデータとして用意することも可能である。また,この参照データ群は記憶された被験シャント音に各種の特徴をラベル付けし,組み込むことで増加させることもできる。また,被験者個人の情報をラベル付けすることで,被験者個人の特徴を組み込んだ判定をすることも可能となる。また,参照データ群はネットワーク群等を介し,他機器間で共有することも可能である。 The reference data group is a data group that serves as an index when determining the test shunt sound in the determination algorithm in the analysis determination unit 6. The storage unit 8 stores digital data of shunt sounds labeled according to various characteristics (normal, stenosis, stenosis type, degree of stenosis) examined in detail. Like the test shunt sound, it is converted into a feature vector and used in the decision algorithm. It is also possible to prepare it as feature vectorized data for speeding up. This reference data group can also be increased by labeling and incorporating various features into the stored test shunt sound. In addition, by labeling the information of the individual subject, it is also possible to make a determination incorporating the characteristics of the individual subject. Also, the reference data group can be shared between other devices via a network group or the like.
解析判定部6によって判定された結果は表示部9に表示される。表示としては,ディスプレイまたは紙による表示が可能である。判定結果と同時に,被験シャント音波形,周波数解析結果,時間周波数結果,過去の診断データを表示することも可能である。また,これらの表示はネットワーク群等を介し,遠隔による観測も可能である。出力装置としては表示部9以外に,プリンタ,他の装置に送信する送信装置等も含まれる。 The result determined by the analysis determination unit 6 is displayed on the display unit 9. The display can be a display or paper. Simultaneously with the determination result, the test shunt sound waveform, frequency analysis result, time frequency result, and past diagnosis data can be displayed. These displays can also be observed remotely via a network group. In addition to the display unit 9, the output device includes a printer, a transmission device that transmits to other devices, and the like.
操作部11は各種設定(個人情報入力,判定条件の設定,表示条件の設定),および診断の開始命令を入力する部分である。入力はボタンまたはタッチパネルディスプレイによる。各種設定の命令は信号処理装置4に渡される。また,開始命令はA/D変換器3に渡され,被験シャント音の採取開始がされ,また信号処理装置4に渡され,信号処理が開始される。 The operation unit 11 is a part for inputting various settings (personal information input, determination condition setting, display condition setting), and a diagnosis start command. Input is via a button or touch panel display. Various setting commands are passed to the signal processing device 4. The start command is passed to the A / D converter 3 to start collecting the test shunt sound, and is passed to the signal processing device 4 to start signal processing.
2 アレイ状採音センサ装置
上述したセンサ部1と増幅器2の具体例が図2から図4に示されている。
2 Arrayed Sound Collection Sensor Device Specific examples of the sensor unit 1 and the amplifier 2 described above are shown in FIGS.
このアレイ状採音センサ装置20は,図2,図3に示すように,シート状軟質支持体21を有し,この支持体21の一面に複数の空洞(穴)22が形成されている。空洞22は内底面を有し,この内底面に小さなマイクロホン(たとえばシリコンマイク)23が固定されている。後述するように,空洞22の開口がわが被験者の前腕27に接するように支持体21が配置される。このとき,マイクロホン23と被験者の前腕の皮膚との間に空洞22内で空間が保たれるように空洞の深さが決められる。空洞22の形状は円筒状でも角筒状でもよい。マイクロホン23は空洞22の内底面に接し(接しなくてもよい),空洞の内側(周)面には接しない程度に空洞22の大きさに比べて小さいものが好ましい。 As shown in FIGS. 2 and 3, the arrayed sound collection sensor device 20 has a sheet-like soft support 21, and a plurality of cavities (holes) 22 are formed on one surface of the support 21. The cavity 22 has an inner bottom surface, and a small microphone (for example, a silicon microphone) 23 is fixed to the inner bottom surface. As will be described later, the support 21 is disposed so that the opening of the cavity 22 is in contact with the forearm 27 of the subject. At this time, the depth of the cavity is determined so that a space is maintained in the cavity 22 between the microphone 23 and the skin of the forearm of the subject. The shape of the cavity 22 may be cylindrical or rectangular. The microphone 23 is preferably smaller than the size of the cavity 22 so as to be in contact with the inner bottom surface of the cavity 22 (not necessarily in contact) and not in contact with the inner (circumferential) surface of the cavity.
一例としては軟質樹脂(たとえば粘着性が高い軟質ウレタン造形用樹脂)21aに空洞22となる穴をその厚さ方向に貫通して形成し,軟質樹脂21aの一面にゴムシート(ゴム板)を接着して空洞22の一方の開口を塞ぎ,内底面を形成する。 As an example, a hole that becomes a cavity 22 is formed in a soft resin (for example, a soft urethane molding resin with high adhesiveness) through the thickness direction, and a rubber sheet (rubber plate) is bonded to one surface of the soft resin 21a. Thus, one opening of the cavity 22 is closed to form the inner bottom surface.
支持体21(ゴムシート21b)の空洞22とは反対側の面に各マイクロホン23に対応する位置に増幅回路IC24が固定され,対応するマイクロホン23と電気的に接続される。IC24の出力側が上記のA/D変換器3に接続される(いずれも,電気的接続用のワイヤ,コード等は図示略)。 An amplifier circuit IC24 is fixed to a position corresponding to each microphone 23 on the surface opposite to the cavity 22 of the support 21 (rubber sheet 21b), and is electrically connected to the corresponding microphone 23. The output side of the IC 24 is connected to the A / D converter 3 (both wires and cords for electrical connection are not shown).
このようなアレイ状採音センサ装置20は,図4に示すように,シート状軟質支持体21を,その空洞22の開口が被験者の前腕の皮膚と対向するように向けて,被験者の前腕のシャントが形成されている部分およびその前後,左右付近の皮膚を覆うように配置し,何らかの手段で固定する。たとえば,面ファスナー26a,26bが設けられたゴム製または布製の押えバンド(保持帯)25を支持体21の上から被験者の腕に巻き,面ファスナー26a,26bで固定するとよい。 As shown in FIG. 4, such an array-like sound collection sensor device 20 has a sheet-like soft support 21 facing the skin of the subject's forearm so that the opening of the cavity 22 faces the subject's forearm. Place the shunt on the front, back, front and back of the skin, and fix it by some means. For example, a rubber or cloth presser band (holding band) 25 provided with hook-and-loop fasteners 26a and 26b may be wound on the subject's arm from above the support 21 and fixed with the hook-and-loop fasteners 26a and 26b.
シート状軟質支持体21には,好ましくは,図示のように,複数列,複数行にわたって空洞22およびマイクロホン23が配置される。支持体21の大きさは,被験者の前腕の手首から肘までの半分ないし全部を覆い,前腕の周方向には半分から2/3程度を覆うくらいがよい。マイクロホン(空洞)の数は多い方が好ましい。マイクロホン(空洞)を図示のように,縦,横方向に規則正しく配置する必要はなく,各列が同じ長さにわたっている必要もない。結果的にランダムにみえるような配置でもよい。また,最低限2個のマイクロホン(空洞)があればよい。マイクロホンの上記のような数,配置を総称してこの明細書ではアレイ状と呼ぶ。 In the sheet-like soft support 21, cavities 22 and microphones 23 are preferably arranged in a plurality of columns and a plurality of rows as shown in the figure. The size of the support body 21 should cover half or all of the subject's forearm from the wrist to the elbow, and should cover about half to 2/3 in the circumferential direction of the forearm. A larger number of microphones (cavities) is preferable. As shown in the figure, the microphones (cavities) do not need to be regularly arranged in the vertical and horizontal directions, and each row does not need to have the same length. As a result, an arrangement that looks random may be used. Further, it is sufficient that there are at least two microphones (cavities). The number and arrangement of microphones as described above are collectively referred to as an array in this specification.
このように,アレイ状採音センサには,複数のマイクロホンが設けられており,いずれか少なくとも一つのマイクロホンから被験者のシャントの狭窄状態を適切に表わす音信号を採取することが期待できるので,熟練者による事前の聴診を必ずしも行なわなくても被験者に装着して容易に採音することができる。また,シート状軟質支持体を用いているから,被験者の前腕における血管の走行等による皮膚の凹凸に応じて変形し血流を妨げずに密着させることができる。すなわち,被験者の血管の圧迫を最小限に抑えることができる。軟質支持体の密着によりマイクロホンが配置された空洞内の空間が隙間なくシールされ,音信号の高いS/N比が得られる。多数のマイクロホンが二次元的に配置されていれば,広い範囲にわたって多くの狭窄箇所を調べることができるし,シャント音の波及,静脈の走行等の調査も可能となる。上述のような押えバンドを用いれば,マイクロホンが採音中に外れてしまうこともない。 As described above, the arrayed sound collection sensor is provided with a plurality of microphones, and it can be expected that a sound signal appropriately representing the constriction state of the subject's shunt is collected from any one of the microphones. Even if a person does not necessarily perform prior auscultation, it can be attached to the subject and easily picked up. In addition, since the sheet-like soft support is used, it can be deformed according to the unevenness of the skin due to the running of blood vessels in the forearm of the subject and can be brought into close contact without disturbing the blood flow. That is, it is possible to minimize the pressure on the blood vessels of the subject. The space in the cavity where the microphone is arranged is sealed without gaps by the close contact of the soft support, and a high S / N ratio of the sound signal is obtained. If a large number of microphones are arranged two-dimensionally, it is possible to examine many stenosis locations over a wide range, and to investigate the spread of shunt sounds, the running of veins, and the like. If the presser band as described above is used, the microphone does not come off during sound collection.
3 全体の処理の流れ
信号処理装置4における全体の処理の流れを図5および図6を参照して説明する。
3 Overall Process Flow The overall process flow in the signal processing device 4 will be described with reference to FIGS. 5 and 6.
上述したように,アレイ状採音センサ装置20のマイクロホン23から増幅器2,A/D変換器3を得てシャント音波形が入力する(S1)。センサ装置20に含まれるマイクロホン23の数と等しい数のシャント音波形が得られる。 As described above, the amplifier 2 and the A / D converter 3 are obtained from the microphones 23 of the arrayed sound collection sensor device 20, and the shunt sound waveform is input (S1). The number of shunt sound waveforms equal to the number of microphones 23 included in the sensor device 20 is obtained.
次に各シャント音の1拍動分の信号波形を抽出する(S2)。シャント音の時系列波形の半波の低周波成分のみを取り出すことでエンベロープを取得し,その極大点と極小点の中間の時刻を拍動の開始点として切り出す。切り出す信号は1拍動分以下,たとえば3/4程度でよい。このような信号波形は1チャンネル(1マイクロホン)当り複数個(たとえば10個)抽出される。 Next, a signal waveform for one beat of each shunt sound is extracted (S2). The envelope is obtained by extracting only the low-frequency component of the half-wave of the time series waveform of the shunt sound, and the time between the maximum and minimum points is extracted as the starting point of pulsation. The signal to be cut out may be equal to or less than one beat, for example, about 3/4. A plurality (for example, 10) of such signal waveforms are extracted per channel (one microphone).
拍動ごとにSTMEMベクトルyp を算出する(S11)(第1の特徴抽出処理)。1拍動当りp個の特徴ベクトルが得られる。 Calculating the STMEM vector y p for each beat (S11) (first feature extraction process). P feature vectors are obtained per beat.
このようにして得られた被験サンプルとあらかじめ用意された指標サンプルを(逐次細分化)SOMに同時に学習させる(S12)(第1の解析判定処理)。指標サンプルの学習結果に被験サンプルを通してもよい。ここで,被験サンプルは1拍動当りp個のSTMEMベクトルである。SOMは類似した特性のデータを近傍に集めたマップを出力するため,診断対象がどの指標サンプルのグループに属すのかを視覚的に判断することができる,または計算により判定結果を得ることができる(S13)。 The test sample thus obtained and the index sample prepared in advance are simultaneously learned by (sequential subdivision) SOM (S12) (first analysis determination process). The test sample may be passed through the learning result of the index sample. Here, the test sample is p STMEM vectors per beat. Since the SOM outputs a map in which data of similar characteristics are collected in the vicinity, it is possible to visually determine to which index sample group the diagnostic object belongs, or to obtain a determination result by calculation ( S13).
他方,拍動ごとにMFCCにより特徴ベクトルを得(S21)(第2の特徴抽出処理),HMMに診断させる(S23)(第2の解析判定処理)。 On the other hand, a feature vector is obtained by MFCC for each beat (S21) (second feature extraction processing), and the HMM is diagnosed (S23) (second analysis determination processing).
両方の判定結果を統合して判定することもできる(S30)。 Both determination results can be integrated and determined (S30).
4 指標サンプル
上述したSOM処理(S12)では指標サンプルが必要である。また,HMM処理(S22)においても,あらかじめモデル学習(教師あり学習)のための指標サンプルが必要である。
4. Index Sample An index sample is required in the SOM process (S12) described above. Also in the HMM process (S22), an index sample for model learning (supervised learning) is required in advance.
シャント音を専門の医師を含めた試聴によって正常音,狭窄音(断続狭窄音および高周波狭窄音)の分類を行い,さらにスペクトログラム及び1拍動分のMEMスペクトル形状によって詳しく調べ,5種類に分類を行った結果を図7aから図7eに示す(これらの図において,PSD=Power Spectrum Density(スペクトル強度), Frequency(周波数),Time(時間), Spectrogram(スペクトログラム)である)。指標サンプルは沢山あることが好ましい。以下に示す5つのタイプのそれぞれについて少なくとも複数人(相当数)から採取したものが用いられる。 Classify normal sounds and stenosis sounds (intermittent stenosis sounds and high-frequency stenosis sounds) by auditioning shunt sounds with specialist doctors, and further investigate the spectrogram and the shape of the MEM spectrum for one beat, and classify them into five types. The results obtained are shown in FIGS. 7a to 7e (in these figures, PSD = Power Spectrum Density (spectrum intensity), Frequency (frequency), Time (time), Spectrogram). It is preferable that there are many index samples. For each of the following five types, those collected from at least a plurality of people (equivalent number) are used.
正常音,高周波狭窄音(3タイプA,B,C),断続狭窄音の5種類の特徴的なMEMスペクトル形状とスペクトログラムの特徴は次の通りである。 Five characteristic MEM spectrum shapes and spectrogram characteristics of normal sound, high-frequency stenosis sound (3 types A, B, and C), and intermittent stenosis sound are as follows.
(a) 高周波狭窄音A(high-pitch A):500Hz以上のスペクトル成分が正常音ほど減衰せず,なだらかな傾斜を持った周波数成分が存在。
(b) 高周波狭窄音B(high-pitch B):スペクトルに局所的にピークが確認される。スペクトログラムでは時間軸方向に続く縞が現れる。笛音のような音が顕著に聴取される。
(c) 高周波狭窄音C(high-pitch C):正常音とは明らかに異なると判断のつくスペクトル形状であり,高周波狭窄音A,Bいずれとも異なるもので,便宜的にCとした。
(d) 断続狭窄音(intermittent):拍動の後,音圧が著しく減衰し,連続的な血流音として聴取できない。
(e) 正常音(normal):500Hz以下の低い帯域に周波数成分が集中し,周波数が上がるに従って,なだらかに減衰していく。スペクトログラムでは,低周波成分が途切れない。
(a) High-frequency constriction sound A (high-pitch A): A spectral component of 500 Hz or higher is not attenuated as much as normal sound, and there is a frequency component with a gentle slope.
(b) High-frequency stenosis sound B (high-pitch B): A peak is locally confirmed in the spectrum. In the spectrogram, stripes appearing in the time axis direction appear. A sound like a whistle is heard.
(c) High-frequency stenosis sound C (high-pitch C): A spectrum shape that can be judged to be clearly different from the normal sound, which is different from both the high-frequency stenosis sounds A and B, and is designated C for convenience.
(d) Intermittent: After pulsation, the sound pressure is significantly attenuated and cannot be heard as a continuous blood flow sound.
(e) Normal sound (normal): Frequency components concentrate in a low band of 500 Hz or less, and gradually attenuate as the frequency increases. In the spectrogram, the low frequency components are not interrupted.
5 処理の詳細と特徴
(1) 拍動抽出
上述したように,シャント音の半端整流をローパスフィルタにかけることによって包絡を得て,包絡線の極大点と極小点の中間の時刻を拍動の開始点としている。
5 Processing details and features
(1) Extraction of pulsation As described above, an envelope is obtained by applying half-end rectification of the shunt sound to a low-pass filter, and the time between the maximum and minimum points of the envelope is set as the start point of the pulsation.
(2) STMEM法
STMEM法によって,1拍動抽出した後,短時間ごとのスペクトル包絡を求めることで,判定処理部(SOM)の判定の得やすい特徴ベクトルを得ることができる。すなわち,正常・狭窄を得る上で余剰となる情報を可能な限り省いた特徴ベクトルを得る。
(2) STMEM method After extracting one beat by the STMEM method, a feature vector that can be easily determined by the determination processing unit (SOM) can be obtained by obtaining a spectral envelope every short time. That is, a feature vector is obtained in which information that is redundant in obtaining normal / stenosis is omitted as much as possible.
(3) SOM
SOMは教師なし学習であり,多くの被験サンプルから包括的に特徴を探索する手法であり,類似した音響特徴を持ったデータは近傍に集まった形で可視化される。すなわち,指標とするシャント音にどれだけ類似しているのかを判断することができる。これにより,個人のキャリブレーションが容易である。この手法によると,シャント音の個人差や狭窄の程度等,多様な種類に対応することができ,医師の判断の支援となる。
(3) SOM
SOM is unsupervised learning, which is a technique for comprehensively searching for features from many test samples, and data having similar acoustic features is visualized in a form gathered in the vicinity. That is, it can be judged how similar to the shunt sound as an index. This facilitates individual calibration. According to this method, it is possible to deal with various types such as individual differences of shunt sounds and the degree of stenosis, and it helps doctor's judgment.
より詳しく述べると,SOMは教師なし競合近傍学習のアルゴリズムを用い,入力層と出力層(競合層)により構成された2層のニューラルネットワークである。出力層は可視化のために通常2次元または3次元に設定され,ノード(セル)が格子状に並べられた配置となる。入力がn次元ベクトルのとき,出力層上の各ノードはそれぞれn次元の参照ベクトルを持つこととなる。入力ベクトルypが与えられると,ypにもっとも類似した,つまりユークリッド距離が最小となる参照ベクトルを持つノードが勝ちノードとなり,yp の出力となる。SOMの学習は参照ベクトルを変更することであり,勝ちノードの参照ベクトルはypへと近づき,近傍のノードの参照ベクトルもまたypへと近づく。このように,高次元の入力ベクトルの集合を学習させることで,類似したサンプル群はマップ上の同一の位置(ノード)または近傍に集まった出力マップが得られる。 More specifically, SOM is a two-layer neural network composed of an input layer and an output layer (competitive layer) using an unsupervised competitive neighborhood learning algorithm. The output layer is usually set in two dimensions or three dimensions for visualization, and the nodes (cells) are arranged in a grid. When the input is an n-dimensional vector, each node on the output layer has an n-dimensional reference vector. Given an input vector y p, the node with the reference vector that is most similar to y p , that is, with the smallest Euclidean distance, becomes the winning node and becomes the output of y p . SOM learning is to change the reference vector, the reference vector of the winning node approached to y p, closer to also y p reference vectors neighboring nodes. Thus, by learning a set of high-dimensional input vectors, an output map is obtained in which similar sample groups are gathered at the same position (node) or neighborhood on the map.
一例としてSOMに入力する特徴ベクトルSTMEMの条件は,1拍動を0.15sを1フレームとして拍動開始点から5フレームに分割し,フレームごとにMEMスペクトルを求めることによって作成される。MEMスペクトルの強度の出力点数は0〜2kHz の周波数帯域で等周波数間隔の 200点とした。ゆえに特徴ベクトルは1000個の要素を持ち,SOMへの入力層ノードは同数の1000個となる。 As an example, the condition of the feature vector STMEM input to the SOM is created by dividing one beat into five frames from the beat starting point with 0.15 s as one frame and obtaining a MEM spectrum for each frame. The number of output points of the intensity of the MEM spectrum was 200 points at equal frequency intervals in the frequency band of 0 to 2 kHz. Therefore, the feature vector has 1000 elements, and the number of input layer nodes to SOM is 1000.
指標サンプルと被験サンプルを混ぜてSOMを学習させる。この際,被験サンプルはP拍動分に対応するP個のベクトルであり,SOMの計算ではそれぞれ独立したデータとして扱われる。指標サンプルについてのみ学習させ,その後被験サンプルを入力してもよい。 Mix index sample and test sample to learn SOM. At this time, the test sample is P vectors corresponding to P beats, and is treated as independent data in the calculation of SOM. Only the index sample may be learned, and then the test sample may be input.
図8aは上述した5種類の指標サンプルを用いて得られたSOMの結果の一例を示している。 FIG. 8a shows an example of SOM results obtained using the five types of index samples described above.
さらに図9は,5種類の指標サンプルに被験者から得られたシャント音(診断シャント音)のサンプルを加えていったSOMの結果を示している。 Further, FIG. 9 shows the result of SOM in which samples of shunt sounds (diagnostic shunt sounds) obtained from a subject are added to five types of index samples.
図8a,図9において(図8b,図8cについても同じ),これらは多数の六角格子マップであり,それぞれ六角形は出力ノードに対応し,入力ベクトル1データ(1拍動)に対して1つのノードが選択されて出力される。入力ベクトルが特徴空間に写像されたものであるため,縦軸及び横軸の概念はなく,近傍の出力ノードには類似した入力ベクトルをもったデータが出力され,離れた出力ノードほど入力ベクトルの類似しないデータが出力される。全ての出力が同時に表示されており,図8aにおいては正常音,高周波狭窄音ABC,断続狭窄音がグレーレベルの違いで示され,図9においてはハッチングの方向やグレー,黒で示されている。また,データが出力されるノードでは,図8aにおいてはその数が丸,三角,四角等の記号の数で表現され,図9においてはハッチングが施された六角形,グレー,黒の六角形の大きさで表現されている。 In FIGS. 8a and 9 (the same applies to FIGS. 8b and 8c), these are a large number of hexagonal lattice maps, each hexagon corresponding to an output node and 1 for input vector 1 data (1 beat). One node is selected and output. Since the input vector is mapped to the feature space, there is no concept of the vertical and horizontal axes, data with a similar input vector is output to nearby output nodes, and the more distant output nodes the input vector Dissimilar data is output. All outputs are displayed at the same time. In FIG. 8a, normal sound, high-frequency stenosis sound ABC, and intermittent stenosis sound are shown by different gray levels, and in FIG. 9, hatching direction and gray and black are shown. . In addition, in the node from which data is output, the number is represented by the number of symbols such as circle, triangle, and square in FIG. 8a, and hatched hexagon, gray, and black hexagons in FIG. It is expressed in size.
正常音データが出力される領域(図9では黒の線で囲まれた領域)が形成され,その領域内には狭窄音データは存在しないことがわかる。また,狭窄音データであっても,高周波狭窄音A,B,C,断続狭窄音の各データがそれぞれ大まかに領域を形成していることがわかる。 An area where normal sound data is output (area surrounded by a black line in FIG. 9) is formed, and it can be seen that there is no stenosis sound data in that area. It can also be seen that even in the case of stenosis sound data, each of the high-frequency stenosis sounds A, B, C, and the intermittent stenosis sound data roughly forms a region.
図9において,診断シャント音(被験シャント音)が正常音の範囲内(正常音の近く)に表わされており(黒の六角形),この被験者のシャント音は正常であることが分る。 In FIG. 9, the diagnostic shunt sound (test shunt sound) is represented within the normal sound range (near the normal sound) (black hexagon), and it can be seen that the shunt sound of this subject is normal. .
図9に示すような学習結果を表示部9に表示することにより,被験者のシャント音の診断を支援することができる。すなわち,被験者のシャント音がSOM上で5種類のどの指標サンプルの近傍に表わされているかに応じて被験者のシャント音が5種類のどの指標サンプルに似ているかを判断することができる。 By displaying the learning result as shown in FIG. 9 on the display unit 9, it is possible to support the diagnosis of the shunt sound of the subject. In other words, it can be determined which of the five types of index samples the subject's shunt sound is similar to according to which of the five types of index samples is represented on the SOM.
(4) 逐次細分化SOM
逐次細分化SOMは主成分分析とSOMを融合して学習データ(シャント音)を細分化しつつ行う自己組織化の手法である。従来のSOMはデータの初期配置をランダムに行うため,同じ学習データを用いても,作成(学習)するたびに得られるマップの配置が変化する。逐次細分化SOMによると最初に主成分分析を実施してデータを配置し,再び主成分分析を利用することで細分化することで,得られるマップは初期配置の大域的な構造を保ちつつ作製され,再現性が高い。(つまり,同じ学習データであれば,マップの変化は類似したものとなる可能性が極めて高い。しかし,必ずしも全く同じマップが得られるというわけではなく,SOMのアルゴリズムの特徴が失われるわけではない。それを「大域的」と表現している。)同じ学習データであれば,わずか1%程度のデータが隣接するセルに配置されることが実験的に得られている。
(4) Sequential subdivision SOM
Sequential subdivision SOM is a self-organization technique that combines principal component analysis and SOM to subdivide learning data (shunt sounds). Since the conventional SOM performs the initial arrangement of data at random, even if the same learning data is used, the arrangement of the map obtained each time it is created (learned) changes. According to the sequential subdivision SOM, the principal component analysis is performed first, the data is arranged, and the map obtained by subdividing by using the principal component analysis again is created while maintaining the global structure of the initial arrangement. And reproducibility is high. (That is, if the same learning data is used, it is very likely that the map changes will be similar. However, the same map is not necessarily obtained, and the characteristics of the SOM algorithm are not lost. (It is expressed as “global”.) With the same learning data, it has been experimentally obtained that only about 1% of data is arranged in adjacent cells.
加えて高速であり,7774次元のベクトルデータ 511個を学習させた実験結果では,従来のSOMよりも42%の短縮ができている。 In addition, it is fast and the experimental results of learning 511 7774-dimensional vector data show a 42% reduction compared to the conventional SOM.
逐次細分化SOMの処理については後で詳述する。 The processing of the sequential subdivision SOM will be described in detail later.
(5) SOMによる狭窄レベルの定量化
採音された診断シャント音データが配置されるセル(ノード)」に最も近い「正常シャント音データが配置されるセル」とのユークリッド距離を計算することで狭窄レベルを定量的に求めることができる。
(5) Quantification of stenosis level by SOM By calculating the Euclidean distance from the “cell where normal shunt sound data is placed” closest to the “cell (node) where collected diagnostic shunt sound data is placed” The stenosis level can be determined quantitatively.
図8a,8b,8cに示されるようなSOMにおいて,背景が白色で塗りつぶされているセルは正常音を含んだものである。また,灰色(グレーレベル)のセルは狭窄した血管から抽出された学習データを含むものである。セルの灰色の濃さは,白色のセルとの間の距離が離れるに従い濃くなるように複数段階(たとえば図8aでは5段階,図8b,図8cでは32段階)に分かれている。この濃度レベル dc(=0,1,2,‥‥,32)(図8b,図8cの場合)を次のように定義する。各セルに割り当てられているモデルベクトルをMc(c=1,2,‥‥,C)とし,関数dis(Mc )をc番目のセルに最も近い正常音を含む白色のセルとの間のユークリッド距離とする。即ち,
式(2) で表わされる狭窄レベルを算出し,これを所定のしきい値レベル(複数の段階でもよい)で弁別することにより,狭窄の疑いの有無または程度を自動的に判定することができる。これが図5のS13の判定処理の一例である。 By calculating the stenosis level expressed by equation (2) and discriminating it at a predetermined threshold level (may be in multiple stages), it is possible to automatically determine whether or not there is a suspicion of stenosis. . This is an example of the determination process in S13 of FIG.
(6) HMMによる診断と判定
MFCC係数は分析フレームにおけるスペクトル包絡を表しており,後に説明するΔMFCC,ΔΔMFCC,及び対数パワー,Δ対数パワー,ΔΔ対数パワーを求めることで,これらを時間−周波数解析となる(図5S21の処理)。これらをHMMへの入力ベクトルとする。
(6) Diagnosis and determination by HMM The MFCC coefficient represents the spectral envelope in the analysis frame. By calculating ΔMFCC, ΔΔMFCC, logarithmic power, Δlogarithmic power, and ΔΔ logarithmic power, which will be described later, these are time-frequency analysis (Processing in FIG. 5 S21). These are input vectors to the HMM.
一例として,MFCC導出条件は,ハニング窓によるフレームを用いて幅20msとし,フレームシフト間隔は10msとした。MFCC係数の次元を24として算出し低次元の12次元を診断に用いる。ゆえに,1フレーム毎にMFCC(12)となり,ΔMFCC(12),ΔΔMFCC(12),対数パワー(1),Δ対数パワー(1),ΔΔ対数パワー(1)の計39次元のベクトルを求めた。1拍動あたり67フレーム(0.67s )としたため,2613の特徴ベクトルをHMMに学習させることになる。 As an example, the MFCC derivation condition was set to a width of 20 ms using a frame with a Hanning window and a frame shift interval of 10 ms. The dimension of the MFCC coefficient is calculated as 24, and the lower 12 dimensions are used for diagnosis. Therefore, MFCC (12) is obtained for each frame, and a total of 39-dimensional vectors of ΔMFCC (12), ΔΔMFCC (12), logarithmic power (1), Δlogarithmic power (1), and ΔΔlogarithmic power (1) were obtained. . Since 67 frames per beat (0.67 s), the HMM learns 2613 feature vectors.
HMMは“left-to-right ”型のモデルを用い,学習アルゴリズムとしてBaum-Welchアルゴリズムを用いている。また,HMMの状態数は8に設定した。1シャント音あたり10データ(10拍動)の出力が得られるが,3データ以上が狭窄音と出力された場合,そのシャント音は狭窄であると診断し,それ以外は正常であるとして診断した。複数の異なるしきい値を用いて判断することもできる。いずれにしてもこの判断が図5S23の判定である。 The HMM uses a “left-to-right” type model and uses the Baum-Welch algorithm as a learning algorithm. The number of HMM states was set to 8. Output of 10 data (10 beats) per shunt sound can be obtained, but if more than 3 data are output as stenosis sound, the shunt sound is diagnosed as stenosis, otherwise it is diagnosed as normal . It can also be determined using a plurality of different threshold values. In any case, this determination is the determination in FIG.
(7) メルケプストラム(MFCC)
ケプストラムは波形の短時間フーリエスペクトルの対数を逆フーリエ変換したものとして定義され,スペクトル包絡と微細構造を近似的に分離できる特徴がある。このケプストラム分析に,ヒトの聴覚機構のモデルを加味したものがMFCCである。
(7) Mel Cepstrum (MFCC)
The cepstrum is defined as the inverse Fourier transform of the logarithm of the short-time Fourier spectrum of the waveform, and has the feature that the spectral envelope and the fine structure can be separated approximately. MFCC is a cepstrum analysis that incorporates a model of the human auditory mechanism.
ヒトの聴覚は音の高さに関してメルスケールと呼ばれる対数に近い非線形特性を示し,低い周波数では細かく,高い周波数では粗い周波数分解能を持っている。ケプストラムの導出課程にヒトの聴覚特性を考慮したフィルタバンクを組み合わせることで求められる。メルスケールは周波数f[Hz]に対して式(1)で定義される。 The human auditory sense has a non-logarithmic non-linear characteristic called mel scale with respect to the pitch of the sound, with fine frequency resolution at low frequencies and coarse frequency resolution at high frequencies. It is obtained by combining a filter bank that takes into account human auditory characteristics in the cepstrum derivation process. Mel scale is defined by equation (1) for frequency f [Hz].
シャント音信号は信号の性質が時間とともに変化する非定常信号であるため,メルケプストラム解析では信号を短い時間単位(フレーム)で切り出すこととし,このフレーム化処理には,ハニング窓を用いた。続いて各フレームに対し高速フーリエ変換を行い,この振幅スペクトルをメル尺度上で等間隔な24次元のフィルタバンクにかけ,各帯域のスペクトル成分mj を取り出す。フィルタバンクからの出力を対数変換し,さらに離散コサイン変換を行い次元N=24のケプストラムに変換する。これより得られるMFCC係数Ci は式(4) で定義される。ただし,ここではMFCC係数の低次成分12次元を用いるため式(4) から式(7) においてiは12まで算出する。 Since the shunt sound signal is an unsteady signal whose signal characteristics change with time, in the mel cepstrum analysis, the signal is cut out in short time units (frames), and a Hanning window is used for this framing process. Subsequently, fast Fourier transform is performed on each frame, and this amplitude spectrum is applied to a 24-dimensional filter bank equally spaced on the mel scale to extract spectral components m j of each band. The output from the filter bank is logarithmically transformed and further subjected to discrete cosine transformation to be converted into a cepstrum of dimension N = 24. The MFCC coefficient C i obtained from this is defined by equation (4). However, since the 12th dimension of the low-order component of the MFCC coefficient is used here, i is calculated up to 12 in equations (4) to (7).
MFCC係数はある分析フレームにおけるスペクトル包絡を表している。一般的に,特徴ベクトルに使われるパラメータには,このほかにスペクトル包絡の時間変化に対応する,動的特徴量が用いられる。動的特徴量は式(5) で定義される。ある分析フレームnにおけるMFCC係数のi番目の値を Ci(n)とし,nを中心とした区間[n−δ,n+δ]におけるCi(n)の値に直線を当てはめた場合の傾きがΔCi(n)である。ここで,δ=2とし,ある分析フレームnの前後2フレームを加えた5フレームに対し計算を行う。始端(0番目)のフレームは,−1番目,−2番目のフレームが0番目と同じであると考え計算を行う。 The MFCC coefficient represents the spectral envelope in an analysis frame. In general, in addition to the parameters used for feature vectors, dynamic features corresponding to temporal changes in the spectral envelope are used. The dynamic feature is defined by equation (5). The i-th value of the MFCC coefficient in an analysis frame n is C i (n), and the slope when a straight line is applied to the value of C i (n) in the interval [n−δ, n + δ] centered on n is ΔC i (n). Here, δ = 2 is set, and calculation is performed for five frames including two frames before and after a certain analysis frame n. The calculation is performed assuming that the −1st and −2th frames are the same as the 0th frame for the start (0th) frame.
また,終端も同様に扱う。ΔCi(n)はCi(n)の時間的な変化量を表すものである。MFCC係数Ci に対し,式(5) で得られたパラメータをΔMFCCと呼ぶ。更にΔMFCC係数に対し,式(6) で得られたパラメータをΔΔMFCC係数と呼ぶ。 The end is also handled in the same way. ΔC i (n) represents a temporal change amount of C i (n). For the MFCC coefficient C i , the parameter obtained by equation (5) is called ΔMFCC. Furthermore, for the ΔMFCC coefficient, the parameter obtained by equation (6) is called the ΔΔMFCC coefficient.
また,式(7) より各フレーム毎にそのフレームの対数パワーをEとし求め,式(8) より求めたパラメータΔEをΔ対数パワー,式(9) より求めたパラメータΔΔEをΔΔ対数パワーと呼ぶ。ここで,式(7) においてM=12とした。各フレーム毎に,MFCC,ΔMFCC,ΔΔMFCC,対数パワー,Δ対数パワー,ΔΔ対数パワーをまとめて特徴ベクトルとする。 Further, the logarithmic power of each frame is obtained as E for each frame from Equation (7), the parameter ΔE obtained from Equation (8) is called Δlogarithmic power, and the parameter ΔΔE obtained from Equation (9) is called ΔΔlogarithmic power. . Here, M = 12 in equation (7). For each frame, MFCC, ΔMFCC, ΔΔMFCC, logarithmic power, Δlogarithmic power, and ΔΔlogarithmic power are collectively used as a feature vector.
(8) 統括判定
図5S30の統括判定は人間が行うこともできるが,信号処理装置4が自動的に行うこともできる。
(8) Overall Determination Although the overall determination in FIG. 5S30 can be performed by a human, the signal processing device 4 can also perform it automatically.
上述したように,図5S13の判定は図9のような表示をみて人間が行うこともできるし,式(2) によって求められる狭窄レベルを1または複数のしきい値と比較して,狭窄の有無,程度をコンピュータに判定させることができる。図5S23の判定においても狭窄の有無または程度をコンピュータが判定することができる。 As described above, the determination in FIG. 5S13 can be performed by a human by looking at the display as shown in FIG. 9, or by comparing the stenosis level obtained by equation (2) with one or more threshold values. The computer can determine the presence / absence and degree. In the determination of FIG. 5S23, the computer can determine whether or not there is a stenosis.
図5S30では,S13とS23の判定結果を用いて判定が行なわれる。たとえば,S13の判定とS23の判定(狭窄の有無)のOR論理によって統合判定結果を得てもよい。S13,S23の判定が狭窄の程度を表わしているときには,そのうちの狭窄の程度の高い方を統括判定結果とすることができる。 In S30 of FIG. 5, the determination is made using the determination results of S13 and S23. For example, the integrated determination result may be obtained by OR logic of the determination of S13 and the determination of S23 (whether there is stenosis). When the determinations at S13 and S23 indicate the degree of stenosis, the higher degree of stenosis can be used as the overall determination result.
このようにして,2系統の解析,判定に基づいて最終的に統括判定を行うことにより,信頼性の高い支援システムを実現することができる。 In this way, by performing overall judgment based on the analysis and judgment of the two systems, a highly reliable support system can be realized.
6 逐次細分化SOM
学習データを範疇に組み分ける逐次的な組み分け処理の手順,および入力データが帰属する範疇を判定する判定処理(逐次細分化SOMと判定:図5S12,S13)について以下に説明する。この処理は上記実施例では図1の解析判定部6で行なわれる処理であるが,ここでは一般化して記述する。解析判定部6には記憶部が設けられている。
6 Sequential subdivision SOM
The procedure of the sequential grouping process for grouping the learning data into categories and the determination process for determining the category to which the input data belongs (sequential subdivision SOM: FIG. 5 S12, S13) will be described below. This processing is performed by the analysis determination unit 6 in FIG. 1 in the above embodiment, but is described here in a generalized manner. The analysis determination unit 6 is provided with a storage unit.
この記憶部として例えばハードディスクまたは半導体メモリ装置などが利用可能であるとする。この記憶部に,センサなどで取り込み特徴ベクトルの抽出を行ったデータ(一例として被験サンプル)またはあらかじめ用意したデータ(一例として指標サンプル)が,学習データA(n,f)として保持されているとする。ここで,nは個々の学習データを指定する指標であり,学習データの総数をNとすると例えば番号1,2,3〜Nのいずれか,またはこれらの番号を指定し得る変数である。また,fは学習データの成分を指定する指標でありその総数をFとすると,番号1,2〜Fまたはこれらの番号を指定し得る変数である。例えば音響データの時系列信号を処理して周波数ごとの信号強度を当該データとした場合,周波数またはこれを指定する番号がfである。 For example, a hard disk or a semiconductor memory device can be used as the storage unit. In this storage unit, data obtained by extracting a feature vector using a sensor or the like (a test sample as an example) or data prepared in advance (an index sample as an example) is held as learning data A (n, f) To do. Here, n is an index for designating individual learning data. For example, if the total number of learning data is N, it is any one of numbers 1, 2, 3 to N, or a variable that can designate these numbers. Further, f is an index for designating the components of the learning data, and if the total number is F, it is a variable that can designate numbers 1, 2 to F or these numbers. For example, when a time-series signal of acoustic data is processed and the signal intensity for each frequency is used as the data, the frequency or a number designating this is f.
記憶部に保持されるが学習データの成分が周波数で指定される信号強度であると限定してはおらず,当該成分が時系列信号の時間ごとの信号強度であってもよい。更には,時間周波数解析を行う場合のように時間と周波数の両者によって成分を指定してもよい。この場合,前記の指標fを,時間と周波数をともに指定する番号とする。この他,データの形式を全て枚挙できないが,取得するデータの特徴を捉え得る信号成分を有していることが学習データの要件である。 Although it is stored in the storage unit, the component of the learning data is not limited to the signal strength specified by the frequency, and the component may be the signal strength for each time of the time series signal. Furthermore, components may be specified by both time and frequency as in the case of performing time-frequency analysis. In this case, the index f is a number that specifies both time and frequency. In addition, although it is not possible to list all data formats, it is a requirement of learning data that it has a signal component that can capture the characteristics of the acquired data.
学習データの距離を示す量として,2つの指標nとmで指定されたデータA(n,f),A(m,f)を用いて,例えば
本発明に係わるプログラムの手順を図10に示す。また,階層的な範疇の作成手続き(図10のS43)を図13,図14に示す。これらの図で示されているように,学習データを範疇に組み分ける作業を複数回に渡って逐次的に実施し作成することが本処理の特徴であり,これに伴い,階層的な範疇データを作成することができる。この組み分け回数の上限をGとし(図10のS42の確認または入力),それまでの回数を1,2〜Gのいずれか,またはこれらに対応する番号gで指定する。この記号gを用いて,当該組み分け処理の手順を以下に説明する。なお,学習データの取得(図10S41)は,上記実施例における指標サンプルの取得のみを指す場合(図11)と,指標サンプルと被験サンプルの両方を含む場合(図12)とがある。上限回数を指定する情報Gと学習データは記憶部に記憶される(図17参照)。 FIG. 10 shows a program procedure according to the present invention. In addition, FIG. 13 and FIG. 14 show the hierarchical category creation procedure (S43 in FIG. 10). As shown in these figures, the feature of this process is that the process of grouping the learning data into categories is performed and created sequentially multiple times. Can be created. The upper limit of the number of groupings is set to G (confirmation or input in S42 in FIG. 10), and the number of times up to that time is designated by any one of 1, 2 to G, or a number g corresponding thereto. The procedure of the grouping process will be described below using this symbol g. Note that acquisition of learning data (S41 in FIG. 10) includes only the acquisition of the index sample in the above embodiment (FIG. 11) and includes both the index sample and the test sample (FIG. 12). Information G specifying the upper limit number and learning data are stored in the storage unit (see FIG. 17).
図13に示すように,まず最初の組み分け,即ち,g=1の組み分けの手続きでは,記憶部に保持されている学習データと同じ成分を有するC(g)個の代表データB(g,c,f)を作成する(S81)。指標cは代表データを指定する機能を有しc=1,2〜C(g)と変化する。また,指標fは前記の学習データA(n,f)における指標fと同等の機能をはたす指標でありf=1,2〜Fのいずれかの値をとるとする。記憶部に保持されている指標nで指定される個々のデータA(n,f)ごとに,前記の距離を代表データB(g,c,f)との間で,cを1,2〜C(g)と変化させて求める。この値を dis(n,g,c)と表現する。 As shown in FIG. 13, in the first grouping, that is, the grouping procedure with g = 1, C (g) representative data B (g) having the same components as the learning data held in the storage unit. , C, f) are created (S81). The index c has a function of designating representative data and changes from c = 1, 2 to C (g). The index f is an index that performs the same function as the index f in the learning data A (n, f), and assumes any value of f = 1, 2 to F. For each piece of data A (n, f) designated by the index n held in the storage unit, the distance is set to the representative data B (g, c, f), and c is set to 1, 2 to 2. Obtained by changing to C (g). This value is expressed as dis (n, g, c).
式(10)にしたがえば,この値は次式で表わされる(もちろん,式(11)または式(12)のように求めてもよい)。 According to equation (10), this value is expressed by the following equation (of course, it may be obtained as in equation (11) or equation (12)).
これらの距離のなかで最小値を与える指標cを cmin(n,g)で表現する。この記号を用いると,指標nで指定される当該記憶部に保持された学習データが帰属するg番目の範疇を指標 cmin(n,g)で指定することが可能である。このように,記憶部のN個の学習データは,C(g)個用意されたいずれかの代表データに対応付けること即ち帰属させることができる。c番目の代表データに帰属させられた学習データの指標の総数をM(g,c)で示し,これらの指標を新たな指標iで指定したものを記号m(g,c,i)で表示する。ここで,指標iは1,2〜M(g,c)のいずれか,またはこれらに対応付け得る変数である。これらのデータは記憶部に記憶される(図17参照)。 The index c that gives the minimum value among these distances is expressed by cmin (n, g). Using this symbol, the g-th category to which the learning data held in the storage unit designated by the index n belongs can be designated by the index cmin (n, g). In this manner, the N learning data in the storage unit can be associated with or belong to any one of the representative data prepared in C (g). The total number of learning data indices assigned to the c-th representative data is indicated by M (g, c), and those indices designated by a new index i are indicated by the symbol m (g, c, i). To do. Here, the index i is one of 1, 2 to M (g, c), or a variable that can be associated with these. These data are stored in the storage unit (see FIG. 17).
前記の代表データB(g,c,f)の作成手続きは,g−1回目の組み分けのc番目の範疇に帰属するM(g−1,c’)個の学習データから作られた配列変数a(i,f)=A(m(g−1,c’,i),f)を用いて,例えば公知の方法である主成分分析を用いて次のように行うことができる。なお,最初の組み分けを意味するg=1ではg−1=0となるがこの場合,範疇は当該記憶部に保持されている全学習データから構成され,範疇の指標はc’=1のみで,C(g−1)=1,M(g−1,c’)=N,m(g−1,c’,i)=iであると見做す。 The procedure for creating the representative data B (g, c, f) is an array created from M (g-1, c ′) learning data belonging to the c-th category of the g-1th grouping. Using the variable a (i, f) = A (m (g−1, c ′, i), f), for example, the principal component analysis which is a known method can be used as follows. When g = 1, which means the first grouping, g-1 = 0, but in this case, the category is composed of all the learning data held in the storage unit, and the category index is only c ′ = 1. Therefore, it is assumed that C (g-1) = 1, M (g-1, c ') = N, and m (g-1, c', i) = i.
aa(f,f’)を積a(i,f)・a(i,f’)の指標iについて総和を求めて作成した新たな配列データであるとする。この配列データaa(f,f’)は,数学的には行列であり,その固有値s(k)と固有ベクトルv(k,f)を公知の方法で求めることができる。ここで,kは固有ベクトルを指定する指標であり,1,2〜Fのいずれかの値をとる番号である。また,v(k,f)の2乗を全てのfについて総和した値が1であるとする。これらの固有値s(k)をその大きさの順に例えば2個選びこれらの指標をk1,k2と表わすと,ベクトルv(k1,f)およびv(k2,f)は学習データのベクトル空間内で変動が最も大きな方向であることが,主成分分析の教えるとことである。係数の組(p1(k),p2(k))をkを1,2,3,4と変化させそれぞれ(0,0),(0,1),(1,0),(1,1)とするとき,b(k,f)=p1(k)・v(k1,f)/√{s(k1)}+p2(k)・v(k2,f)/√{s(k2)}を求め,これらを新たにg番目の組み分け処理の代表データの一部に追加しこれに伴い範疇を追加する。さらに,追加した当該範疇の指標をd(g,c,k)(k=1,2,3,4)と表示する。ここでは,指標kを変化させる個数を4個に限ったが,g−1番目のc’の範疇毎に異なった範疇を作成してもよいのでこの個数を一般的にD(g−1,c’)と表わすことにする。その拡張方法は,例えば前記の(p1,p2)に(0,2),(2,0),(1,2),(2,1)を加えることで実現できるばかりではなく,他の方法でも可能であることは容易に推測することができる。これらの手順は,g−1番目のそれぞれの範疇に対して実施できるのでこれらを全てまとめて新たに指標cを用いて指定することとして代表データをB(g,c,f)と表示する。以上の手続きから,g−1番目の組み分けのc’番目の範疇に含まれる学習データから,新たにg番目の組み分けの範疇がD(g−1,c’)個作成される(S82)。S82の詳細を図15に示す。 It is assumed that aa (f, f ') is new array data created by calculating the sum for the index i of the product a (i, f) · a (i, f'). The array data aa (f, f ') is mathematically a matrix, and its eigenvalue s (k) and eigenvector v (k, f) can be obtained by a known method. Here, k is an index for designating an eigenvector, and is a number that takes one of values 1, 2 to F. Further, it is assumed that the sum of the squares of v (k, f) for all f is 1. If, for example, two of these eigenvalues s (k) are selected in the order of their magnitudes, and these indices are expressed as k1 and k2, vectors v (k1, f) and v (k2, f) are represented in the vector space of the learning data. The principal component analysis teaches that fluctuation is the largest direction. The coefficient set (p1 (k), p2 (k)) is changed to 1, 2, 3, and 4 by changing k to (0, 0), (0, 1), (1, 0), (1, 1 ), B (k, f) = p1 (k) · v (k1, f) / √ {s (k1)} + p2 (k) · v (k2, f) / √ {s (k2)} Are added to a part of the representative data of the g-th grouping process, and categories are added accordingly. Further, the index of the added category is displayed as d (g, c, k) (k = 1, 2, 3, 4). Here, the number of changes of the index k is limited to four. However, since a different category may be created for each category of g−1th c ′, this number is generally represented by D (g−1, c ′). The expansion method can be realized not only by adding (0, 2), (2, 0), (1, 2), (2, 1) to the above (p1, p2), but also other methods. But it can be easily guessed that this is possible. Since these procedures can be performed for each of the (g−1) th categories, the representative data is displayed as B (g, c, f) by collectively specifying them using the index c. From the above procedure, D (g−1, c ′) new gth grouping categories are created from the learning data included in the c′th category of the g−1th grouping (S82). ). Details of S82 are shown in FIG.
前記の組み分けに係わる手続きで,g番目の階層の範疇データ,即ち,g番目の組み分けのc番目の範疇に係わる代表データB(g,c,f)を,当該範疇に属する指標m(g.c,i)(i=1,2〜M(g,c))で指定された当該記憶部データA(m(g,c,i),f)の指標iに関する平均で置き換えることができる。この置き替えにともない,一つ前の階層の範疇データ,即ち,g−1番目の組み分けのc’番目の範疇から作成した範疇のM(g−1,c’)個のデータを前記の置き換えで得た代表データを用いて再配置することも可能である。さらに,この処理を所望の回数続けて繰り返すこともできる。本発明はこのような処理手続きを排除するものではない。この手順を図14に示す。図14のS92の処理の詳細もまた図15に示されている。 In the procedure related to the grouping, the category data of the g-th hierarchy, that is, the representative data B (g, c, f) related to the c-th category of the g-th grouping is converted into the index m ( g.c, i) (i = 1, 2 to M (g, c)) is replaced with an average for the index i of the storage unit data A (m (g, c, i), f) specified. it can. With this replacement, the category data of the previous hierarchy, that is, the M (g−1, c ′) data of the category created from the c′th category of the g−1th grouping is changed to the above. It is also possible to rearrange using the representative data obtained by replacement. Further, this process can be repeated a desired number of times. The present invention does not exclude such a processing procedure. This procedure is shown in FIG. Details of the processing of S92 of FIG. 14 are also shown in FIG.
前記の組み分けに係わる手続きでM(g−1,c)=0の場合,g−2番目の範疇を作成するときに使用したv(k1,f),v(k2,f)を用いることで代表データを作成する。また,g−1=0のとき範疇の全個数を1と見做し,c’=1とし,M(g−1,c’)=Nであるとする。 When M (g-1, c) = 0 in the procedure related to the above grouping, use v (k1, f), v (k2, f) used when creating the g-2th category. Create representative data with. Further, when g−1 = 0, the total number of categories is considered as 1, c ′ = 1, and M (g−1, c ′) = N.
前記の組み分けに係わる手続きで,新たに作成した代表データB(g,c,f)の異なる指標cで指定されるものの中に同じものが存在する可能性があるが,本発明ではその可能性を排除してはいない。さらに,意図的に同じ代表データを用意すると,g−1番目の組み分け処理で分離され別の範疇に分かれて帰属している学習データが,g番目の組み分けで前記記載の共通の範疇に帰属する可能性があり,学習データの過度の分離を回避する効果がある。 In the procedure related to the above grouping, there is a possibility that the same one exists among those designated by different indices c of the newly created representative data B (g, c, f). It does not exclude sex. Furthermore, if the same representative data is intentionally prepared, the learning data separated and attributed to the different category by the g-1th grouping process is put into the common category described above by the gth grouping. It may be attributed, and has the effect of avoiding excessive separation of learning data.
前記の組み分けに係わる手続きで,g−1とgをそれぞれgとg+1と読み直すと,g番目の組み分けの範疇に帰属する学習データを再度組み分けてg+1番目の範疇を作成することができる。さらに,任意回数の組み分けもこの手順を繰り返すことで逐次的に実施可能である。この組み分けの上限回数をGとして,この値を指定または確認する手続きを設けることも可能である。更に,下記に示すようにGが取り得る数値の範囲を拡大して,一般的にGを上限回数を指定する情報として定義することも可能である。 By re-reading g-1 and g as g and g + 1 in the procedure relating to the grouping, the learning data belonging to the category of the gth grouping can be grouped again to create the g + 1th category. . Furthermore, any number of groupings can be performed sequentially by repeating this procedure. It is also possible to provide a procedure for designating or confirming this value, where G is the upper limit number of groupings. Furthermore, as shown below, it is possible to expand the range of numerical values that G can take and generally define G as information for specifying the upper limit number of times.
逐次的な組み分け手順を続けると最終的には,全ての範疇に帰属するデータの個数が1か0になる場合が必ずあるので,この回数を組み分け回数gの上限回数とできる。例えばG=−1と指定することで,当該上限まで組み分けを繰り返えさせる。さらには,例えばG=−2とするとき,g番目の組み分けの各範疇に帰属する学習データの最大値が例えば10になるまで,逐次的な組み分けを繰り返えすこともできる。本発明は,このような手続きを排除するものではない。 If the sequential grouping procedure is continued, the number of data belonging to all categories may eventually become 1 or 0, so this number can be set as the upper limit number of grouping times g. For example, by specifying G = -1, the grouping can be repeated up to the upper limit. Furthermore, when G = −2, for example, the sequential grouping can be repeated until the maximum value of the learning data belonging to each category of the g-th grouping becomes 10, for example. The present invention does not exclude such a procedure.
前記の組み分けに係わる手続きで,g番目の組み分け,即ち,g番目の階層のc番目の範疇とは,代表データB(g,c,f)と帰属する学習データを指示する指標m(g,c,i)(i=1,2〜M(g,c))と,逐次的に作成したg+1番目の組み分けの範疇を指定する指標d(g,c,k)(k=1,2〜D(g,c))からなる一連の情報である。このデータの構造を図17にまとめておく。これらの情報は作成される毎に記憶部に記憶される。 In the procedure related to the grouping, the g-th grouping, that is, the c-th category of the g-th hierarchy is the index m (indicating the learning data belonging to the representative data B (g, c, f). g, c, i) (i = 1, 2 to M (g, c)) and an index d (g, c, k) (k = 1) that specifies the category of the (g + 1) th grouping created sequentially. , 2 to D (g, c)). The structure of this data is summarized in FIG. These pieces of information are stored in the storage unit every time they are created.
また,データを組み分ける手続きとは,当該範疇に係わる代表データと指標を作成する手続きである。一般にgの値が大きくなるに従い,組み分けが詳細になる。前記の階層的な範疇データを図に表示する一例として公知であるSOMの特徴マップと類似した図形を図18に示す。学習データとして,4つの類型A,B,C,Dがある場合の範疇データである。組み分けの番号gまたは階層の番号gによりひとつのマップが定まる。各マップには,範疇のひとつひとつが網の目状の図形で表示されており,異なる類型の学習データが異なるマーカーで範疇に帰属させられている。また,ひとつ前の階層の範疇が,白線で描かれた網の目で上書きされている。範疇を表す網の目の背景色の濃さは,類型Aの学習データが属する範疇の代表データと各範疇の代表データの距離が大きくなるに従って0,1,〜5と6段階で濃くなるように示されている。なお,公知であるSOMの特徴マップでは,マップを階層化できないことを記しておく。 The procedure for grouping data is a procedure for creating representative data and indicators related to the category. In general, the grouping becomes more detailed as the value of g increases. FIG. 18 shows a figure similar to the SOM feature map known as an example of displaying the hierarchical category data in the figure. This is category data when there are four types A, B, C, and D as learning data. One map is determined by the grouping number g or the layer number g. In each map, each category is displayed as a net-like figure, and different types of learning data are assigned to the category with different markers. In addition, the category of the previous hierarchy is overwritten by the meshes drawn with white lines. The darkness of the background color of the mesh representing the category is increased in six levels of 0, 1, to 5 as the distance between the representative data of the category to which the learning data of type A belongs and the representative data of each category increases. Is shown in Note that the known SOM feature map cannot be hierarchized.
前記の学習データと同じ成分を有する入力データをI(f)と記号で表現する。この入力データI(f)と代表データB(g,c,f)との間の距離を前記記載の定義に従い求めた値を dis(I;g,c)で表す。このとき,cを1,2〜C(g)と変化させ求めた dis(I;g,c)の値の中で最小値を与える指標cを cmin(I;g)と表わしこの値をもって,データI(f)または取得した入力データが,g番目に組み分けた範疇のいずれに帰属するかを判定した判定結果と定義する。この判定手続きを図11に示す。S51〜S53は図10のS41〜S43と同じである。 Input data having the same components as the learning data is represented by I (f) and a symbol. A value obtained by obtaining the distance between the input data I (f) and the representative data B (g, c, f) in accordance with the definition described above is represented by dis (I; g, c). At this time, the index c giving the minimum value among the values of dis (I; g, c) obtained by changing c from 1, 2 to C (g) is expressed as cmin (I; g). The data I (f) or the acquired input data is defined as a determination result that determines which of the categories classified in the g-th group belongs. This determination procedure is shown in FIG. S51 to S53 are the same as S41 to S43 in FIG.
図11に示される手続きにおいて,学習データは上記実施例の指標サンプルに対応し,入力データは被験サンプルに対応する。指標サンプルに基づいてSOMマップを作成しておき(たとえば図8bに示すような),これに被験サンプルをあてはめる処理に相当する。これにより判定結果,すなわち指標サンプルにより作成されたSOMマップ上における被験サンプルの位置(たとえば図8cに示すような)を知ることができる。図8cにおいて,被験サンプルの位置は黒い正方形(診断シャント音)として示されている。なお,図11のS62の詳細は図16に示されている。 In the procedure shown in FIG. 11, the learning data corresponds to the index sample of the above embodiment, and the input data corresponds to the test sample. This corresponds to a process in which an SOM map is created based on the index sample (for example, as shown in FIG. 8b), and the test sample is applied to this. Thereby, it is possible to know the determination result, that is, the position of the test sample (for example, as shown in FIG. 8c) on the SOM map created by the index sample. In FIG. 8c, the position of the test sample is shown as a black square (diagnostic shunt sound). The details of S62 in FIG. 11 are shown in FIG.
判定結果 cmin(I;G)を得るために,g=1,2〜G−1と順番に変化させ,次のように逐次的な処理を行うことができる(図11のS61〜S64)。まず,g=1として最初の組み分けのC(1)個の範疇のなから入力データが帰属する指標c1= cmin(I;1)を求める。次に,1番目の組み分けのc1番目の範疇に帰属するg+1番目の組み分けのD(g,c1,1)個の範疇から cmin(I;2)を求める。以下同様に, cmin(I;g)をg=3,4〜G−1と逐次的に繰り返えすと指標 cmin(I;G)が得られる。この手続きでは,入力データと代表データとの間の距離を求める回数は,C(1)とD(g, cmin(I;g))(g=1,2〜G−1)との和である。 In order to obtain the determination result cmin (I; G), the following sequential processing can be performed by changing the order of g = 1, 2 to G-1 (S61 to S64 in FIG. 11). First, an index c1 = cmin (I; 1) to which the input data belongs is obtained from C (1) categories of the first grouping with g = 1. Next, cmin (I; 2) is obtained from D (g, c1,1) categories of the g + 1th grouping belonging to the c1th category of the first grouping. Similarly, when cmin (I; g) is sequentially repeated as g = 3, 4 to G-1, an index cmin (I; G) is obtained. In this procedure, the number of times for obtaining the distance between the input data and the representative data is the sum of C (1) and D (g, cmin (I; g)) (g = 1, 2 to G-1). is there.
入力データの判定処理を,入力データを学習データの一部に組み込んで実施することも可能である。この場合の手続きを図12に示す。学習データが中で当該入力データを示す指標をn0とすると,g番目の組み分けで入力データが帰属する範疇は前記に載の記号を用いて cmin(n0,g)(g=1,2〜G)で表される。これらも,本発明により得られる判定結果である。図12において,参照データ(学習データ)(上記実施例における指標サンプルに相当する)と入力データ(被験データに相当する)とを統合して(混ぜあわせて)これらをまとめて図10S43(図12のS73)の処理を行うものである。入力データの帰属の判定(S74)はたとえば上記の手順で cmin(n0,G)を決定する処理および上記の式(2) により表わされる狭窄レベルをしきい値処理することに相当し,この結果が図8cのようなSOMマップとともに表示される(S75)。 It is also possible to perform the input data determination process by incorporating the input data into a part of the learning data. The procedure in this case is shown in FIG. Assuming that the index indicating the input data is n0 in the learning data, the category to which the input data belongs in the g-th grouping is represented by cmin (n0, g) (g = 1, 2˜ G). These are also the determination results obtained by the present invention. In FIG. 12, reference data (learning data) (corresponding to the index sample in the above embodiment) and input data (corresponding to test data) are integrated (mixed together) and these are combined into FIG. 10S43 (FIG. 12). The process of S73) is performed. The determination of attribution of input data (S74) corresponds to, for example, the process of determining cmin (n0, G) by the above procedure and the threshold processing of the stenosis level represented by the above equation (2). Is displayed together with the SOM map as shown in FIG. 8c (S75).
逐次的な処理により,学習データを組み分け範疇を作成する組み分処理の処理時間,および,入力データをいずれの範疇に帰属しているかを判定する判定処理のための処理時間を顕著に短縮できる。このことが本発明の効果である。以下にこの根拠を示す。 Sequential processing can significantly reduce the processing time for grouping processing to create classification categories for learning data and the processing time for judgment processing to determine which category the input data belongs to . This is the effect of the present invention. The basis for this is shown below.
本発明の効果を説明するに際して,組み分け処理におけるg番目の組み分けで作成される範疇の個数を全て同じC1であるとする。即ち,前記に記載した説明で定義した記号を用いるとC1=C(1)=D(2,c)=・・・・=D(G−1,c)が任意の指標cに対して成立すると仮定する。ここで,逐次的な組み分けの上限回数をGとした。このとき,G番目の組み分けで得られる範疇の総数Ctは,C1のG乗である。なお,この仮定を取り除いた一般的な場合でも,以下の議論の本質は変化しないことは容易に推測できる事実である。 In describing the effect of the present invention, it is assumed that the number of categories created in the g-th grouping in the grouping process is the same C1. That is, when the symbols defined in the above description are used, C1 = C (1) = D (2, c) =... = D (G-1, c) is established for an arbitrary index c. Assume that. Here, G is the upper limit number of sequential groupings. At this time, the total number Ct of categories obtained by the G-th grouping is C1 to the G-th power. It should be noted that the essence of the following discussion does not change even in the general case where this assumption is removed.
一般に,N個の学習データをCt個の範疇に直接組み分けるためには,学習データの各々に対してCt個の代表データと距離を求める必要があり,その回数は最低でもN・Ctである。 In general, in order to directly divide N learning data into Ct categories, it is necessary to obtain Ct representative data and distance for each learning data, and the number of times is at least N · Ct. .
一方,逐次的な処理を行った場合に必要となる距離をもとめる回数は,G・N・C1で見積もることができる。 On the other hand, the number of times of obtaining the distance required when sequential processing is performed can be estimated by G · N · C1.
その理由は,最初の組み分け,即ちg=1の場合,N個の学習データとC1(=C(1))個の代表データとの比較が必要なので,距離を求める回数はN・C1である。次に,N個の学習データを,C1個の範疇に割り当てるが,その個数をN/C1で見積もることができる。一般には,この個数は範疇ごとに変動するが,その変動を考慮したとしても議論の本質が変更されることが無いことは,容易に推測することができる。 The reason is that in the case of the first grouping, that is, when g = 1, it is necessary to compare N learning data with C1 (= C (1)) representative data, so the number of times for obtaining the distance is N · C1. is there. Next, N pieces of learning data are assigned to C1 categories, and the number can be estimated by N / C1. In general, this number varies from category to category, but it is easy to guess that the essence of the discussion will not change even if the variation is taken into account.
次に,g=2回目の組み分けで得られた各々の範疇のC1個の代表データと前記(N/C1)個のデータとの間で距離を求める回数は(N/C1)・C1であり,この操作をg−1番目のC1個の範疇で実施するので,更にC1を乗じた数N・C1が,2番目の組み分けで距離を求める最小の回数である。以下同様に,G回目までの組み分けまでその距離を求める回数はいずれもN・C1である。このことから,N・C1をG回加えた回数G・N・C1が,距離を求める最小の回数である。 Next, the number of times of obtaining the distance between the C1 representative data of each category obtained by the g = second grouping and the (N / C1) data is (N / C1) · C1. Yes, since this operation is performed in the category of g-1st C1, the number N · C1 multiplied by C1 is the minimum number of times for obtaining the distance in the second grouping. Similarly, the number of times for obtaining the distance until the G-th grouping is N · C1. Therefore, the number of times G · N · C1 obtained by adding N · C1 G times is the minimum number of times for obtaining the distance.
前記の論証で指摘した事実から,記憶部のN個の学習データを組み分けする際に距離を求める回数は,逐次的な処理を行わない場合N・Ct回であるが,逐次的な処理を行うとN・G・C1回である。Ctが,C1のG乗である事から,逐次的な組み分けを行った場合の回数は,逐次的な組み分けを行わなかった場合の回数よりも顕著に小さくなり,これに伴い処理時間も短縮できる。しかも,この処理時間の短縮は学習データの個数Nが増大するに従い益々顕著になる。このことが,本発明の効果である。 From the facts pointed out in the above argument, the number of times for obtaining the distance when the N learning data in the storage unit is grouped is N · Ct times when the sequential processing is not performed, but the sequential processing is performed. It is N · G · C 1 times. Since Ct is the power of C1 to the G power, the number of times when the sequential grouping is performed is significantly smaller than the number of times when the sequential grouping is not performed, and the processing time is accordingly increased. Can be shortened. Moreover, the reduction in processing time becomes more prominent as the number N of learning data increases. This is the effect of the present invention.
前記に記載した入力データI(f)の判定処理を行う際,即ち,上限回数であるG番目の組み分けの範疇のいずれに当該入力データが帰属するかを決定する処理では,逐次的な処理を行わない場合,G番目の範疇の全代表データとの間で距離を求めることが必要なので,距離を求める回数はCt回である。一方,逐次的にg=1,2〜Gと変化させ夫々の回数の組み分けに係わる範疇への対応を行い判定を行う場合は,G・C1回だけ距離を求めるとよい。この場合も,逐次的な処理を行った方が距離を求める回数が少なく,処理時間を顕著に短縮できる。このことも,本発明の効果である。 In the above-described determination process of the input data I (f), that is, in the process of determining which of the G-th grouping categories that is the upper limit number of times the input data belongs, a sequential process Otherwise, since it is necessary to obtain the distance from all the representative data of the Gth category, the number of times of obtaining the distance is Ct. On the other hand, when the determination is performed by sequentially changing g = 1, 2 to G and dealing with the categories related to the respective groupings, the distance may be obtained only once for G · C. Also in this case, the number of times of obtaining the distance is smaller when the sequential processing is performed, and the processing time can be remarkably shortened. This is also an effect of the present invention.
分りやすくするために主要な記号の説明を以下に記しておく。 In order to make it easier to understand, explanations of main symbols are given below.
N 記憶部に保持された学習データの総数
G 逐次的な組み分けを実施する上限回数を指定する変数
A(n,f) 記憶部に保持されたn番目の学習データでF個の成分を有する(n=1,2,〜N,f=1,2〜F)
B(g,c,f) g番目の組み分けの際に作成するc番目の範疇を代表するデータで記憶部と同じ成分を有する
C(g) g番目の組み分けの際に作成する範疇の総数
M(g,c) g番目の組み分けのc番目の範疇に帰する学習データの指標の総数
D(g,c) g番目の組み分けのc番目の範疇に帰属するg+1番目の組み分けの範疇の総数
m(g,c,i) g番目の組み分けのc番目の範疇に帰属するi番目の学習データ指標(i=1,2〜M(g,c))
d(g,c,k) g番目の組み分けのc番目の範疇に帰属するg+1番目の組み分けの範疇の指標(k=1,2〜D(g,c))
dis(n,g,c) 学習データA(n,f)と代表データB(g,c,f)の距離
dis(I;g,c) 入力データI(f)と代表データB(g,c,f)の距離
cmin(n,g) 記憶部に保持されたn番目の学習データが属する,g番目の組み分けの範疇の指標
cmin(I;g) 入力データI(f)が帰属するg回目の組み分けの範疇の指標
N Total number of learning data held in the storage unit G Variable for specifying the upper limit number of times of performing sequential grouping A (n, f) The nth learning data held in the storage unit has F components (N = 1, 2,... N, f = 1, 2 to F)
B (g, c, f) The data representing the c-th category created at the time of the g-th grouping and having the same components as the storage unit C (g) The category created at the time of the g-th grouping Total number M (g, c) Total number of indices of learning data attributed to the cth category of the gth grouping D (g, c) g + 1th grouping belonging to the cth category of the gth grouping The total number of categories m (g, c, i) The i-th learning data index (i = 1, 2 to M (g, c)) belonging to the c-th category of the g-th grouping
d (g, c, k) The index of the category of the g + 1th grouping belonging to the cth category of the gth grouping (k = 1, 2 to D (g, c))
dis (n, g, c) Distance between learning data A (n, f) and representative data B (g, c, f)
dis (I; g, c) Distance between input data I (f) and representative data B (g, c, f) cmin (n, g) The gth data to which the nth learning data held in the storage unit belongs Index of grouping category cmin (I; g) Index of gth grouping category to which input data I (f) belongs
1 センサ部
3 A/D変換器
4 信号処理装置
5 特徴抽出部
6 解析判定部
9 表示部
10 演算処理部
20 アレイ状採音センサ装置
21 シート状軟質支持体
22 空洞(穴)
23 マイクロホン
25 押えバンド
DESCRIPTION OF SYMBOLS 1 Sensor part 3 A / D converter 4 Signal processing apparatus 5 Feature extraction part 6 Analysis determination part 9 Display part
10 Arithmetic processing section
20 Arrayed sound sensor
21 Sheet-like soft support
22 Cavity (hole)
23 Microphone
25 Presser band
Claims (3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016146990A JP6299053B2 (en) | 2016-07-27 | 2016-07-27 | Arrayed sound collection sensor device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016146990A JP6299053B2 (en) | 2016-07-27 | 2016-07-27 | Arrayed sound collection sensor device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012147530A Division JP6056101B2 (en) | 2012-06-29 | 2012-06-29 | Shunt stenosis diagnosis support system and method, arrayed sound collection sensor device, and sequential subdivided self-organizing map creation device, method and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018020736A Division JP6458973B2 (en) | 2018-02-08 | 2018-02-08 | Shunt stenosis diagnosis support system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016209623A JP2016209623A (en) | 2016-12-15 |
JP6299053B2 true JP6299053B2 (en) | 2018-03-28 |
Family
ID=57549169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016146990A Expired - Fee Related JP6299053B2 (en) | 2016-07-27 | 2016-07-27 | Arrayed sound collection sensor device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6299053B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6293938B1 (en) | 2017-02-08 | 2018-03-14 | 日本航空電子工業株式会社 | Film surface sound reception type sound sensor module |
JP7067741B2 (en) * | 2018-04-20 | 2022-05-16 | 国立大学法人浜松医科大学 | Blood flow sound sensor |
US12097012B2 (en) * | 2018-10-04 | 2024-09-24 | ONiO AS | Sensor system and method for continuous and wireless monitoring and analysis of respiratory sounds, heart rate and core temperature in organisms |
JP7132816B2 (en) * | 2018-10-10 | 2022-09-07 | 大和ハウス工業株式会社 | Joint condition determination system |
JP7199957B2 (en) * | 2018-12-21 | 2023-01-06 | 株式会社小野測器 | microphone array |
CN111142072B (en) * | 2020-01-09 | 2022-07-29 | 上海索辰信息科技股份有限公司 | Microphone array optimization method for sound source localization |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5236883A (en) * | 1975-09-19 | 1977-03-22 | Shiyouzou Yoshimura | Device for screening cardiac sound |
JPS5631119Y2 (en) * | 1977-03-25 | 1981-07-24 | ||
JPS63153044A (en) * | 1986-12-17 | 1988-06-25 | 三井造船株式会社 | Cardiac sound source searching apparatus |
JPS6434327A (en) * | 1987-07-31 | 1989-02-03 | Terumo Corp | Blood flow sound collecting apparatus |
US7998091B2 (en) * | 2005-11-23 | 2011-08-16 | 3M Innovative Properties Company | Weighted bioacoustic sensor and method of using same |
US20110137209A1 (en) * | 2009-11-04 | 2011-06-09 | Lahiji Rosa R | Microphone arrays for listening to internal organs of the body |
-
2016
- 2016-07-27 JP JP2016146990A patent/JP6299053B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016209623A (en) | 2016-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6056101B2 (en) | Shunt stenosis diagnosis support system and method, arrayed sound collection sensor device, and sequential subdivided self-organizing map creation device, method and program | |
JP6299053B2 (en) | Arrayed sound collection sensor device | |
Thiyagaraja et al. | A novel heart-mobile interface for detection and classification of heart sounds | |
EP2440139B1 (en) | Method and apparatus for recognizing moving anatomical structures using ultrasound | |
US8992435B2 (en) | System and method for classifying a heart sound | |
CA2595924A1 (en) | Analysis of auscultatory sounds using voice recognition | |
Omarov et al. | Artificial Intelligence in Medicine: Real Time Electronic Stethoscope for Heart Diseases Detection. | |
Martinez-Alajarin et al. | Efficient method for events detection in phonocardiographic signals | |
Singh et al. | Short unsegmented PCG classification based on ensemble classifier | |
Ghosh et al. | Automated heart sound activity detection from PCG signal using time–frequency-domain deep neural network | |
JP2010029434A (en) | Vasoconstriction level determination program, recording medium, information terminal device, vasoconstriction level determination system and vasoconstriction level determination method | |
Riaz et al. | A novel embedded system design for the detection and classification of cardiac disorders | |
Rahmandani et al. | Cardiac sound classification using mel-frequency cepstral coefficients (MFCC) and artificial neural network (ANN) | |
US20210090734A1 (en) | System, device and method for detection of valvular heart disorders | |
Alexander et al. | Screening of heart sounds using hidden Markov and Gammatone filterbank models | |
Shokouhmand et al. | Diagnosis of peripheral artery disease using backflow abnormalities in proximal recordings of accelerometer contact microphone (ACM) | |
JP6458973B2 (en) | Shunt stenosis diagnosis support system and method | |
Sengur et al. | A hybrid method based on artificial immune system and fuzzy k-NN algorithm for diagnosis of heart valve diseases | |
Andreou et al. | Mapping the cardiac acousteome: An overview of technologies, tools and methods | |
Narváez et al. | Classification of heart sounds using linear prediction coefficients and mel-frequency cepstral coefficients as acoustic features | |
Altaf et al. | Systematic Review for Phonocardiography Classification Based on Machine Learning | |
KR102294354B1 (en) | The system for diagnosing arrhythmia signs | |
Arora et al. | Health of things model for classifying human heart sound signals using co-occurrence matrix and spectrogram | |
Mishra et al. | Detection of heart murmurs for imbalanced dataset using adaptive synthetic sampling approach | |
Patidar et al. | Detection of septal defects from cardiac sound signals using tunable-Q wavelet transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6299053 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |