[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015514456A - 患者音を処理するための方法および装置 - Google Patents

患者音を処理するための方法および装置 Download PDF

Info

Publication number
JP2015514456A
JP2015514456A JP2015502020A JP2015502020A JP2015514456A JP 2015514456 A JP2015514456 A JP 2015514456A JP 2015502020 A JP2015502020 A JP 2015502020A JP 2015502020 A JP2015502020 A JP 2015502020A JP 2015514456 A JP2015514456 A JP 2015514456A
Authority
JP
Japan
Prior art keywords
cough
pneumonia
sound
patient
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015502020A
Other languages
English (en)
Other versions
JP6435257B2 (ja
Inventor
ウダンサ・アール・アベイラトネ
ヴィナヤク・スワンカール
ユサフ・アムルロー
Original Assignee
ザ ユニバーシティ オブ クィーンズランド
ザ ユニバーシティ オブ クィーンズランド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2012901255A external-priority patent/AU2012901255A0/en
Application filed by ザ ユニバーシティ オブ クィーンズランド, ザ ユニバーシティ オブ クィーンズランド filed Critical ザ ユニバーシティ オブ クィーンズランド
Publication of JP2015514456A publication Critical patent/JP2015514456A/ja
Application granted granted Critical
Publication of JP6435257B2 publication Critical patent/JP6435257B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0823Detecting or evaluating cough events
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/003Detecting lung or respiration noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B7/00Instruments for auscultation
    • A61B7/02Stethoscopes
    • A61B7/04Electric stethoscopes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Detecting, measuring or recording devices for evaluating the respiratory organs
    • A61B5/0803Recording apparatus specially adapted therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Pulmonology (AREA)
  • Biophysics (AREA)
  • Acoustics & Sound (AREA)
  • Epidemiology (AREA)
  • Physiology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Surgical Instruments (AREA)

Abstract

患者音を処理するように計算デバイスを動作させる方法であって、特徴を前記患者音のセグメントから抽出するステップと、抽出した特徴および所定の基準に基づいて、セグメントを咳嗽音または非咳嗽音として分類するステップと、咳嗽音として分類された患者音のセグメントに基づいて、計算デバイスの制御下で、疾患関連状態の診断をディスプレイ上に提示するステップとを含む方法。

Description

第1の態様では、本発明は、患者の咳嗽音を検出するための自動化された方法および装置に関する。第2の態様では、本発明は、咳嗽音などの患者音から疾患状態を診断するための方法および装置に関する。
従来技術の方法、装置、または文献への言及はいずれも、それらが誰でも知っている一般的な常識の一部を形成したもしくは形成するという証拠または承認を構成すると見なされるべきではない。
咳嗽は、誤って吸い込まれた、または感染症によって体内で生産された異物を気道から取り除くための身体の防御機構である[1]。咳嗽は、5歳未満の小児の主な死亡原因である、喘息および百日咳ならびに肺炎などの呼吸器疾患の範囲における一般的な症状である。このグループでは年間に160万人以上が肺炎により死亡すると推定されており[2]、症例の97%以上[3]が開発途上国で発生する。世界保健機関(WHO)はまた、これらの国々では、百日咳は子供が罹患する主な病的状態の1つになっており、毎年推定5,000万の症例が発生し、300,000人が死亡することについて報告した[4]。
咳嗽は呼吸器疾患ではよく見られ、重要な臨床症状と考えられるにもかかわらず、咳嗽を評価する標準的な方法はない。一般的な診察セッションでは、医師は、自然咳嗽または随意的咳嗽の症状が何回か発現したことを聞いて、咳嗽の「湿潤度(wetness)」などの定性的情報を得ることができる。そのような定性的情報は、呼吸器疾患の診断ならびに治療に極めて有用である。しかしながら、人による分析には、作業者の先入観が入るという欠点があり、主観的な成果がもたらされる。
診察セッション中、医師はまた、所与の時間間隔にわたる咳嗽イベントの発生の回数などの、咳嗽に関する定量的情報も求めることができる。この情報は、咳嗽の性質(たとえば、急性、慢性)および重症度を決定するため、ならびに治療の有効性を監視するために使用可能である。しかしながら、この情報を得るために、医師は、患者または彼らの世話をする人の主観的報告に大きく依存する。特に小児期の疾患において、咳嗽の数を計数することが可能な自動化されたデバイスが大いに必要とされている。より重要なことに、肺炎、百日咳、および喘息などの疾患の診断を容易にするために、長期にわたる小児の記録から咳嗽イベントを自動的に抽出することが可能な技術が必要とされている。
自動咳嗽計数システム(たとえば、Hull Automatic Cough Counter(HACC)[5]、Leicester Cough Monitor(LCM)[6]、LifeShirt[7]、VitaloJAK[8]、およびPulmoTrack[9])を開発するために、いくつかの手法が行われている。これらのデバイスの性能は、さまざまである。HACCは、(80%、96%)の感度および特異度を主張する[5]。LifeShirt、Pulmotrack、LCM、およびVitalojakの数字はそれぞれ、(78%、99%)、(94%、96%)、(85.7%、99.9%)、および(97.5%、97.7%)である[6、10〜13]。これらのデバイスは、音の強さに依存した技法に依拠し、記録状態の変化および使用される特定の器具の影響を受けやすい。本発明者らの知っている限りでは、どの市販デバイスも小児集団に関して試験していない。
小児、特に乳幼児に関する咳嗽記録は、さらにいくつかの困難を伴う。乳幼児は、要求に応じて随意的咳嗽を行うことができない。小児集団をターゲットとする方法は、対象となる期間にわたって記録された自然咳嗽を使用することが可能であるべきである。小児の記録では、泣くこと、声を出すこと、および喉音発生が多く見られ、咳嗽音と混ざる。したがって、大人を対象として開発された技術は、小児での使用に最適である可能性が低い。小児からの咳嗽記録における別の問題は、咳嗽音の強さが変化することである。小児の重症肺炎などの疾患によって、咳嗽音の振幅が劇的に低下することがある。健常者でさえも、咳嗽音が、大きな咳嗽からほとんど聞こえない咳嗽までにわたる広い動的範囲を有することがある。この状況では、強さに基づく技法は、現場での使用に対する信頼性を低くし得る。性能は、使用される特定の音捕捉機器、校正状態、および測定プロトコルにも左右される。
LifeShirt、Vitalojak、およびPulmotrackなどの既存の市販咳嗽計数デバイスは、接触センサを用いる。接触センサの使用は、いくつかの利点を有することができるが、接触センサは、いくつかの欠点も持つ。介在する筋系は、接触センサを使用して記録される咳嗽の帯域幅をひどく減少させ、自由空気システムはこの影響を受けない。接触センサは、非接触(自由空気)マイクロホンと比較して、空中を伝搬する背景音に対して強い。しかしながら、接触センサは、組織および骨を通って伝導される音の影響をより受けやすく、センサの移動による偽の摩擦音も問題となり得る。感染症では、器具の接触による患者の交差汚染を回避するために、複雑な取組みが必要とされる。そのうえ、小児被験者では、接触センサはまた、患者が不快感を感じるために取り付けが困難なこともある。
咳嗽音は、気道の状態に関する極めて有用な情報を伝える。しかしながら、既存のデバイスでは、イベントの存在のみを検出する(「咳嗽検出」)ことはできるが、さらなる分析のために咳嗽イベントを自動的に抽出する(「咳嗽セグメンテーション」)ことはできない方法を使用する。したがって、既存のデバイスは、咳嗽の計数に限定される。咳嗽セグメンテーションは、咳嗽検出機能に加えて、各咳嗽イベントの正確な開始ならびに終了についての認識を必要とする。咳嗽間の間隔、咳嗽の持続時間、および咳嗽の振幅は、呼吸器疾患に関連する情報を伝えることができることが知られている[14]。
症状に咳嗽が含まれる疾患の1つは肺炎である。肺炎は、世界中の幼児の主な死因である。肺炎は、毎年、5歳未満の子供の死亡の19%以上を占める。肺炎は貧困病であり、栄養失調および貧弱な医療施設と強く関連する。その結果、肺炎による子供の死亡は、発展途上国で極めて多い。肺炎はまた、世界中至る所で高齢者の間でも問題である。
肺炎は肺の感染症と定義され、肺胞内に炎症細胞および分泌物が蓄積される。肺炎の一般的な症状としては、咳嗽、呼吸困難、発熱、頭痛、食欲不振、鼻汁、および喘鳴がある。重症肺炎症例では、乳児は呼吸に苦しみ、痙攣、皮膚蒼白、意識喪失、低体温、および昏睡状態となり得る。
肺炎は、診断が困難な疾患である。現在の診断方法としては、臨床検査(たとえば、身体的徴候、胸部聴診)、生化学検査(たとえば、喀痰分析、酸素飽和度)、および医用画像(たとえば、胸部X線、場合によってはX線CT)がある。
現在の診断方法に関する問題は何であるか
胸部X線(CXR)は、肺炎を診断するための一般に利用可能な参照標準と見なされる。しかしながら、CXRは標準的な方法ではない。疾患の初期段階では、または疾患がCXRでは容易に見られない肺の一部に関わるとき、肺炎は、CXRのみを使用して診断するのが困難なことがある。さらに、時には、CXR結果が、CXRでは肺炎に似ていることがある肺の瘢痕化またはうっ血性心不全により、紛らわしい場合がある。X線CTの方がより良好な転帰をもたらし得るが、X線CTは、発展途上国では三次医療病院ですら広く利用できない。喀痰検査は、検査室での培養を必要とし、最短で2〜3日かかることがあり、これにより、喀痰検査は初期診断には遅すぎるものになる。肺炎を引き起こす病原体の多くがもともと健常者の咽喉に存在するので、喀痰検査陽性は、必ずしも肺炎の存在を示すものではない。したがって、喀痰検査は、主に、すでに患者に対して開始されている特定の抗生物質の感受性を確認するために行われる。臨床検査は、聴診器による胸部聴診とともに、臨床の場において肺炎の初期診断で使用されている第一線の手法である。X線は、利用可能なとき、診断を確認するために使用され得る。
上記で説明した方法のいずれも、肺炎が猛威をふるっている世界の辺境における大量展開に利用可能ではない。これらの方法は高価で、資源を大量に消費し、これらの方法を実行するには、訓練を受けた医療従事者が必要である。
これらの問題を克服するために、世界保健機関(WHO)は、資源が乏しい世界の僻地で小児の肺炎を診断する一組の非常に単純化されたガイドラインを策定した[参考文献3]。これらのガイドラインによれば、呼吸困難または咳嗽を呈する小児は、頻呼吸(速い呼吸)を有する場合、肺炎と診断される。速い呼吸は、2か月未満の乳児では60回以上の呼吸、2か月から12か月の乳児では呼吸数50以上/分、12か月から5歳の小児では呼吸数40以上/分と定義される[参考文献3、4]。胸部のへこみ(in-drawing)、皮膚蒼白、および意識喪失は、重症肺炎を示すことがあり、WHOの定める危険な兆候にも入る。このシステムは、現場での実施がより容易であり、診断の高い感度を有する(疾患を呈する約90%の患者が捕捉される)ように設計される。しかしながら、WHOのガイドラインは、診断の特異度が十分でない。肺炎に罹患していない多数の患者も肺炎を有するとして選び出される。WHOアルゴリズムの特異度は約20%であることが知られている。
WHOのガイドラインは、死亡率を1年あたり小児160万人まで減少させる助けとなっているが、この方法にはいくつかの問題が残っている。その特異度が低い[参考文献6]ために、肺炎に罹患していない多数の小児が抗生物質を不必要に服用している。この結果、集団的な抗生物質耐性から生じる治療失敗がもたらされる。肺炎が風土病である多数の地方では、マラリアなどの疾患もよく見られる。肺炎とマラリアは両方とも発熱、速い呼吸、および咳嗽という症状を共有し、肺炎に関するWHOのアルゴリズムは、誤診および治療の遅延につながり得る。抗生物質を必要としないいくつかの他の疾患/病状(COPD、喘息、肺水腫、肺癌など)は、肺炎に類似した臨床的特徴を呈することがある。
WHO基準の特異度を改善するために、Cardosoら[参考文献6]は、肺炎の診断に発熱の存在を含めることを提案した。Cardosoらは、発熱を追加することによって、診断特異度が著しく(最大50%)改善されることを示した。何人かの他の研究者は、過去に、小児肺炎の診断におけるWHO基準の精度を評価した。Harariら[参考文献7]は、頻呼吸を含むいくつかの変数について研究し、185名の小児においてどの臨床徴候が肺炎のX線所見を最も良く予測するか判定した。Harariらは、頻呼吸(子供<12か月の場合は呼吸数(RR)50≧呼吸/分、1歳以上の場合はRR≧40回の呼吸/分)のみを有する肺炎を予測因子として診断する際、73%の感度および64%の特異度を報告した。胸部のへこみを頻呼吸に追加すると、特異度を犠牲にして(6%低下した)、感度が4%向上した。鼻翼呼吸、発熱、2日を超える睡眠不足の咳嗽などの他の臨床症状と同様に、感度および特異度は20から90%の間までさまざまである[参考文献6〜10]。高感度は特異度を犠牲にして達成され、逆も同様である。
本発明の第1の態様の目的は、咳嗽音を識別するための改善された方法を提供することである。
そのうえ、本発明のさらなる態様の目的は、特定の疾患状態たとえば肺炎、喘息、および鼻咽頭炎の咳嗽音からの診断のための方法を提供することである。
本発明の第1の態様によれば、患者音を処理するように計算デバイスを動作させる方法であって、
特徴を前記患者音のセグメントから抽出するステップと、
抽出した特徴および所定の基準に基づいて、セグメントを咳嗽音または非咳嗽音として分類するステップと
を含む方法が提供される。
患者音は、好ましくは、患者の音記録を含む。
本発明の好ましい一実施形態では、特徴を患者音記録から抽出するステップは、セグメントを処理して所定の統計パラメータを決定するステップを含む。
たとえば、好ましい一実施形態では、所定の統計パラメータは、セグメントに対応するメル周波数ケプストラム係数「Mk」を含む。
所定の統計パラメータは、ガウスモデルからのセグメントの逸脱を示す非ガウス性スコア「Nk」も含んでよい。
特徴を患者音記録から抽出するステップは、前記セグメントに対するフォルマント周波数「Fk」を推定するステップも含むことができる。
好ましくは、特徴を抽出するステップは、セグメントに対してゼロ交差数「Zk」を決定し、それによって関連する周期性を検出するステップを含む。
本発明の好ましい一実施形態では、特徴をセグメントから抽出するステップは、ウェーブレットシャノンのエントロピー値「Sk」を決定するステップと、尖度(vk)、ピッチ(pk)、バイスペクトルスコア(Bk)、対数エネルギー(Ek)を計算するステップとを含む。
好ましくは、方法は、前記Mk、前記Nk、前記Fk、前記Zk、前記Sk、前記vk、前記pk、前記Bk、および前記Ekに基づいて、正規化された特徴ベクトルfkを算出するステップを含む。
好ましくは、セグメントを咳嗽音または非咳嗽音として分類するステップは、抽出した特徴、または正規化した特徴ベクトルなどの、抽出した特徴から導き出されたパラメータをあらかじめ記録された咳嗽音のデータセットの特徴と比較することによって、セグメントが所定の基準を満たすかどうか判断するステップを含む。
セグメントを分類するステップは、テスト音セグメントに対応するテスト特徴の後続の分類のためのあらかじめ記録された咳嗽音のデータセットの特徴を用いて人工ニューラルネットワークを訓練し、それによって、テスト音セグメントを非咳嗽クラスまたは咳嗽クラスに分類するステップを含むことができる。あるいは、他のパターン分類器たとえばロジスティック回帰分類法を使用してもよい。
好ましくは、方法は、咳嗽音として分類される患者音記録のセグメントに基づいて疾患関連状態を診断するステップをさらに含む。
方法は、いくつかのセンサからの患者データをモニタリングするステップをさらに含むことができる。
たとえば、方法は、呼吸検出センサ、温度センサ、運動センサ、EEGセンサ、酸素レベルセンサのうち1つまたは複数からの患者データをモニタリングするステップを含むことができる。
方法は、咳嗽音を「湿性咳嗽」音または「非湿性咳嗽」音であるとしてカテゴリ化するステップを含むことができる。
方法は疾患状態を診断するステップを含むとき、
患者音の咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化するステップと、
カテゴリ化された罹患咳嗽イベントの割合を示す罹患咳嗽指数を計算するステップと、
罹患した咳嗽指数が所定の要件を満たす場合に、患者を特定の疾患状態に罹患していると見なすステップとを含む
ステップをさらに含む。
所定の要件は、前記罹患咳嗽指数が所定のしきい値を超えることを含むことができる。
好ましくは、咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化するステップは、分類手順により咳嗽イベントから抽出した特徴を処理するステップを含む。たとえば、分類手順は、ロジスティック回帰モデルの適用を含むことができる。あるいは、分類器は、訓練した人工ニューラルネットワークの適用を含むことができる。
本発明の別の態様によれば、前記記録のセグメントを咳嗽音または非咳嗽音としてカテゴリ化するように患者音記録を処理するための前述の方法を実行するプロセッサのための命令を含む電子メモリと通信する少なくとも1つの電子プロセッサを含む計算デバイスが提供される。
たとえば、計算デバイスは、前述の方法を実行するようにプログラムされた携帯電話または同様のデバイスを備えることができる。
本発明のさらなる態様によれば、前述の方法を実行するための電子プロセッサによる実行のための有形の命令を持つ機械可読媒体が提供される。
本発明のさらなる態様によれば、患者の患者音を処理し、それによって患者の特定の疾患状態の診断を示すように前記音を変換するように計算デバイスを動作させる方法が提供される。たとえば、疾患状態は肺炎を含むことができる。
好ましくは、患者音は、患者の音記録を含む。
好ましくは、診断のための方法は、
音記録の咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化するステップと、
カテゴリ化された罹患咳嗽イベントの割合を示す罹患咳嗽指数を計算するステップと、
罹患した咳嗽指数が所定の要件を満たす場合、患者を特定の疾患状態に罹患していると見なすステップと
を含む。
たとえば、所定の要件は、罹患嗽指数が所定のしきい値を超えることであってよい。
方法は、運動センサ、EEGセンサ、酸素レベルセンサ、呼吸検出センサ、および温度センサのうち1つまたは複数からの患者データをモニタリングすることを含むことができる。
好ましくは、咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化するステップは、分類手順により咳嗽イベントから抽出した特徴を処理するステップを含む。
たとえば、分類手順は、モデルの適用ロジスティック回帰を含むことができる。あるいは、分類器は、訓練した人工ニューラルネットワーク、ベイズ分類器、隠れマルコフモデル(HMM)に基づく分類器、サポート・ベクター・マシン(SVM)などの適用を含むことができる。一実施形態では、分類器に対する訓練事例は、喘息、気管支炎、鼻咽頭炎、ならびに喘鳴、扁桃咽頭炎、うっ血性心臓疾患、喉頭軟化症、異物吸入などの訴えに苦しむ患者から記録された非肺炎性音を含む疾患を有している。
本発明の種々の実施形態は、ナーシングホームなどの老人介護施設における収容者の(接触センサのない)長期モニタリングを包含する。肺炎は老人の間で重篤な問題であり、できる限り速く治療を開始するのが最も良いことが理解されよう。医師の介入を必要とする呼吸状態はいずれも、職員によって緊急に留意されるべきであり、本明細書で説明する方法の適用は、この要件を満たすのに役立つ。そのような方法は、本発明の一態様の一実施形態によれば、たとえばAIDS患者などの慢性疾患患者(免疫系または呼吸器系の疾患を有する)に適用され得る。
本発明の種々の態様の実施形態は、病院環境の内外で特定の専門家の診察を待っている呼吸器患者のトリアージを行うことを包含する。
本発明の別の態様によれば、前記記録のセグメントを咳嗽音または非咳嗽音としてカテゴリ化するように患者の音記録を処理するための前述の方法を実行するプロセッサのための命令を含む電子メモリと通信する少なくとも1つの電子プロセッサを含む計算デバイスが提供される。
本発明のさらなる態様によれば、前述の方法を実行するための電子プロセッサによる実行のための有形の命令を持つ機械可読媒体が提供される。
本発明の別の態様によれば、患者音をデジタル電気形式で処理するように計算デバイスを動作させる方法であって、特徴を前記患者音のセグメントから抽出するように計算デバイスの少なくとも1つのプロセッサを動作させるステップと、
抽出した特徴および所定の基準に基づいて、セグメントを咳嗽音または非咳嗽音として分類するステップと、
計算デバイスによるさらなる処理のために、咳嗽または非咳嗽に分類されるとセグメントに有形にマークを付けるステップと
を含む方法が提供される。
本発明の好ましい特徴、実施形態、および変形形態は、当業者にとって本発明を実行するための十分な情報を提供する、以下の「発明を実施するための形態」から識別されよう。「発明を実施するための形態」は、先行する「発明の概要」の範囲をいかなる形であれ限定するものと見なされるべきではない。「発明を実施するための形態」は、以下のいくつかの図面を参照する。
本発明の一実施形態による咳嗽処理システムのブロック図である。 本発明の一態様の好ましい一実施形態による方法の流れ図である。 TDNNの構造を示す図である。TDNNは、入力層、隠れ層(hidden layer)、および出力層からなる。TDNNの入力は、d個の連続した特徴ベクトルfkである。一例として、d=5の場合、入力は{fk-4,j, fk-3,j, …, fk,j}である。すべてのサブブロックを分類するために、入力は、サブブロックによって右にシフトされる。 咳嗽セグメントの持続時間の平滑化された確率密度関数(τs)を示すグラフである。これは、0.373秒の平均と、0.144秒の標準偏差とを有する。 雑音低減プロセスを示すグラフである。(A)は記録における典型的な信号、(B)はハイパスフィルタの出力、(C)は出力スペクトル減算フィルタである。開発したフィルタは、信号のSNR(信号対雑音比)を著しく改善した。 ランダムに選択したメル周波数ケプストラム係数の確率密度関数(pdf)を示すグラフである(表示のために平滑化されている)。重複はあるが、係数M(4)は、咳嗽と器械の音を区別するために使用可能であり、係数M(9)は咳嗽と泣き声を区別するために使用可能であり、M(11)は咳嗽と発声を区別するために使用可能である。 最初の5つのフォルマント周波数のpdf(F(1)〜F(5))を示すグラフである。フォルマント周波数の分布は重複しているが、これらのフォルマント周波数は、特にF(1)、F(3)、およびF(5)に関して、異なる平均、歪度、および尖度を有する。 エネルギー、ゼロ交差数(ZCR)、シャノンのエントロピー、および非ガウス性スコア(NGS)のpdfを示すグラフである。NGSは、発声付きの咳嗽と泣き声を区別するために使用可能であり、ZCRは咳嗽と器械の音を区別するために使用可能である。音の対数エネルギーのプロファイルとシャノンのエントロピーのプロファイルは類似しているが、異なる歪度および尖度を有する。 咳嗽セグメント識別を示すグラフである。(A)雑音低減プロセスからの音声信号、(B)TDNNからの出力信号、(C)平滑化プロセス後の出力信号、および(D)しきい値処理プロセス後の出力信号。しきい値処理からの信号は、誤セグメント(たとえばFDセグメント)を含んでよい。 セグメンテーションアルゴリズムからの入力信号および出力信号を示す図である。破線は、各咳嗽セグメントの開始および終了を判断可能なセグメンテーション出力を示す。誤セグメントFD(図9(D)に示される)は、その持続時間が持続時間の基準(τminsmax)から外れているので、破棄される。アルゴリズムは、発語(speech)(SP)と重複するCG3を含むすべての咳嗽音を正常にセグメント化する。 咳嗽音と泣き声の音を含む信号のセグメンテーション出力(破線)を示すグラフである。セグメンテーションアルゴリズムは、2つの咳嗽音を正常にセグメント化し、泣き声の音を破棄した。泣き声の少しの部分のみが、誤って咳嗽セグメントと検出された。 咳嗽特徴を使用した肺炎診断のための提案するアルゴリズムを表すブロック図である。 サンプルとなる肺炎性咳嗽音を示すグラフである。咳嗽イベントの開始および終了は、咳嗽イベントを注意深く聞いた後、手動でマークを付けた。 デジタルハイパスフィルタの振幅特性を示すグラフである。肺炎分類方法。 湿性咳嗽音と乾性咳嗽音の分類のための提案するアルゴリズムを表すブロック図である。 200の訓練およびテストデータセットに対して達成された感度および特異度のヒストグラム。選択された特徴のみが、LRモデル設計に使用された。 疾患状態たとえば肺炎の診断のための、本発明のさらなる実施形態による方法の流れ図である。 図17の方法の適用に関連する被験者の詳細を示すグラフである。 (a)肺炎性咳嗽、(c)喘息性咳嗽、(e)気管支炎性咳嗽、および(g)細気管支炎性咳嗽の各波形およびその対応するパワースペクトログラムの代表例である。 本発明の一態様のさらなる好ましい実施形態による自動咳嗽分類手順のブロック図である。 2名の患者からの乾性咳嗽波形および湿性咳嗽波形の代表例を示す図である。 咳嗽音に対するSNRのヒストグラムである。 咳嗽音に対するSNRのヒストグラムである。 図20に示される方法の分析および考察で使用される統計情報を示す図である。
I.咳嗽分類のための第1の方法
2.1.咳嗽記録プロトコル
咳嗽記録システムは、ハイパーカージオイドビーム(hypercardiod beam)パターン(モデルNT3、RODE(登録商標)、Sydney、Australia)を有する低雑音マイクロホン53、55、続いて信号収集のための前置増幅器52およびA/D変換器51(モデルMobile Pre-USB、M-Audio(登録商標)、CA、USA)からなる。Mobile Pre-USBの出力は、ラップトップコンピュータ52のUSBポート50に接続された。マイクロホンから被験者42の口までの公称距離は50cmであった。実際の距離は、被験者の移動により40cmから100cmまでさまざまであってよい。しかしながら、提案する方法は音の強さに左右されず、結果は口からマイクロホンの距離と無関係であった。44.1kサンプル/秒のサンプリングレートおよび16ビット分解能を保持して、最良の音質を得た。
コンピュータシステム52は、後で簡潔に説明するコンピュータプログラムを実行しながら、本発明の種々の態様の好ましい実施形態による咳嗽/非咳嗽分類システムおよび/または咳嗽に基づく診断システムとして動作する。パーソナルコンピュータシステム52は、ポインティングデバイス60およびキーボード58の形態をしたデータエントリデバイスと、ディスプレイ56の形態をしたデータ出力デバイスとを含む。データエントリデバイスおよびデータ出力デバイスは、中央処理ユニット70を含む処理ボックス54に結合される。ディスプレイ56は、本明細書で説明する方法によって実施される種々の分類手順の結果を示すためのヒューマンマシンインターフェースを備える。たとえばスマートフォンまたはプリンタなどの他のヒューマンマシンインターフェースも可能である。
中央処理ユニット(CPU)70は、機械によって読取り可能でありCPUによって実行可能な命令のプログラムを有形に実施する記憶デバイスとインターフェースする。これらの記憶デバイスには、メインボード68を介した、RAM62、ROM64、二次記憶デバイスすなわち磁気ハードディスク66、および光ディスク読取り装置48がある。パーソナルコンピュータシステムはまた、外部ADCモジュール51との通信のためのUSBポート50を含み、外部ADCモジュール51は、マイクロホン53および55からの信号を前置増幅、フィルタ処理、デジタル化する。マイクロホンは、ベッド40に横たわっている被験者42からの音、たとえば咳嗽音を捕捉する。
二次記憶デバイス66は、中央プロセッサ70による実行のための有形命令を持つ磁気データ記憶媒体である。これらの命令は、一般的には、光ディスク46などのインストールディスクからインストールされるであろうが、また、メモリ集積回路内に提供されてもよいし、コンピュータネットワークを介してリモートサーバインストール環境から提供されてもよい。命令は、RAM62の電子メモリにロードされるソフトウェア製品72を構成する。実行されると、命令は、コンピュータシステム52を、特に、後で簡潔に説明するいくつかの方法のうち1つを実施するために、咳嗽に基づく診断システムおよび/または患者の咳嗽音もしくは非咳嗽音分類器として動作させる。
ソフトウェア製品72のプログラミングが本発明の方法を考慮して簡単であることは、当業者には了解されよう。その実施形態について、次に説明する。以下の方法では、種々の変数が操作される。方法を実施するためのコンピュータシステム52の動作中、CPU70の対応するレジスタが増分され、データが、メインボード68上でエッチングされた導電性バスに沿って伝わる電気信号によって二次記憶装置66およびRAM62に書き込まれ、これらから取り出されることが了解されよう。したがって、コンピュータシステム52が、次に説明する方法を実施するソフトウェア72を実行すると、コンピュータシステム52の内部で物理的効果および変形が生じる。
示されている計算デバイスは、パーソナルコンピュータ、たとえばデスクトップコンピュータまたはラップトップコンピュータを備えるが、本発明の実施形態は他の計算デバイスを包含する。たとえば、本発明の実施形態は、専用の医用デバイスと、アプリケーションすなわち本明細書で説明する方法のうち1つまたは複数を実施するための「アプリ」がロードされたスマートフォンとを包含する。スマートフォンの場合、電話機のオンボードマイクロホンは、患者音をモニタリングするために使用されてもよいし、そのためのモニタリングのために、1つまたは複数の高品質外部マイクロホンがスマートフォンに接続されてよい。本明細書で説明する方法によれば、スマートフォンは、患者音のデジタル記録を遠隔コンピュータに送信することができ、次に、このコンピュータが、セルラー電話ネットワークおよび/またはインターネットを介して、デジタル記録を処理する。処理の結果は、スマートフォンに返送されて、そのスマートフォン上に表示されてもよいし、あるいは、遠隔コンピュータの制御下で電子ディスプレイデバイス上に表示されてもよい。
計算デバイスはまた、たとえば運動センサ、EEGセンサ、酸素レベルセンサ、呼吸検出センサ、温度センサなどのいくつかの患者センサにインターフェースされ得る。これらのセンサからのデータも、本明細書で説明する種々の方法の実行中に使用されてよい。
この作業(work)のデータは、Sardjito病院、Yogyakarta、Indonesiaにて、呼吸に関する訴えのために入院している小児患者から記録した。本研究者らは、自然な病院環境で、音記録システムをベッドの側に置く(図1を参照されたい)以外に、この環境をまったく変更することなく、データを収集した。記録は、2種類の病室(1人部屋および2人部屋)において日中に行われた。研究プロトコルは、Sardjito HospitalおよびUniversity of Queensland、Australiaから、倫理面での許可を受けた。
データベースは、5〜64か月の年齢範囲にわたる小児の咳嗽音から構成された。組み入れ基準および除外基準の詳細については、Table 1(表1)を参照されたい。
医師が被験者を診察し、初期治療が開始された後、記録を開始した。各被験者に対する記録の持続時間は、4〜6時間であった。Table 2(表2)では、被験者の人口統計学的詳細が示されている。
2.2.咳嗽セグメンテーション方法
離散化された音記録すなわちr[n]は、次のように、咳嗽音sc[n]、暗雑音b[n]、および非咳嗽音snc[n](たとえば、発語、泣き声、発声、器械の動きなど)の和としてモデル化可能である。
r[n] = sc[n] + snc[n] + b[n] (1)
本発明の一実施形態は、sc[n]を記録r[n]から抽出するための自動化された方法を提供する。方法全体のブロック図が図2に示されている。これは、4つの主なプロセスすなわち(a)雑音低減、(b)データのサブブロックからの特徴抽出、(c)データのサブブロックの、咳嗽群(CG)クラスおよび非咳嗽群(NG)クラスへの分類、ならびに(d)データのCG/NGに分類された連続したサブブロックを適切に群に分けることによる咳嗽セグメント識別/形成からなる。
セクション2.2.1〜2.2.4において、方法の詳細な説明を提供する。
2.2.2 音声信号の特徴抽出
このセクションでは、咳嗽音発生のモデルおよび特徴抽出ユニットの詳細について説明する。
(a)咳嗽音モデリング
生理学的な考慮事項に基づいて、咳嗽音は、4つの異なる相すなわち吸気、収縮、圧縮、および呼出の組合せと見なされることが多い[1]。吸気相は、息を吸い込むことによって始まり、声門、声門上部括約筋(supraglottis sphincter)、または両方の閉鎖によって終わる。収縮相では、呼吸筋のグループが声門構造に対して収縮し、肺胞内圧、胸腔内圧、および声門下気道内圧(sub glottis airway pressure)の著しい上昇によって特徴づけられる圧縮相につながる。呼出相では、声門がすばやく開き、続いて、大きな圧力勾配下で空気の迅速な吐き出しが行われる。肺から排出された空気の迅速な移動によって、呼吸器系の異なる部位から寄与が生じる咳嗽音が生成される。咳嗽音発生のメカニズムには、音声生成のメカニズムとの類似点がいくつかある。
ii)フォルマント周波数:発語では、フォルマント周波数は声道共鳴の特性を示し、いびき音解析では、フォルマント周波数は上気道の共鳴を示す。本発明者らは、咳嗽/呼吸音では、フォルマントは、気道全体の共鳴を伝え得ると仮定した。たとえば、肺の細気管支の振動により生じる喘鳴音は、咳嗽音におけるより高い周波数のフォルマント(共振周波数)に寄与することができる。この作業では、最初のP個のフォルマント周波数F(p)k = {F(p)k, p = 1, 2, …, P}を推定した。LPCスペクトルおよびそのパラメータは、レビンソン-ダービンの再帰を介してユール-ウォーカーの方程式を解くことによって決定した[22]。
B(i)〜B(v)に記載されている特徴は、各サブブロックsk[n]に対して計算される。各特徴において、Mk、Fk、Zk、Sk、およびNkの各特徴における最小値および最大値を計算した。これらの値を使用して、-1〜1の範囲に対応する特徴の成分を正規化した。
次に、sk[n]の正規化されたパラメータベクトルfkをfk = {[Mk Fk Zk Sk Nk]T}と定義した。次に、j番目の患者の全体的な特徴行列Gjを、Gj = {f1,1, f1,2,…, fk,j, …, fK,J}によって得る。
図2に示されるように、本発明の一実施形態による咳嗽セグメンテーション法は、あらゆるデータサブブロックsk[n]を、特徴ベクトルfk,jに基づいて咳嗽群(CG)および非咳嗽群(NG)という重複しない2つのカテゴリに分類することによって始まる。
セクション2.2.3では、本発明者らがサブブロックレベルにおけるこのCG/NG分類のために作成したパターン分類スキームについて説明する。
2.2.3 サブブロックの咳嗽クラスおよび非咳嗽クラスへの分類
本発明の一実施形態では、サブブロックレベルにおけるCG/NGパターン分類器として、人工ニューラルネットワーク(ANN)を利用する。本発明者らは、強さ、持続時間、または湿潤度に関係なく異なる種類の咳嗽音を認識する人間の脳の能力によって示唆されたANNを使用した。さらに、ANNは、1組の所与の例を用いた教師あり学習のプロセスに基づいて、非線形決定境界を使用したデータの分類が可能であるので、いくつかの利点を有する。ANNは、従来の方法と比較して限られた訓練データセットで機能する、実績のある機能を有する[25]。この作業では、音声認識アプリケーションにおいて成功している時間遅れニューラルネットワーク(TDNN)[26]として知られる特定の形態のANNを使用した。TDNNは、入力特徴セットの時間的変換[26]を減ずるデータサブブロックsk[n]を分類することが可能である。
TDNNを使用したサブブロックの分類は、訓練、検証、およびテストからなるプロセスによって実行された。これらのプロセスを完了するために、データセットを準備し、訓練パラメータを選択し、TDNNを訓練して、分類結果を検証した。これらのプロセスの詳細については、以下のサブセクションで説明する。
(a)TDNNデータセットの準備。
記録からの咳嗽音および他の音からなるデータセットを作成した。このデータセットには、665の咳嗽音がある。このデータセットを3つの重複しないランダムなパーティションに分割し、これらのパーティションをそれぞれ訓練(TDS)、検証(VDS)、およびテスト(TeDS)と名付ける。データベースからのTDS、VDS、およびTeDSの比率は、(それぞれ40%、30%、および30%)である。第m番目のそのようなランダムなパーティションを記号Cm、m = 1, 2 … Mによって示し、ここで、Mはこの作業で使用されるランダムなパーティションの総数である。すべての分類データセットを、独立して解析した。ランダムサブサンプリング法を使用するK分割交差検定法を適用することによって、データセットを効果的に使用した。
分類データセットの情報咳嗽セグメント場所を使用することによって、行列Wk = [w1, w2, …, wk, …, wK, wk = Π{CGクラス}]を定義し、ここで、wkはΠ{CGクラス}の引数が正しいときは「1」によって満たされ、それ以外の場合は「0」によって満たされる、sk[n]の各サブブロックのクラスである。行列Wkは、訓練プロセスの目標として使用した。Wkの次元はGjと同様であることに留意されたい。
(b)TDNN訓練プロセス
本研究で使用されるTDDNは、Table 3(表3)で規定されるパラメータを有する。
ニューロンの数の選択を決定するために使用される手順については、セクション3.4で説明する。
入力層Li、隠れ層Lh、および出力層Loからなる、netcと示されるTDNNのネットワークを構築した。線形関数およびシグモイド関数が、層間の活性化関数として選択された。初期重みおよびバイアスを決定するために、Nguyen-Widrow初期化法を使用した。
訓練プロセス中にニューロンのバイアス項および重みを更新するために、レジリエントバックプロパゲーション(RPROP)アルゴリズム[27]を用いた。RPROPは、ニューロンの重みを更新するための学習速度を決定する問題を克服するのに成功した。勾配降下アルゴリズムでは、学習速度が遅すぎると、計算時間が増加するが、学習速度が速すぎると、妥当な誤差を持つ最適点に達する前に発振が発生する。逆に、RPROPでは、適応値を使用して重みを更新し、したがって、最大最適をすばやく達成することが可能である。このアルゴリズムの詳細は[27]に記載されている。
訓練プロセスでは、停止基準すなわち(a)訓練データの平均二乗誤差(mse)が10-5未満である、b)検証誤差が増加している、および(c)訓練性能における10-10の最小勾配に達した、を定義した。訓練が早く停止されない限り、ニューラルネットワークは、最大100エポックまで訓練することが認められている。
II.結果および考察
3.1 咳嗽セグメント持続時間
本発明者らの臨床データでは、目視観測と聴取を組み合わせたプロセスによって、各咳嗽セグメントの持続時間(τs)を識別した。τsという平滑化された確率密度関数が図4に示されている。咳嗽セグメントは、(τmin = 0.18秒およびτmax = 11.6秒)という最小持続時間と最大持続時間を有する。咳嗽セグメントの平均および標準偏差は(μs = 0.373、σs = 0.144)である。セグメンテーションプロセスでは、τminおよびτmaxを基準の1つとして使用して、予測されるセグメントを咳嗽音または非咳嗽音と決定する。このプロセスについてセクション3.5で説明する。
3.2 雑音低減
制御不能な環境で記録することによって、データは暗雑音をより受けやすくなる。記録において、雑音の2つの別個の成分すなわち(a)10Hz未満の低周波雑音および(b)白色ガウス雑音(図5(A)を参照されたい)を識別した。この図から、記録が、1.54〜5.92dBの範囲に及ぶ不良な信号対雑音比(SNR)を有することがわかる。これらの雑音を減少させるために、10Hzのカットオフ周波数を有する4次のバターワースハイパスフィルタ(HPF)と、パワースペクトル減算(PSS)フィルタを使用した。
これらのフィルタは、SNRを著しく改善した。HPFはSNRを11.98〜17.19dBに増加させ(図5(B))、PSSはSNRを12.62〜17.44dBにさらに増加させた(図5(C))。これらの結果から、開発したフィルタは、暗雑音を減少させ、記録信号のSNRを改善することが可能であることが示される。
3.3 音特徴の特性
セクション2.2.2で説明したように、sk [n]の各サブブロックに対して特徴ベクトルfk = {Mk Fk Zk Sk Nk}を計算した。サブブロックサイズN = 882(20ミリ秒)を使用した。選択されたサブブロックサイズは、MFCCの特徴抽出の基本単位である。メルフィルタ統合に関与するサンプルが極めて少ないので、サイズ(たとえば10ミリ秒)が小さいと、一般的に結果の歪曲につながる。サイズが大きいと、ワード誤り率を増加させる傾向がある[28]。
特徴ベクトルfkは、22の要素すなわち14のMkという係数(対数エネルギーと第0〜12番目のケプストラム係数を含む)、5つのFkという係数、ならびにZk、Sk、およびNkという1つの係数を含む。これらの特徴の特性を発見するために、CGクラスおよびNGクラスにおける特定の音の確率密度関数(pdf)を算出した。したがって、この作業では、NGは広範囲の非咳嗽音を表す。本発明者らは、泣き声(CY)、発声(VCと短縮され、たとえば、発語、一般的には乳児の声)、および器械の音(ASと短縮され、たとえば、金庫のドア(door bank)、ワゴン、ベッドからの音)などの、最も優勢な音を選んだ。
fkの各特徴の平滑化されたpdfを図6〜図8に示す。これらの図からわかるように、特徴(Mk、Fk、Zk、Sk、およびNk)の分布は、咳嗽音と他の音との間で重複している。しかしながら、特徴の各成分は一意の分布を有する。
図6は、MFCC(M(1)、M(4)、M(9)、およびM(11))のうちランダムに選択した要素のpdfを示す。図5(A)および図5(B)から、CGクラスとASクラスにおけるM(1)のpdfは異なる平均を有する(μ =0.31対0.18)ことがわかるであろう。図5(C)のM(9)のpdfは、CGがCYよりも低い平均を有する(それぞれμ= -0.01対μ= -0.13)ことを示す。
図7は、フォルマント周波数のpdfを示す。F(1)、F(3)、およびF(5)のフォルマント周波数の統計学的分布(平均、標準偏差、歪度、および尖度)はCGとASとの間で区別可能である。CG、CY、VC、およびASにおけるF(2)の分布は類似しているように見えるが、CGが最も小さい平均(-0.06)を有する。さらに、TSにおけるF(4)の分布は、クラスの中で最も小さい平均(-0.003)を有する。
図8には、CG、CY、VC、およびASのNGS指数が示されている。NGSは、CGをVCおよびCYから弁別する可能性を有する(図7(D))。同様に、図6(B)から、ZCRはCGをASから弁別するために使用可能であることがわかるであろう。
特徴のpdfから、TDNNの入力として単独で使用してCG/NGクラスを分類することが可能である優勢な特徴がないことが示される。したがって、特徴の各成分の最大の利益を得るために、これらを組み合わせ、d個の連続した特徴ベクトルをTDNNの入力として使用して、CG/NGクラスを分類した。
3.4 CG/NG分類におけるTDNNに基づく分析
この作業では、5つの連続した特徴ベクトル(d = 5)を使用した。したがって、入力層中のニューロンの数は(Li=110)である。出力層には、CGクラスまたはNGクラスを表す1つのニューロン(Lo=1)のみがある。Lhにおけるニューロンの数を決定するために、訓練プロセス中にいくつかの数のニューロンをテストした。
ネットワーク(netc)の性能を評価するために、以下の式によって定義される感度および特異度を計算した。
感度= TP/(TP + FN)×100 (12)
特異度= TN/(FP + TN)×100 (13)
ここで、TP =真陽性、TN =真陰性、FP =偽陽性、およびFN =偽陰性である。
Table 4(表4)では、Lhの異なる値に対するnetcの性能が示されている。
Table 4(表4)から、テスト事例(TeDS)では、隠れ層中に20のニューロンを有するnetcが最も高い感度および特異度(両方91.51%)を有することがわかるであろう。したがって、この考察の残りの部分では、ネットワークnetc(Li=110、Lh=20、Lo=1)を固定する。netc中のニューロンの数は、限定された計算リソースを有するシステムで使用されるのに十分なほど少ない。少数の層およびニューロンはまた、ネットワークの性能も改善して、CG/NG分類にとって最良のモデルを作成し、訓練で与えられるサンプルの記憶を回避する。
特徴のさまざまな組合せを使用した、サブブロックsk[n]の咳嗽(CG)クラスおよび非咳嗽(NG)クラスへの分類の性能をTable 5(表5)に示す。
テスト事例(TeDS)では、{Zk Shk Nk}を使用した分類結果から、最も低い感度および特異度(79.95および99.98)がそれぞれ示される。組合せ{Mk Fk}は、感度および特異度の89.37%を持つ、より高い結果を有する。反対に、{Mk Fk Zk Shk Nk}は、91.51%という最良の感度および特異度を達成した。次に、組合せ{Mk Fk Zk Shk Nk}をTDNNの入力として調査した。
M =14、(Cm, m =1, 2 … 14)の場合のTDNNの性能がTable 6(表6)に示されている。
各実現値(realization)Cm, m = 1, 2, …, 14に対する分類成果を計算し、感度および特異度の平均および標準偏差(それぞれ91.13±0.0073%および91.14±0.0073%)を推定した。
次に、咳嗽セグメント候補内の第1の要素をセグメントの先頭と、最後の要素をセグメントの最後尾と定義した。セクション3.3および3.4から、セグメント内の各要素が20ミリ秒サブブロックのクラスを表すことがわかっている。したがって、セグメントの先頭と最後尾との間の要素の数に20ミリ秒を乗算することによって、セグメントの持続時間を計算することができる。各セグメント(τs)の持続時間を計算し、セクション3.1で得られた最小咳嗽持続時間および最大咳嗽持続時間に対してτsをテストした。持続時間が境界に含まれる(τmin < τsmax)咳嗽セグメント候補のみを咳嗽セグメントとして選択した。このプロセスの例示が図10に示されている。この図から、提案する方法は、咳嗽(CG1〜CG6)が異なる強さおよび持続時間を有していても、これらの咳嗽を効果的にセグメント化することがわかるであろう。さらに、咳嗽音CG3は発語と重複しているが、方法は、対応する咳嗽音を抽出することが可能である。図9(D)に示される誤セグメント(FD)も除去されている。
図11は、泣き声の音と混在する咳嗽音を含む一般的な信号におけるセグメンテーション方法の出力を示す。方法は、2つの咳嗽音を信号から正常に抽出し、1つの誤セグメントのみを泣き声の長い持続時間から検出した。
M =14, Cm, m = 1, 2, …, 14)の場合のセグメンテーション方法の性能をTable 7(表7)に示す。
各実現値Cm, m = 1, 2, …, 14に対するセグメンテーション成果を計算し、感度および特異度の平均および標準偏差(それぞれ95.07±3.43%および94.76±4.02%)を推定した。結果から、サブブロックプロセスからの咳嗽セグメントの形成によって、サブブロック分類の成果に比べて感度および特異度が約4%改善されることも示される。提案する方法により、泣き声、発声、および他の環境音などの音を正常に減じた。
この作業では、インドネシアの小児病棟にいる小児からの咳嗽を、非接触センサを使用して記録した。本発明者らは、非接触センサは配備および感染症制御が容易であるので、この目的のために好ましいことに気付いた。
この作業は、先行研究によって放置されている区域である5.5歳未満の小児集団に注目した。その年齢範囲の小児は、呼吸器疾患により罹患しやすく、このことは高い罹患率および死亡率によって示される。したがって、この母集団からの信号を分析するための方法を作成する調査は極めて重要である。
肺炎/非肺炎および湿性/非湿性の咳嗽音分類方法
次に図12を参照すると、本発明のさらなる態様の好ましい一実施形態による方法を示すブロック図が示されている。図12に示される方法は、患者に関連する特定の疾患状態たとえば肺炎/非肺炎の分類の診断のために作成されたものである。本発明の一実施形態による分類方法のさらなる実施形態については、本明細書の最後で検討する。
臨床評価および組み入れ-除外基準
この作業のためのデータ収集環境は、Sardjito Hospital、Gadjah Mada University、IndonesiaのRespiratory Medicine Unitである。被験者の母集団は、呼吸器疾患の症状を有する人々を含む。同病院の一般病棟に入院している患者は、呈する症状について臨床医が評価した。すべての所見を、標準シートに記録した。所見としては、咳嗽の存在、鼻汁、発熱、呼吸困難、下痢などがある。臨床医はまた、体温、呼吸数、SpO2、および心拍数も記録した。
Table 8(表8)は、組み入れ基準および除外基準を列挙している。組み入れ基準を満たすすべての患者に接近した。インフォームドコンセントを行った。入院から最初の12時間以内の患者を募集した。インフォームドコンセントの後、連続音の記録が次の4〜6時間に行われた。
A.データ収集および記録システム。
音記録は、病院の一般成人病棟で行われた。他の5名の患者と部屋を共有する患者は、カーテンによって隔てられていた。患者には家族が付き添っていた。主治医は定期的に患者を訪れていたが、患者に関連する機密情報は記録されなかった。記録に存在する一般的な雑音は、シーリングファン、足音、発語、ドアがバタンと閉まる音、ワゴンの移動、および部屋の外からの他の不明瞭な雑音によるものであった。
咳嗽音の音記録は、2つのシステムすなわち
i)コンピュータ化されたデータ収集システム-ハイパーカージオイドビームパターンを有する低雑音マイクロホン(モデルNT3、RODE、Sydney、Australia)のマッチドペアを有する、忠実度の高い業務用前置増幅器およびA/D変換器ユニット、(モデルMobile-Pre USB、M-Audio、California、USA)。
(ii)携帯用記録システム-2つの精密なコンデンサマイクロホンを持つ高級で軽量な携帯用2-AAバッテリ電源式オーディオレコーダー(Olympus LS-11)。
を使用して行われた。
記録のセットアップの両方において、16ビット分解能を持つサンプリングレートの44.1kHzを使用した。マイクロホンから患者の口までの公称距離は50cmであったが、患者の移動により、40cmから70cmまで変化してよい。
病院から臨床診断情報により支援されたデジタル音データを受け取った。データは完全に非特定化され、厳密なパスワード制御制度の下で、セキュアなファイアウォールの後ろに記憶された。データのアクセスは、検査主任によって個別に許可された特定の研究者に限定された。
B.咳嗽音データからの特徴計算
図12は、肺炎/非肺炎の分類のために作成されたアルゴリズム全体のブロック図を示し、図15は、湿性/非湿性咳嗽音の分類のために作成されたアルゴリズムのブロック図を示す。
図13は、2つの咳嗽イベントを持つ咳嗽音データのサンプルを示す。咳嗽イベントの開始および終了は、注意深く聞いた後、手動でマークを付けた。咳嗽イベントの開始および終了の手動スコアリングの後、以下のステップに従って、数学的特徴を咳嗽イベントデータから計算した。
[C1]. x[k]は、離散時間咳嗽音の第k番目のサンプルを示す。デジタルハイパスフィルタを使用してx[k]をフィルタ処理し、y[k]を得る。z変換におけるフィルタの伝達関数は、(1)によって得られる。図14は、B = [1〜0.85]およびA = [1]を有するフィルタ応答を示す。
湿性/非湿性咳嗽音の分類では、y[k]を「n」個の等しいサイズのセグメントに分割する。yn[k]は、y[k]の第n番目のセグメントを表す。
肺炎/非肺炎の分類では、このサブセグメンテーションは考慮しない。
[C2]. 以下の特徴を、肺炎分類の場合はフィルタ処理された咳嗽セグメントy[k]から、湿性/非湿性の分類の場合は各フィルタ処理されたサブセグメントyn[k]から計算する。
2.フォルマント周波数-人間の声の分析では、フォルマントは人間の声道の共鳴と呼ばれる。フォルマントは、LPCスペクトルに音響信号の振幅ピークとして現れる。最初の4つのフォルマント周波数(F1、F2、F3、F4)を特徴セットに含めた。音声分析および音響分析における過去の研究から、F1〜F4は上気道の種々の音響的特徴[30]に相当することが示されている。本発明者らは、LPCスペクトルを捕捉するピークによってF1〜F4を計算した。この作業では、本発明者らは、LPCスペクトルに対する第14番目の順序を使用して、そのパラメータを、Levinson-Durbin再帰手順[31]に加えてYule-Walker自己回帰法を介して決定された。
4.ゼロ交差(Zcr)-ゼロ交差の数を各咳嗽イベントに対して計数した。
6.メル周波数ケプストラム係数(MFCC)-MFCCは、音声分析システム[32]において一般に使用される。MFCCは、周波数の非線形メル尺度上のコサイン変換に基づく対数パワースペクトルの音響信号の短期パワースペクトルを表す。12のMFCC係数を特徴セットに含めた。
特徴計算の後、各咳嗽セグメントに対して、肺炎分類の場合、21の特徴(MFCCから12;4-フォルマント周波数;NGS、LogE、Zcr、Kurt、およびバイスペクトルからそれぞれ1つ)を含む特徴ベクトルを形成し、湿性/非湿性咳嗽分類の場合は、63の特徴(MFCCから36;12-フォルマント周波数;NGS、LogE、Zcr、Kurt、およびバイスペクトルからのそれぞれ3つ)を含むベクトルを取得する。
C.肺炎分類モデルおよび特徴最適化
本発明者らは、咳嗽に基づく特徴を使用した肺炎分類のための3ステップからなるプロセスに従った。このプロセスは次の通りである。
ステップ1.第1のステップでは、各咳嗽イベントを2つのカテゴリすなわち「肺炎性咳嗽」または「非肺炎性咳嗽」のうち1つに分類した。この問題を解決するために、各咳嗽イベントに対して特徴ベクトルを形成して、咳嗽イベントを2つのカテゴリに分けることが可能なモデルを導出する。Table 9(表9)に示される異なる特徴セットを有する異なるモデルを導出した。
咳嗽分類では、ロジスティック回帰統計モデルを使用した。このモデルは一般化された線形モデルであり、いくつかの予測因子(独立変数)を使用してカテゴリイベント(従属変数)の確率を推定する。
この作業(肺炎分類モデリング)では、従属変数Yは、肺炎性咳嗽では「1」(Y=1)、非肺炎性咳嗽では「ゼロ」(Y=0)に等しいと仮定する。
モデルは、次のように、独立変数(すなわち特徴セット)を仮定して確率Y=1(すなわち「肺炎性咳嗽」のカテゴリに属する咳嗽イベント)を推定するロジスティック回帰関数を使用して、導出される。
(10)では、β0は切片と呼ばれ、β1、β2などはそれぞれ独立変数(特徴)x1、x2の回帰係数と呼ばれる。
MATLAB統計ツールボックスバージョン7.5を使用して、ロジスティック回帰モデルを設計した。特徴は、最終モデルにおいて分類を容易にする最良の独立変数(低い「ρ」値を有する変数)のみを含むように選択された。次に、最終モデルを使用して確率Pを推定し、確率しきい値Pthを使用して、各咳嗽イベントを2つのカテゴリのうちいずれかに属するとして分類した。
ステップ2.第2のステップでは、患者ごとに、「肺炎性咳嗽」の数を合計し、「肺炎性咳嗽指数(PCI)」と呼ばれる指数を、(9)を使用して計算した。
ステップ3.第3のステップでは、所定のしきい値PCIth(特異度>75%を保持しながら高感度に対して最適化された)をPCIに適用して、患者を2つのクラスすなわち「クラスI肺炎」および「クラスII非肺炎」に分類した。
湿性/非湿性咳嗽分類モデル
湿性および非湿性咳嗽分類に関して、ロジスティック回帰統計モデルを再び使用した。この場合、従属変数Yは、湿性咳嗽の場合は「1」(Y=1)、非湿性咳嗽の場合は「ゼロ」(Y=0)に等しいと仮定する。
モデルは、次のように、(9)および(10)を使用して独立変数(すなわち特徴セット)を仮定して確率Y=1(すなわち「湿性咳嗽」のカテゴリに属する咳嗽イベント)を推定するロジスティック回帰関数を使用して、導出される。次に、特徴は、最終モデルにおいて分類を容易にする最良の独立変数(低い「ρ」値を有する変数)のみを含むように選択された。次に、最終モデルを使用して確率Pを推定し、確率しきい値を使用して、各咳嗽イベントを2つのカテゴリのうちいずれかに属するとして分類した。
III.3.肺炎分類結果
A.データベースおよび臨床診断
81名の被験者の音記録(最小2、最大12、平均して6.6±2.14咳嗽イベント)からの総計541の咳嗽イベントを解析した。81名の被験者のうち、50名は肺炎患者、31名は非肺炎患者であった。喘息-11、気管支炎-8、鼻咽頭炎-6、およびその他(喘鳴、扁桃咽頭炎、心臓疾患、喉頭軟化症(larangomalaysia)、異物吸入)-6などの疾患を有する非肺炎患者を含めた。すべての疑わしい肺炎患者に対して胸部X線を施行した。胸部X線を施行しなかった19名の患者のうち、8名は喘息患者、5名は鼻咽頭炎患者、2名は気管支炎患者、4名は他の疾患患者であった。Table 10(表10)は、患者データベースの年齢および性別の統計を示す。
セクション2.Dのステップ1のロジスティック回帰を使用して咳嗽分類モデルを導出するために、データベースを2つのグループすなわち訓練事例およびテスト事例にランダムに分割した。モデルを検証するために、200の異なる訓練データセットおよびテストデータセットを81名の被験者のデータベースから生成した。各訓練事例およびテスト事例は相互に排他的であり、それぞれ56名および25名の被験者を有した。
B.肺炎診断のためのWHO基準対臨床診断
Table 11(表11)は、81名の被験者からなるデータベースに対する、WHO基準を使用した肺炎診断と臨床的に診断された肺炎例の分割表を示す。
C.肺炎性咳嗽指数に基づく肺炎診断
Table 12(表12)は、表9に示す設計された4つのロジスティック回帰モデルを使用して咳嗽イベントを2つのカテゴリに分ける際の訓練分類結果およびテスト分類結果を示す。
Table 13(表13)は、肺炎性咳嗽指数を使用した肺炎分類結果を示す。Table 12(表12)によれば、LRモデル5は、咳嗽イベント分類に対して最良の分類結果を示す(平均感度および平均特異度はそれぞれ85.6±8%および80.1±12%であった)。しかしながら、肺炎分類タスクでは、LRモデル4の性能はLRモデル5よりも良かった。LRモデル4は、それぞれ86.2±9.6および84.3±15の平均感度および特異度を達成した。
IV.湿性/非湿性分類の結果
A.訓練データセットおよびテストデータセット
46名の被験者からの総計178の咳嗽イベントを解析した。データベース内の被験者の男女比は1:1であった。被験者の平均年齢は3歳1か月であった。慢性咳嗽、喘息、および他の呼吸器疾患を専門とする、小児疾患の分野において20年以上の臨床および研究の経験を持つ小児科医が、178の咳嗽イベントを、注意深く聞いた後で湿性と非湿性に手動で分類した。この手動分類を「参照標準」と見なし、これと、設計したLRモデルによる自動分類の結果を比較した。
178の咳嗽イベントのうち、参照標準によって分類されるように、82は湿性、96は非湿性であった。咳嗽イベントの70%(124の咳嗽イベント)をモデルの訓練に、30%(54の咳嗽イベント)をモデルのテストに使用した。咳嗽イベントの訓練およびテストは、乱数生成器を使用してランダムに選んだ。モデルを検証するために、200の異なる訓練データセットおよびテストデータセットを178の咳嗽イベントから生成した。
B.分類結果
モデルを訓練するためにすべての咳嗽特徴を使用するとき、LRモデルを使用した湿性/非湿性分類の平均感度および平均特異度は、テストデータセットに対してそれぞれ74.8±9%および69.9±9.4%であった。選択した咳嗽特徴のみを使用したとき、平均感度値および平均特異度値は79±9%および72.7±8.7%に急増した。特徴最適化の後、63の特徴から合計で22の特徴を選択した。選択した特徴は、BSG、LogE、およびKurtからそれぞれ1つ;NGSから2つ;ZCRから3つ;フォルマント周波数から5つ;MFCCから9つであった。
Table 14(表14)は、訓練データセットおよびテストデータセットに対する平均感度、平均特異度、平均精度、およびカッパ(kappa)の結果を示す。
LRモデルと参照法との間のカッパ一致度(カッパ一致度)は、すべての咳嗽特徴を使用したとき0.45±0.12、選択した咳嗽特徴のみを使用したとき0.52±0.1であった。
図16は、200の訓練およびテストデータセットを使用して得られた感度および特異度を表すヒストグラムプロットを示す。
Table 15(表15)は、200のLRモデルのうち最良のLRモデルの分割表を示す。この表は、90%の感度、80%の特異度、および0.71の高いカッパ一致度を有する。
次に、本発明の態様のさらなる好ましい一実施形態による第2の肺炎診断方法について説明する。
V.2.材料および方法 第2の肺炎診断方法
本発明の好ましい一実施形態の手法全体が図17に要約されている。この方法は、3つの主要な段階、すなわち、被験者からのデータの収集、パターン分類器の特徴および訓練の作成、ならびに技術の前向き検証および性能評価からなる。セクション2A〜2Cでは、これらのステップの詳細を提供する。
D.咳嗽音データベースの作成
この作業の臨床データ収集環境は、Sardjito Hospital、Gadjah Mada University、IndonesiaのRespiratory Medicine Unitである。Table 16(表16)は、被験者の組み入れ基準および除外基準を列挙したものである。
肺炎、細気管支炎、気管支炎、喘息、鼻咽頭炎などの急性呼吸器疾患の疑いのある患者を本研究に募集した。Gadjah Mada UniversityおよびUniversity of Queenslandの倫理委員会によって承認されたフォームを使用して、インフォームドコンセントを行った。入院から最初の12時間以内の患者を募集した。
小児臨床医が、呈する症状について患者を評価した。咳嗽の存在、鼻汁、発熱、呼吸困難、下痢などの所見はすべて、標準シートに記録した。データベースはまた、通常の人口統計学的情報および臨床的な検査(たとえば、胸部聴診、呼吸数、酸素飽和度測定、体温)ならびに臨床検査(たとえば、血液、喀痰分析)の結果を含んだ。本考察において肺炎診断に使用される参照標準は、臨床像、臨床検査、胸部X線、および疾患の臨床経過に基づいて医師によって提供される全体的な診断である。小児に対する放射線被曝を最小にするために、X線は、臨床的に肺炎の疑いのある被験者のみに対して、またはX線に対する明白な臨床上の必要性がある場合に、施行した。したがって、データベース内のすべての被験者がX線イメージングを受けるとは限らない。
初期の医学的評価の後で、呼吸器病棟の自然環境において音記録を行った。ベッドサイドのマイクロホン(Rode(登録商標)NT7またはOlympus(登録商標)LS11、44.1kHzのサンプリングレート)を使用して、各患者から6〜8時間の持続時間の音データレコードを収集した。口からマイクロホンまでの距離は、患者の頭部の位置に応じて40cmから70cmの間で変化することがある。発明者の目的は、口から記録デバイスまでの距離が診断で重要な役割を果たさないように、強さの変化に対してロバストな技術を開発することであった。
合計91名の患者(63名は肺炎被験者、28名は非肺炎被験者)を使用して、技術を開発および検証した。細気管支炎、喘息、気管支炎、咽頭炎、喉頭軟化症などの疾患は、非肺炎群にまとめられた(lump)。被験者の詳細は図18に示されている。本発明者らが自由に使えるデータセット全体を、2つの重複していない群すなわちモデル作成データセット(Dmd)と前向き検証データセット(Dpv)に分けた。これらの2つのデータセットは、互いから完全に独立していた。セットDmdおよびDpvは、咳嗽も被験者も共有していなかった。患者を、病院の呼吸器診療室への紹介の順序に基づいて各群に割り当てた。DmdおよびDpvはそれぞれ、Nmd=66名およびNpv=25名の被験者から構成された。
各被験者からの音データは、約6〜8時間または連続の記録を構成した。咳嗽音は、注意深い聴取プロセスの後で、手動でセグメント化された。咳嗽の自動識別のための承認された方法はなく、臨床作業ならびに研究文献において、手動解析が依然として標準的な方法(gold standard)として使用されている。図19は、(a)肺炎性咳嗽、(c)喘息性咳嗽、(e)気管支炎性咳嗽、および(g)細気管支炎性咳嗽の各波形および対応するパワースペクトログラムの代表例を示す。持続時間およびパワースペクトログラムの大きさにおける肺炎性咳嗽と他の咳嗽の間の明白な特性の違いがわかる。
E.特徴抽出およびパターン分類器設計
本セクションで説明する作業に、モデル作成データセットDmdを使用した。Cmdは、Dmd内の被験者からの咳嗽イベントの総数とする。本明細書で取る手法では、1つだけ取り出す(leave-one-out)モデル構築および検証プロセスを使用して、特徴を作成し、モデルパラメータを最適化する。このフレームワークでは、方法は、4つの主要な処理ステップ(図17を参照されたい)すなわち以下で説明するステップ1からステップ4において説明可能である。
第1のステップでは、特徴行列を計算する。第2のステップでは、ステップ1からの特徴行列を使用して咳嗽音を「肺炎性咳嗽」クラスと「非肺炎性咳嗽」クラスに分類するように自動分類器を設計する。第3のステップでは、最適な分類器を選択し、第4のステップでは、肺炎性咳嗽指数(PCI)と呼ばれる新しい指数を定義して、肺炎患者を識別する。
ステップ1:咳嗽特徴の抽出および増強
このステップでは、第1の目標は、肺炎診断アルゴリズムで使用される特徴を咳嗽音から抽出することである。Dmd内の各咳嗽イベントからの数学的特徴を、次のように計算した。
[1].xは、任意の咳嗽イベントからの離散時間音声信号を示す。
[2].xを、「n=3」のサイズの等しい重複していないサブセグメントにセグメント化する。文献19では、臨床医と科学者は同様に、咳嗽音が3相、すなわち(i)初期開放段(opening burst)、続いて(ii)雑音が多い気流、および最後に(iii)声門閉鎖からなると説明している。これらの相は咳嗽の品質に特有の異なる重要な情報を伝えることが示されている。これに基づいて、各咳嗽セグメントをn=3のサブセグメントに分割した。xiはxの第i番目のサブセグメントを表し、ここでi=1, 2, 3,…., nである。
[3].サブセグメントxiのそれぞれに対して、以下の特徴すなわちバイスペクトルスコア(BGS)、非ガウス性スコア(NGS)、最初の4つのフォルマント周波数(FF)、対数エネルギー(LogE)、ゼロ交差(ZCR)、尖度(Kurt)、および12のメル周波数ケプストラム係数(MFCC)を計算する。信号xiのエネルギーを表すMFCCの第0番目の係数を利用しないことに留意されたい
[4]. Dmd内のCmd個の咳嗽イベントすべてに対して、ステップ(i)〜(iii)を繰り返す
このプロセスによって、サブセグメントxiごとのサイズCmd×Cfの咳嗽特徴行列候補Mcが生成されるここで、Cf=63は咳嗽に基づく特徴を表し、CmdはデータベースDmd内の全咳嗽イベントである。
診断アルゴリズムの最も単純な形態において、咳嗽に基づいた特徴のみを使用して肺炎を診断する。しかしながら、複雑さの犠牲を最小限にしてアルゴリズムを改善するために使用可能ないくつかの簡単な臨床測定値の存在を認識している。資源の乏しい地域に対するWHOアルゴリズムすなわち表17では年齢および呼吸数を使用し、他の研究者らが発熱の存在を使用した。
これらのいずれも、単独でまたは組み合わせて、遠い地域における所望の診断性能を得られるが、これらの測定は、咳嗽由来の特徴を増強する可能性を有する。年齢をパラメータの1つとして使用するWHOアルゴリズムによる示唆を受けて、月齢をモデルでのパラメータ候補として使用した。また、発熱の有無を2値変数として使用した。WHOアルゴリズムでは、呼吸数を、肺炎を診断する際の主要パラメータとして使用する。本発明者らの作業では、肺炎における呼吸数上昇を捕捉するために、本発明者らが呼吸指数(BrI)と呼ぶ新しい尺度((1)を参照されたい)を提案する。
(1)では、BRは呼吸数、年齢は患者の月齢である。発熱は肺炎の一般的な症状であるが、肺炎に特有ではない。類似の所見は、呼吸数に対しても当てはまる。Table 18(表18)は特徴セット候補Fc={Cf, f1, f2, ….ff}を示し、ここで、Cfは咳嗽由来の特徴を表し、残りは、モデルに使用される増強された特徴を示す。
表18-セクション2-B[ステップ1]における特徴行列を形成するために使用される特徴の6つの異なる組合せ。本明細書では、印は、その特徴がモデル設計に含まれることを示す。呼吸指数は、記録された呼吸数から呼吸のしきい値を減算することによって算出した。
本発明者らのアルゴリズムにおける最後の特徴は、特徴候補のグループから導き出される。特徴選択、モデル作成、および検証の詳細は、以下でステップ2において説明する。
[ステップ2]特徴選択および自動分類器設計-ロジスティック回帰モデル(LRM)を好ましいパターン分類器として使用したが、他の分類器方法も適用可能であることは当業者には理解されよう。LRMは一般化された線形モデルであり、いくつかの独立変数を使用してカテゴリイベント(従属変数)の確率を推定する。この作業では、従属変数Yは、肺炎性咳嗽の場合は「1」(Y=1)、非肺炎性咳嗽の場合は「ゼロ」(Y=0)に等しいと仮定する。肺炎の診断分類を有する被験者から得られた咳嗽イベントは肺炎性咳嗽とラベルを付与され、その逆も同様である。モデルは、次のように、独立した咳嗽特徴(すなわちFc={Cf, f1, f2, ….ff})を仮定して確率Yを推定する回帰関数を使用して、導出される。
(2)および(3)では、f1, f2,…fFは特徴ベクトルFc(独立変数)の要素であり、β0は切片と呼ばれ、β1、β2などは独立変数の回帰係数と呼ばれる。Yから最適な決定しきい値λを選択するために(Yがλを上回る場合、咳嗽は肺炎性、そうでない場合は非肺炎性である)、受信者動作曲線(ROC)解析を使用した。
1つだけ取り出す交差検定(LOV)法をLRM設計に使用した。名前が示唆するように、LOV法は、1人を除く全患者からのデータを使用してモデルを訓練し、1人の患者からの咳嗽イベントを使用してモデルを検証することを含む。このプロセスは、Dmd内の各患者を検証データとしてまさしく1回使用するように系統的に繰り返された。このプロセスの終了時、Nmd個の異なるLRMモデルで終わる。設計したNmd個のLRMの性能を評価するために、感度、特異度、精度、陽性適中率(PPV)、陰性適中率(NPV)、コーエンのカッパ(K)統計量などの性能尺度を計算した。
(i)特徴選択:特徴選択は、ロバストな学習モデルを構築するのに関連のある特徴のサブセットを選択する技術である。理論上は、最適な特徴選択は、特徴のあらゆる可能なサブセットの全数探索を必要とする。しかしながら、多数の特徴に対して全数探索を行うために、最適な特徴選択は計算集約的で、実際的ではない。したがって、p値を使用して特徴の十分なセットを探索した。LRM設計では、p値は特徴ごとに計算され、その特徴がモデルの作成にどれほど大きく寄与したかを示す。重要な特徴は低いp値を有する。LRMのこの性質を使用して、訓練相中にモデル内で分類を促進する特徴(低いp値を有する独立変数)の妥当な組合せを選択した。Nmd個のLRMに対して、Fc特徴の平均p値を計算する。pthsによって与えられるしきい値よりも低い平均p値を有する特徴を選択する。Cf sは、Cfからの選択した咳嗽特徴のサブセットとし、Fc sは、選択した咳嗽特徴を有する特徴を増強することによって形成される特徴セット候補とする。
(ii)ロバストなLRM設計:サブセットFc sがわかると、それらの特徴を使用して、さらなる1つだけ取り出す検証プロセスに続いて、LRMの新しいセットをもう一度構築する。このプロセスの終了時、Fc sを入力特徴セットとして使用するNmd個の数のLRMがある。
[ステップ3]Nmd個のLRMからの良好なモデルの選択-選択した特徴Fc sを入力特徴として使用するLRM候補から、k-meansアルゴリズムに基づいて1つのモデルを最良モデルとして選択した。k-meansアルゴリズムにおいて、目標は、クラスタ内で中心からの距離の平方和が最小になるように、d次元空間内のq個のデータポイントをk個のクラスタに分割することである。直面する問題は、利用可能なNmd個のモデルから良好なモデルを選択することである。そうするために、d次元空間内のNmd個のモデルをk=2クラスタ、すなわち高性能モデルクラスタおよび低性能モデルクラスタに分割した。空間次元dを、モデルパラメータ+3つの性能尺度(感度、特異度、およびカッパ)に等しくなるように設定した。次に、高性能モデルのクラスタから、中心に対する最小の平均2乗誤差値を有する高性能モデルを選択した。Rfcは選択したLRMを表し、λRfcは、特徴の特定の組合せに対する、対応する確率決定しきい値(分類器の性能が最大になるようにROC曲線を使用して決定される値)である。
Rfcを選ぶと、モデルのすべてのパラメータを固定し、訓練プロセスを完全に終了する。次に、モデルRfcを最良のモデルとして使用して、各個別の咳嗽イベントを「肺炎性咳嗽」群または「非肺炎性咳嗽」群に分類する。
[ステップ4]肺炎性咳嗽指数-このステップでは、Dmd内の各Nmd=66名の患者に対して、以下の定義を使用して肺炎性咳嗽指数(PCI)を計算する。
肺炎性咳嗽指数(PCI)の定義:「P」は、1人の患者から記録および解析される咳嗽の総数とする。さらに、ステップ3で選択したLRM Rfcを使用して、「P」個の咳嗽のうち「Q」個を肺炎性咳嗽として分類する。次に、患者のPCI指数を
PCI = Q/P (4)
として計算する。
次に、ROC解析を使用して、しきい値PCIth(許容可能な特異度を保持しながら高感度に対して最適化された)を計算し、患者を2つのクラスすなわち「肺炎」および「非肺炎」に分類した。
F.Dpv上での選択したLRM RfcおよびPCIのテスト
セクション2-B[ステップ1]で説明した手順に続いて、データセットDpv内のNpv=25名の患者からの咳嗽イベントの音データを使用して、サイズCpv ×Cfの咳嗽イベント特徴行列Mc Dpvを計算する。CpvはDpv内の全咳嗽イベントであり、Cf = 63は咳嗽に基づく特徴を表す。選択した咳嗽特徴Cf sを有する臨床特徴を増強することによって、Mfc sDpvからMc Dpvを形成する。セクション2-B[ステップ3]で選択したLRM Rfcを使用して、Mfc sDpv内のデータをクラス「肺炎性咳嗽」と「非肺炎性咳嗽」に分類した。次に、(4)を使用して、Dpv内の各患者に対してPCIを計算する。セクション2-B[ステップ4]で計算したPCIthをPCIに適用し、PCI>PCIthの場合は患者を「肺炎」、そうでない場合は「非肺炎」として分類する。
PCIによる自動分類の結果を主治医である臨床医の結果と比較して、性能尺度を計算する。
D.データベースおよび臨床診断
N=91名の患者(男性48名、女性43名)からの音記録を使用した。被験者の平均年齢は3歳1か月(標準偏差は3歳11か月)であった。被験者の年齢範囲は、1か月から15年までさまざまであった。91名の被験者のうち、63名は肺炎患者、28名は非肺炎患者であった。非肺炎患者は、喘息、気管支炎、鼻咽頭炎、およびその他(喘鳴、扁桃咽頭炎、心臓疾患、異物吸入)などの疾患を有していた。65名の患者に対して胸部X線(CXR)を施行して、診断を確認した。CXRが行われなかった26名の患者のうち、8名は肺炎患者と臨床的に診断され、17名は非肺炎患者と診断された。図18は、データベース内の年齢および疾患カテゴリの分布を示す。
E.咳嗽音の特性
図4は、肺炎性咳嗽、喘息性咳嗽、気管支炎性咳嗽、および細気管支炎性咳嗽の各波形およびその対応するパワースペクトログラムの代表例である。持続時間およびパワースペクトログラムの大きさにおける肺炎咳嗽と他の咳嗽との間の明白な特性の違いがわかる。肺炎性咳嗽は持続時間が短く、広く広がったパワースペクトルは最大20kHzである。逆に、その他の咳嗽は持続時間が長く、パワースペクトルは最大15kHzである。肺炎性咳嗽の平均持続時間(n=401個の咳嗽を使用して0.26±0.7秒)は、他の咳嗽の平均持続時間(n=198個の咳嗽を使用して0.32±0.08秒)よりも著しく短い(両側t検定、ρ<0.005、t=-8.6786)。咳嗽音波形は、一般にクリーンであり、高い信号対雑音比(SNR)有する。Dmdの平均SNRは15.8±5.6db(最大= 28.05dbおよび最小= 2.08db)であり、Dpvの平均SNRは16.7±5db(最大= 26.7dbおよび最小= 7.9db)であった。
F.WHO基準に基づく肺炎診断
Table 19(表19)は、WHO基準を使用した肺炎診断と臨床的に診断された肺炎の分割表を示す。
共同体の場における肺炎診断のWHOガイドラインは、2か月から5歳の年齢群を有する小児用に設計されている18。「肺炎の徴候を有する2か月未満の乳児は、重症疾患の罹患または死亡のリスクが高いので、直ちに最も近い医療施設に回す」18。したがって、Table 19(表19)は、2か月〜5歳の年齢範囲に含まれる、データベース内の#68の被験者を使用して生成されている。WHO基準は、臨床的に確定された肺炎例を捕捉する際に83%という高い感度を達成したが、47%という不良な特異度を示した。
G.訓練/検証データセットに対して設計したモデルを使用した肺炎診断
N=91名の患者から、合計C=599の咳嗽イベントを解析した。平均して、患者につき6.6±2の咳嗽イベントを分析した(各患者あたり最小=2および最大=12)。セクション2-Aでは、N=91名の患者を2つのデータセットDmd(訓練/検証データセット)およびDpv(前向き研究データセット)に分割した。Dmdは、Cmd=440の咳嗽イベント(平均=6.7±2、最小=2、最大=12)を持つNmd=66名の患者からのデータを有する。Dpvは、Cpv=159の咳嗽イベント(平均=6.4±1、最小=5、最大=10)を持つNpv=25名の患者からのデータを有する。
特徴行列:セクション2-B[ステップ1]で示した方法に続いて、特徴行列Mcを計算した。n=3を使用して、各咳嗽セグメントを3つのサブセグメントに分割した。n=3を設定すると、(36のMFCC)+(12のFF)+(BSG、NGS、LogE、ZCR、およびKurtのうちそれぞれ3つ)からなる63の数学的特徴が各咳嗽イベントから得られた。臨床特徴を咳嗽特徴で増強して、6つの咳嗽イベント特徴行列Mfcを作成した。LOV法に続いて、Nmd=66個のLRMを設計した(DmdにNmd=66名の患者がいるので)。
特徴選択前のLRMを使用した肺炎性咳嗽分類:F1特徴の組合せ(咳嗽の数学的特徴のみ)の場合、咳嗽イベントを肺炎性咳嗽クラスと非肺炎性咳嗽クラスに分類した際の66のLRMに対する訓練の平均感度および平均特異度は81±1%であった。検証の感度および特異度はそれぞれ63%および52%であった。BrIを特徴として含めたとき、検証事例の感度および特異度はそれぞれ71%および55%に急増した。さらに、咳嗽の数学的特徴に加えて、すべての特徴、すなわち年齢、発熱の存在、およびBrIを訓練LRMに含めたとき、感度および特異度はそれぞれ、73%および62%にさらに増加した。Table 20(表20)は、特徴のさまざまな組合せを使用して咳嗽イベントを肺炎性咳嗽クラスと非肺炎性咳嗽クラスに分類する際のモデルの性能を示す。
特徴選択後のLRMを使用した肺炎性咳嗽分類:セクション2-B[ステップ2]で説明した手順に続いて、p値を使用して、Fc sのそれぞれに対する特徴を選択した。Table 6(表6)は、選択した咳嗽特徴および選択に使用したpthの詳細を示す。
Table 22(表22)は、咳嗽イベントを肺炎性咳嗽クラスと非肺炎性咳嗽クラスに分類した際の特徴選択後のモデルの性能を示す。
Table 22(表22)によれば、すべてのFcに対する特徴選択後にモデル性能が全般的に改善したことがわかる。咳嗽イベントからの数学的特徴のみを使用してモデルを訓練したF1 sの場合の検証の感度および特異度はそれぞれ69%および64%に増加し、K=0.31であった。それぞれ80%および73%という最良の感度および特異度は、F6 sの場合に達成された。
PCIに基づく分類:Dmdからのデータを使用して各Fc sに対してNmd=66の設計したLRMから、セクション2-B[ステップ3]で説明したk-mean方法を使用して、ロバストなモデルRfcを選択した。選んだモデルRfcおよびそのすべてのパラメータを、セクション2-Bのステップ[4]において使用するために固定した。セクション2-B[ステップ4]で示した定義を使用して、各患者に対してPCI指数を計算した。ROC解析によって、PCIthを選択して、PCIに対して適用し、患者を「肺炎」と「非肺炎」に分類した。表23は、6つの特徴の組合せFc sの場合の、PCIに基づく肺炎/非肺炎分類結果を示す。
すべての特徴の組合せは、86%というやや低い特異度を示したF3 sを除いて、90%よりも高い感度および特異度を達成した。咳嗽特徴のみを使用するF1 sは93%の感度および特異度90.5%を有し、K=0.83であった。
H.前向き研究データセットに対して設計したモデルを使用した肺炎診断
セクション2-B[ステップ3]で選択したモデルRfcを、Npv=25名の患者およびCpv=159の咳嗽イベントからなる完全に新しいデータセットDpvに対してテストした。両方、すなわち咳嗽イベントを肺炎性咳嗽と非肺炎性咳嗽に分類した際と、PCIを使用して非肺炎患者から肺炎患者を分離する際の性能に対して、モデルをテストした。Table 24(表24)は、咳嗽イベントを肺炎性咳嗽クラスと非肺炎性咳嗽クラスに分類した際の選択したLRM Rfcの性能を示す。
Table 25(表25)は、患者を肺炎性と非肺炎性に分類した際のモデルの性能を示す。
咳嗽分類の場合、モデルRf6(発熱の存在、年齢、およびBrIに加えて、選択した咳嗽特徴)が最良の分類を達成し、感度=88%および特異度=85%であった。咳嗽特徴のみを使用するRf1は、それぞれ83%および58%という感度および特異度を示した。肺炎患者と非肺炎患者を分ける際、上位3つの実行モデルはRf1、Rf3、Rf4、およびRf6であり、これらはいずれも0.7よりも高いカッパ一致度を持ち、かなりの一致度を示した。Rf1は、それぞれ94%および75%という高い感度および特異度を達成した。
VI.4.考察および結論-第2の肺炎診断方法
本発明の上記の実施形態は、咳嗽音を使用して肺炎を診断する自動化された手順を提供する。この方法は、最初に個々の咳嗽イベントを「肺炎性咳嗽」クラスと「非肺炎性咳嗽」クラスに分類し、次に、記録されたすべての咳嗽イベントに対して肺炎性咳嗽指数(PCI)を算出することに基づく。ある範囲の呼吸器疾患と診断された91名の小児患者からの599の咳嗽イベントに対して作業を行うことによって、本発明者らは、この方法は特異度を>85%で保持しながら感度>90%で肺炎を分類することが可能であることを示した。
本発明者らが認識している限りでは、この方法は、咳嗽音について注目した肺炎診断のための客観的モデルを作成する、世界で初めての試みである。結果から、資源の乏しい地方で肺炎を診断する際に咳嗽に注目した手法を利用する実行可能性が示される。そのうえ、咳嗽から導き出された特徴のみを使用して、75%の特異度で感度>90%を得た。咳嗽は、非接触型器具を用いて記録可能であり、本発明のアルゴリズムは、最小限の訓練を受けた人によって使用される準備ができた形で、スマートフォンなどのユビキタスプラットフォーム上で実施可能である。デバイスは、被験者との物理的接触を必要とせず、滅菌を簡単にし、現場で使用するために必要とするオペレータ訓練は最小限となる。最も単純なバージョンでは、本技術は、5〜10の咳嗽音を必要とし、診断を自動的かつ即時に提供する。そのようなシステムは、辺境における肺炎診断の分野でパラダイムシフトを起こすような新規性を持つと予想される。
提案する技術の簡単さおよびユビキタスデバイス上での低コスト実装の可能性によって、この手法は長期モニタリングで有用となる。この手法はまた、新しいワクチンならびに小児肺炎の管理戦略を開発する上で、かなりの戦略的価値を有する。世界の資源の限られた地方で実施された新しい肺炎ワクチンの臨床試験は、信頼性の高いツールが介入の有効性を測定することを必要とする。同じことが、大規模な母集団を標的とする新しい肺炎管理戦略の有効性を評価する際にも当てはまる。肺炎、特に、胸部X線ですら失敗する初期段階(非重症)疾患を診断するために標準的な方法を展開可能な分野はない4。既存のWHOアルゴリズムは、その診断性能が低いために制限される。アルゴリズムは、肺炎の可能性がある症例を捕捉する上で非常に有用な役割を果たすが、そうするコスト、低い特異度は、新しい介入の妥当性を評価することにおいて使用することを困難にする。
ロジスティック回帰を使用する自動咳嗽分類器
図20は、本発明の一実施形態による自動咳嗽分類プロセスのブロック図を示す。このプロセスは、4つの段階、すなわち、(A)データ収集プロセス、(B)咳嗽音データベースの作成およびスコア化を担当する専門家(expert scorer)による湿性/乾性クラスへの分類、(C)自動分類器の設計、(D)前向き咳嗽音データセット上での分類器のテストに分割される。セクションII-A〜セクションII-Dにおいて、方法の詳細について説明する。
A.データ収集
この作業のための臨床データ収集環境は、Sardjito Hospital、Gadjah Mada University、IndonesiaのRespiratory Medicine Unitである。Table 26(表26)は、被験者の組み入れ基準および除外基準を列挙したものである。
組み入れ基準を満たすすべての患者に接近した。Gadjah Mada UniversityおよびUniversity of Queenslandの倫理委員会によって承認されたフォームを使用して、インフォームドコンセントを行った。入院から最初の12時間以内の患者を募集した。初期の医学的評価の後で、呼吸器病棟の自然環境において、次の4〜6時間、音記録を行った。
音記録は、2つのシステムすなわち
1.コンピュータ化されたデータ収集システム-ハイパーカージオイドビームパターンを有する低雑音マイクロホン(モデルNT3、RODE、Sydney、Australia)のマッチドペアを有する、業務用前置増幅器およびA/D変換器ユニット(モデルMobile-Pre USB、M-Audio、California、USA)を備えた忠実度の高いシステム。Adobeの視聴ソフトウェアバージョン2を使用して、音データをラップトップコンピュータ上に記録した。-この種類の構成の具体例については、図1を参照されたい。
2.携帯用記録システム-2つの精密なコンデンサマイクロホンを持つ高級で軽量な携帯用2-AAバッテリ電源式オーディオレコーダー(Olympus LS-11)。
を使用して行われた。
両方の音記録システムにおいて、16ビット分解能(CD品質のレコーディング)を持つサンプリングレートの44.1kHzを使用した。マイクロホンから患者の口までの公称距離は50cmであったが、患者の移動により、40cmから70cmまで変化してよい。また、患者ごとに、最終診断ならびにすべての検査室での検査および臨床検査の結果を受け取った。
B.咳嗽音データセットおよびスコア化を担当する専門家による湿性または乾性への分類
Nを、音記録が使用された患者の数とし、Cを、N名の患者からの咳嗽イベントの総数とする。これらのC個の咳嗽イベントを、各患者の6〜8時間の音データによるスクリーニング後に、手動でセグメント化した。咳嗽イベントの開始および終了の自動マーキングのための承認された方法はない。依然として、手動マーキングが標準的な方法と見なされている。注意深く聞いた後、すべての咳嗽イベントの開始および終了を手動でマークした。
C個の咳嗽イベントを持つN名の患者を2つのデータセット、すなわち(i)DS1(モデル設計データセット)および(ii)DS2(前向き研究データセット)に分割した。病院の呼吸器診療室への紹介の順序に基づいて、患者をDS1とDS2に分割した。データセットDS1およびDS2内の患者は相互に排他的であった。
(i)DS1-N1名の患者からのC1個の咳嗽イベントからなる。このデータセットからの咳嗽イベントを使用して、最適なモデルを設計した。
(ii)DS2-N2名の患者からのC2個の咳嗽イベントからなる。このデータセットからの咳嗽イベントを使用して、設計したモデルをテストした。DS2からの咳嗽イベントは、モデル設計のプロセスに左右されなかった。
次に、小児呼吸器疾患における15〜20年の経験を有する2人のスコア化を担当する専門家が、2つのデータセットからの咳嗽イベントを2つのクラスすなわち湿性または乾性にスコア化した。スコア化担当者は、被験者の履歴および診断について知らなかった。この手動分類を基準標準と見なし、これと、自動分類の結果を比較した。
C.咳嗽音分類器の設計
咳嗽音の自動分類のためのシステムを設計するために、DS1からの咳嗽イベントを使用した。DS11は、両方のスコア化担当者が咳嗽音のクラスについて一致した咳嗽イベントを含むDS1のサブセットとする。C11の咳嗽イベントがDS11にあった。DS11内の咳嗽イベントを使用して、自動分類器モデルを設計する。これは、3ステップからなるプロセスである。
[ステップ1]咳嗽イベント特徴行列の計算:このステップでは、「F」数学的特徴を含む特徴ベクトルをC11の咳嗽イベントのそれぞれから計算し、サイズC11 × Fの咳嗽イベント特徴行列「MDS11」を形成した。「F」特徴を咳嗽イベントから計算するために、以下のステップを使用する。
(i)xは、咳嗽イベントからの離散時間音声信号を示す。
(ii)xを最大絶対値で除算することによって、xを正規化する。
(iii)xを、「n」の等しいサイズの重複していないサブセグメントにセグメント化する。xiはxの第i番目のサブセグメントを表し、ここでi=1, 2, 3,…., nである。
(iv)各サブセグメントに対する以下の特徴、すなわちバイスペクトルスコア(BGS)、非ガウス性スコア(NGS)、フォルマント周波数(FF)、ピッチ(P)、対数エネルギー(LogE)、ゼロ交差(ZCR)、尖度(Kurt)、および12のメル周波数ケプストラム係数(MFCC)を計算し、F特徴を含む特徴ベクトルを形成する。
(v)C11個の咳嗽イベントすべてに対してステップ(i)〜(iii)を繰り返し、サイズC11×Fの咳嗽イベント特徴行列MDS11を形成する
[ステップ2]自動分類器設計:本発明の現在説明している態様の好ましい一実施形態では、ロジスティック回帰モデル(LRM)をパターン分類器として使用する。LRMは一般化された線形モデルであり、いくつかの独立予測因子を使用してカテゴリイベント(従属変数)の確率を推定する。この作業では、従属変数Yは、湿性咳嗽の場合は「1」(Y=1)、乾性咳嗽の場合は「ゼロ」(Y=0)に等しいと仮定する。モデルは、次のように、独立変数(すなわちF特徴)を仮定して確率Y=1(すなわち「湿性咳嗽」のカテゴリに属する咳嗽イベント)を推定する回帰関数を使用して、導出される。
(1)および(2)では、f1, f2,…fFは特徴ベクトル(独立変数)の要素であり、β0は切片と呼ばれ、β1、β2などは独立変数の回帰係数と呼ばれる。Yから最適な決定しきい値λを選択するために(Yがλを上回る場合は咳嗽は湿性、そうでない場合は乾性である)、受信者動作曲線(ROC)解析を使用した。
行列MDS11(F独立変数からのC11の観測)のデータを使用して、1つだけ取り出す交差検定(LOV)法をLRM設計に採用する。名前が示唆するように、LOV法は、1つを除く全咳嗽イベントからのデータを使用してモデルを訓練し、1つの咳嗽イベントを使用してモデルを検証することを必要とする。このプロセスは、DS11内の各咳嗽イベントを検証データとして1回使用するように系統的にC11回繰り返された。この結果、LC11個の数のLRMが生成された。
設計したLC11の性能を評価するために、感度、特異度、精度、陽性適中率(PPV)、陰性適中率(NPV)、コーエンのカッパ(K)統計量などの性能尺度を計算した。K値をどのように解釈するかに関しては、付録A2を参照されたい。
以下のためのロジスティック回帰モデル(LRM)を設計する。
(i)特徴選択:特徴選択は、ロバストな学習モデルを構築するのに関連のある特徴のサブセットを選択する技術である。理論上は、最適な特徴選択は、特徴のあらゆる可能なサブセットの全数探索を必要とする。しかしながら、多数の特徴に対して全数探索を行うために、最適な特徴選択は計算集約的で、実際的ではない。したがって、p値を使用して特徴の十分なセットを探索した。LRM設計では、p値は特徴ごとに計算され、その特徴がモデルの作成にどれほど大きく寄与したかを示す。重要な特徴は低いp値を有する。LRMのこの性質を使用して、訓練相中にモデル内で分類を促進する特徴(低いp値を有する独立変数)の妥当な組合せを選択した。C11のLRMに対して、「F」特徴の平均p値を計算する。pthよりも低い平均p値を有する特徴を選択する。Fsは、Fからの選択した特徴のサブセットとする。
(ii)ロバストなLRM設計:MDS11からサイズC11×Fsの行列M'DS11を作成する。行列M'DS11は、DS11内のC11個の咳嗽イベントからの選択した特徴Fsのみを有する咳嗽イベント特徴行列である。M'DS11を使用し、LOVを採用して、C11個のLRMを保持する。
[ステップ3]LC11のLRMからの良好なモデルの選択:LC11のLRMから、k-meansアルゴリズム9を使用して前向き研究データセットDS2をテストし、1つのモデルを最良のモデルとして選択した。k-meansアルゴリズムにおいて、目標は、クラスタ内で中心からの距離の平方和が最小になるように、d次元空間内のq個のデータポイントをk個のクラスタに分割することである。
直面する問題は、利用可能なLC11個のモデルから良好なモデルを選択することである。そうするために、d次元空間内のLC11個のモデルをk=2クラスタ、すなわち高性能モデルクラスタおよび低性能モデルクラスタに分割した。空間次元dを、モデルパラメータ+3つの性能尺度(感度、特異度、およびカッパ)に等しくなるように設定した。次に、高性能モデルのクラスタから、中心に対する最小の平均2乗誤差値を有するそのモデルを選択した。Rは選択したLRMを表し、λRは、対応する確率決定しきい値(分類器の性能が最大になるようにROC曲線を使用して決定される値)である。Rを選ぶと、モデルのすべてのパラメータを固定し、それを、前向きデータセットDS2内の咳嗽音を分類するために使用する。
D.選択したLRM Rのテスト
セクションC[ステップ1]で説明した手順に続いて、データセットDS2からの咳嗽イベントを使用して、サイズC2×Fの咳嗽イベント特徴行列MDS2を計算する。C2はDS2内の総咳嗽イベントであり、「F」は特徴ベクトルである。ロバストなFs特徴のみを選択することによって、MDS2からM'DS2を形成する。選択したLRM Rを使用して、M'DS2内のデータをクラス湿性または乾性に分類する。Rの出力からの湿性/乾性クラスの決定プロセスは次の通りである。
所与の咳嗽入力に対するRの出力はYRである。次に、咳嗽を、YR≧λRの場合は湿性、そうでない場合は乾性として分類する。
Rによる自動分類の結果をスコア化を担当する専門家の結果と比較して、セクションC[ステップ2]で説明した性能尺度を計算する。すべてのアルゴリズムは、ソフトウェアプログラミング言語MATLABバージョン7.14.0.739(R2012a)を使用して作成した。
咳嗽音データセットおよびスコア化を担当する専門家間の一致
本発明者らは、N=78名の患者(41名は男性、37名は女性であった)からの音記録データを使用した。被験者の平均年齢は2歳11か月であった。被験者の年齢範囲は、1か月から15年までさまざまで、喘息、肺炎、気管支炎、および鼻咽頭炎などの疾患を呈した。Table 27(表27)は、患者の人口統計学的詳細および臨床的詳細を示す。
N=78名の患者から、合計C=536の咳嗽イベントを解析した。平均して、患者につき7個の咳嗽イベントを分析した(最小=2および最大=13)。データセットDS1は、N1=60名の患者からのC1=385の咳嗽イベントを有し、データセットDS2は、N2=18名の患者からのC2=151の咳嗽イベントを有する。
Table 28(表28)は、DS1およびDS2からの咳嗽音を2つのクラス湿性および乾性に分類する際の2人のスコア化担当者間の分割表を示す。
385の咳嗽イベントからのDS1において、スコア化担当者は、サブセットDS11を形成するために使用した咳嗽イベントのクラスに関して、C11=310回(80.5%)一致した。データセットDS2では、スコア化担当者は、151のうち117回(77.5%)一致した。スコア化担当者1とスコア化担当者2との間のカッパ一致度は、DS1では0.55、DS2では0.54である。DS11内の310の咳嗽イベントのうち、82は湿性クラスに属し、228は乾性クラスに属した。次に、DS11咳嗽イベントを使用して、セクションII-Cで説明したLRMモデルを設計した。
E.データベース内の咳嗽音特性
DS11内の乾性咳嗽の平均持続時間は260±77ミリ秒(228の乾性咳嗽を使用して計算した)、湿性咳嗽の平均持続時間は238±54ミリ秒であった(82の湿性咳嗽を使用して計算した)。図21は、それぞれID#35および#38の2名の患者からの乾性咳嗽波形および湿性咳嗽波形の代表例を示す。咳嗽音波形は、一般にクリーンであり、高い信号対雑音比(SNR)有する。DS11の平均信号対雑音比は15.2±5.5db(最大=28.65dbおよび最小=2.9db)、DS2の平均信号対雑音比は18.6±4.5db(最大=27.8dbおよび最小=11.1db)であった。図22Aおよび図22Bは、DS11およびDS2内の咳嗽音に対するSNRのヒストグラムである。
各咳嗽の開始および終了は、図21に示す咳嗽音を聞いた後で、人間のオペレータがマークを付けた。セクションII-C[ステップ1]で示した方法に続いて、特徴行列MDS11を計算した。n=3を使用して、各咳嗽セグメントを3つのサブセグメントに分割した。文献では、臨床医と科学者は同様に、咳嗽音が3相、すなわち(i)初期開放段、続いて(ii)雑音が多い気流、および最後に(3)声門閉鎖からなると説明している24、25。これらの相は咳嗽の品質すなわち湿性または乾性に特有の異なる重要な情報を伝えることが示されている。これに基づいて、本発明者らは、各咳嗽セグメントを3つのサブセグメントに分割した。n=3を設定すると、次の特徴(n×12のMFCC) + (n×4のFF) + ([n×[BGS、NGS、P、LogE、Zcr、Kurt])からなる長さ66の特徴ベクトルFが得られた。C11=310の咳嗽イベントおよびF=66の特徴から、咳嗽イベント特徴行列MDS11を作成した。
F.LRMを使用した自動分類
訓練段階中の特徴行列およびLRMの性能:LOV法に続いて、LC11=310個のLRMを設計した。
310のLRMに対する訓練の平均感度および平均特異度はそれぞれ、92±1%および93±0.5%であった。これらのモデルに対する検証の感度および特異度はそれぞれ、62%および84%であった。Table 29-(A)(表29-(A))は、F=66の特徴すべてを使用してLRMを訓練したときの詳細な分類結果を示す。
セクションII-B[ステップ2]で説明した手順に続いて、pth=0.06を使用して、Fs=31の特徴を選択した。図23は、C11=310のLRMに対して計算されたF=66の特徴に関連した平均「p-値」を示す。pth=0.06よりも小さい平均「p値」を有するすべての特徴を選択した。選択した特徴は、バイスペクトルスコア、尖度、およびゼロ交差数からそれぞれ1つ、非ガウス性スコアおよび対数エネルギーからそれぞれ2つ、フォルマント周波数から5つ、ならびにメル周波数ケプストラム係数から19であった。Table 30(表30)は、最終LRMを設計するために選択した特徴の詳細を示す。
この表によれば、MFCCに基づく特徴が最も優勢であった。31の選択した特徴のうち、異なるMFCC成分から19の特徴が寄与した。MFCCの後で、フォルマント周波数が、5つの特徴で2番目に優勢な寄与を行った。さらに、完全に省略した4番目のフォルマント周波数およびピッチに基づく特徴を除いて、すべての他の特徴は、最終LRMモデルの構築に向けて、少なくとも1つのサブセグメントからの特徴に寄与した。
選択した特徴Fsのみを使用してLRMを再訓練するとき、訓練の平均感度および平均特異度はそれぞれ87±1%および88±0.5%と記録され、検証の感度および特異度は81%および83%であった。LRMとスコア化担当者との間の検証カッパ一致度は、すべての特徴を使用してLRMを訓練したとき0.46で、選択した特徴のみを使用したとき、0.58に増加した。Table 29-(B)(表29-(B))は、特徴選択後の訓練および検証の詳細な結果を示す。
LRM(R)の選択:DS11からのデータを使用してLC11=310の設計したLRMから、セクションII-C[ステップ3]で説明したk-mean方法を使用して、最適なモデルRを選択した。モデルは、モデルパラメータおよび性能尺度に基づいて、2つの群すなわち高性能モデルおよび低性能モデルにクラスタ形成した。310のモデルのうち、202が高性能モデル群でクラスタ化し、108が低性能モデル群でクラスタ化した。LRMモデル#26は、高性能モデルの中心に対する最低の平均2乗誤差値を有している。このモデルRを選び、そのすべてのパラメータを、後で使用するために固定した。前向きデータセットDS2に対してRをテストした。
前向きデータセットDS2に対するRの性能:Table 31(表31)は、スコア化を担当する専門家に対するRの分類結果を示す。
スコア化担当者1が、湿性/乾性分類を参照基準として使用したとき、Rは、77.5%の感度、76%の特異度、および0.47のカッパ一致度を有する。スコア化担当者2では、結果は感度75%、特異度64%、およびカッパ0.31であった。スコア化担当者1およびスコア化担当者2が分類に関して一致した(117の咳嗽イベント)イベントのみに対してモデルRをテストしたとき、感度は84%に、カッパ値は0.51に急増した。Table 32(表32)は分割表を示す。
年齢および性別を一致させたときのLRM結果:Table 33(表33)は、年齢および性別を一致させたときのDS11およびDS2に対するLRMの性能を示す。
データの利用可能性が限られているので、4つの区画すなわち(i)年齢≦60か月の男性、(ii)年齢≦60か月の女性、(iii)年齢>60か月の男性、および(iv)年齢>60か月の女性のみを考慮した。この表によれば、モデル設計段階中に、Table 29(表29)およびTable 33(A)(表33(A))において、全般的に、区画を考慮しなかったときと比較して、4つの区画全体にわたってモデル検証性能に著しい差が見られなかった。これと同様に、前向きデータセットDS2に対して、選択したモデルRは、性能が非常に不良であった第3の区画(年齢>60の男性)を除いて、すべての区画全体にわたって良好な性能を示した(Table 31(表31)およびTable 33(B)(表33(B)))。
本発明の実施形態は、咳嗽音を湿性カテゴリと乾性カテゴリに分類する自動化された客観的な方法を包含する。本発明者らが認識している限りでは、これは、特に肺炎などの疾患における、小児の咳嗽音の乾性/湿性分類のための客観的な技術を開発する初めての試みである。本明細書で提示する結果は、記述解析で30以下の咳嗽を使用する既存の作業と比較して、78名の被験者からの536の咳嗽イベントに基づいている。これらの理由により、他の作業は、結果を直接比較するのに利用できない。
本発明の技術の評価に使用する参照方法は、異なる国の2人の小児呼吸器科医師による咳嗽音の湿性/乾性クラスへの主観的な分類である。これらのスコア化担当者は、被験者の実際の臨床診断について知らなかった。イベントごとの咳嗽分類では、2人の専門家は、中程度のレベル(K=0.54のカッパ値)で互いと一致した。5では、湿性/乾性咳嗽に関する臨床医間の一致度は、K=0.88と報告されている。しかしながら、5では、臨床医は患者レベルでは咳嗽の湿潤度を評価したが、個々の咳嗽レベルでは評価しなかったことに留意されたい。スコア化担当者間の一致度を患者レベルで計算すると、カッパ値はK=0.66(かなりの一致度)に増加した。これらの数字は、乾性/湿性分類の主観性をさらに示す。
分類器技術を、両方のスコア化担当者が合意に達したイベントのみを使用して、訓練事例(セットDS1)からの咳嗽に対して訓練した。訓練プロセスの出力として、良好なロジスティック回帰モデル(R)を識別し、そのパラメータを固定した。次に、そのモデルを前向き事例(セットDS2)に対していくつかの異なる方法でテストした。分類の最高の感度および特異度(84%および76%)は、DS2内の合意イベントに対してRをテストしたときに達成された。これらの数字は、各スコア化担当者の個々の分類成果に対してテストすることによって得られるものよりも一貫して高いことに留意することは興味深い。
本発明の方法の別の顕著な特徴は、スコア化担当者の合意データをグラウンドトルース(ground truth)として使用するとき、高い陰性適中率(NPV=93%)を持つことである。これは、モデルが咳嗽を非湿性(乾性)として分類した場合、2人のスコア化を担当する専門家が同じ結論に単独で達する可能性が最も高いことを意味する。しかしながら、本発明の方法の陽性適中率は、スコア化担当者と比較して、低い(PPV=55%)。したがって、モデルによって湿性として分類される咳嗽のかなり大きな一部は、スコア化担当者による乾性との同意分類で終わる。この現象は、スコア化を担当する専門家が湿性咳嗽を強調することを見出した、Changら5によって提示される結果によって説明されるように見える。5では、Changらは、臨床専門医の主観的乾性/湿性分類を、気管支鏡検査による気道粘液の表示と系統的に比較した。Changらは、臨床医の乾性咳嗽の分類は、分泌物がないことを必ずしも示さないと報告した。気道における特定の状況、たとえば少量の分泌物は、観測者によって検出される十分な大きさで咳嗽音に反映されないことがある。本方法で見つかったPPV値低下の考えられ得る理由の1つは、性能統計量を生成するために使用される、標準的な方法すなわちスコア化担当者におけるこの弱点であり得る。この仮説は、将来的に気管支鏡検査の知見に対して注意深く検証する必要がある。
気道粘液を適切に検出する機能は、化膿性肺疾患の管理において特に重要であり得る3、5。咳嗽は、肺炎、気管支炎、および細気管支炎などの疾患の初期症状である。この症状の正確な評価は、急性疾患を診断する際に、または慢性症状および治療有効性のモニタリングにおいて、重要な要因である。小児では、湿性咳嗽は、下部気道感染症と関連する可能性がより高いことが知られている3。湿性咳嗽の主観的分類は、専門医である臨床医の手の中であっても、気道粘液を検出する方法として低い感度を有する。乾性/湿性咳嗽の分類のための正確な客観的技術は、商用レベルまたは研究レベルで、現在利用不可能である。本発明者らが知っている限りでは、この作業は、そのような技術を開発する、世界で始めての試みである。
第1のこれまでの手法を提示して、咳嗽の乾性分類を自動化する。本明細書で提示されている結果は、パラメータを系統的に最適化し、分類器の訓練プロセスを微調整することによって改善可能である。説明してきたヒューリスティックなモデル選択プロセスによって、報告した結果が悲観的な推定値になる。発明者らはまた、特徴セットが改善可能であり、方法の分類精度がさらに増加可能であると信じている。しかしながら、最適化の試みの前に、解決する必要がある問題は、臨床診断で使用される「標準的方法」を解決することである。注意深く制御した気管支鏡検査の研究は、標準的方法として最も良く適合している。
この研究に対する別の考えられ得る限定要因は、乾性咳嗽に向けての咳嗽音データベースのバイアス性(biasedness)である。ほぼ70%の咳嗽音は、スコア化を担当する専門家によって知覚されるように乾性である。しかしながら、これらの要因すべてを利用して、本発明の実施形態は、現在、高い感度(84%)および特異度(76%)で、スコア化を担当する専門家による良好な一致度(K=0.51)により、湿性咳嗽および乾性咳嗽を分類することができる。
上記に照らして、本明細書で説明する本発明の実施形態による方法は、高い精度および小児科医との良好な一致度で、乾性クラスと湿性クラスに咳嗽音を分類することができることが了解されよう。発明者の知る限りでは、この方法は、湿性/乾性分類のための初めて知られた方法であり、かなり大量の咳嗽サンプルに対する完全な訓練およびテストの結果を示す。また、この方法は、呼吸器感染疾患の範囲を呈する小児母集団において湿性/乾性分類を自動化する初めての取組みでもある。この方法は、長期咳嗽モニタリングにとって、治療有効性の評価において、または下部気道感染症を特徴づける際の、有用な臨床ツールとして開発する可能性を伴う。この方法は、刻一刻の咳嗽品質(湿性/乾性)の時間パターンが必要とされる臨床試験または調査研究において、本質的に有用である。
本明細書で説明する方法は、肺の硬化および粘液の検出が可能であり得るマイクロ波イメージングおよび超音波イメージングなどの他の潜在的な技術と同時に実施されてよい。
前述の実施形態の説明で使用した用語のうちいくつかの説明は、次の通りである。
[A2].カッパ統計量は、2つの技法間の一致を比較するべきである状況で広く使用される。以下は、カッパ値を解釈するためのガイドラインである。
カッパ 解釈
<0 一致度が偶然よりも低い
0.01〜0.20 わずかな一致度
0.21〜0.40 まずまずの一致度
0.41〜0.60 中程度の一致度
0.61〜0.80 かなりの一致度
0.81〜1 ほぼ完全な一致度
[A3].LRMの性能を評価するために使用する統計学的尺度の定義。
真陽性(TP)-湿性咳嗽がLRMによって正しく「湿性」と識別される。
偽陽性(FP)-乾性咳嗽がLRMによって間違って「湿性」と識別される。
真陰性(TN)-乾性咳嗽がLRMによって正しく「乾性」と識別される。
偽陰性(FN)-湿性咳嗽がLRMによって間違って「乾性」と識別される。
本発明の一態様の好ましい一実施形態は、咳嗽セグメントの先頭および最後尾を定義することによって咳嗽音を記録から抽出することが可能な方法を含む。異なる特徴のセットを音声信号から計算し、決定エンジン、たとえば適応型ニューラルネットワークに基づくパターン認識アルゴリズムまたはロジスティック回帰モデルへの入力として使用した。一実施形態では、提案する方法は、約95%というセグメンテーションの感度および特異度を達成した。この方法は、咳嗽解析システムのフロントエンドとして使用可能である。したがって、記録における多数の咳嗽音からの定量的情報および定性的情報は自動的に解析可能である。
本発明のさらなる態様の好ましい一実施形態によれば、患者の特定の疾患状態の診断のために患者音記録を処理するように計算デバイスを動作させる方法が提供される。たとえば、本明細書で詳細に説明したように、疾患状態は肺炎を含むことができる。
参考文献
本発明のどの実施形態も、単なる例示であることを意味し、本発明を限定することを意味するものではない。したがって、本発明の趣旨および範囲から逸脱することなく、説明した任意の実施形態にさまざまな他の変更および修正が加えられてよいことを理解されたい。
本明細書および特許請求の範囲では、「〜を備える、含む(comprises)」および「〜を備える、含む(comprise)」を含めて、「〜を備える、含む(comprising)」という単語ならびにその関連語および派生語は、述べた整数のそれぞれを含むが1つまたは複数のさらなる整数の包含を除外することなく包括的な意味で解釈されるべきである。
40 ベッド
42 被験者
46 光ディスク
48 光ディスク読取り装置
50 USBポート
51 A/D変換器、外部ADCモジュール
52 前置増幅器、コンピュータシステム、パーソナルコンピュータシステム、ラップトップコンピュータ
53 低雑音マイクロホン
54 処理ボックス
55 低雑音マイクロホン
56 ディスプレイ
58 キーボード
60 ポインティングデバイス
62 RAM
64 ROM
66 二次記憶デバイス、二次記憶装置、磁気ハードディスク
68 メインボード
70 中央処理ユニット、中央プロセッサ、CPU
72 ソフトウェア製品、ソフトウェア

Claims (18)

  1. 患者音を処理するように計算デバイスを動作させる方法であって、
    特徴を前記患者音のセグメントから抽出するステップと、
    前記抽出した特徴および所定の基準に基づいて、前記セグメントを咳嗽音または非咳嗽音として分類するステップと、
    咳嗽音として分類された前記患者音のセグメントに基づいて、前記計算デバイスの制御下で、疾患関連状態の診断をディスプレイ上に提示するステップと
    を含む方法。
  2. 咳嗽音を「湿性咳嗽」音または「非湿性咳嗽」音であるとしてカテゴリ化するステップを含む、請求項1に記載の方法。
  3. 前記患者音の咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化するステップと、
    カテゴリ化された罹患咳嗽イベントの割合を示す罹患咳嗽指数を計算するステップと
    をさらに含む、請求項2に記載の方法。
  4. 前記罹患した咳嗽指数が所定の要件を満たす場合に、患者を特定の疾患状態に罹患していると見なすステップを含む、請求項3に記載の方法。
  5. 患者音記録を処理し、それによって、計算デバイスの制御下でディスプレイを用いて患者の特定の疾患状態の診断を提示するように計算デバイスを動作させる方法。
  6. 肺炎を含む疾患状態を診断するためのステップを含む、請求項5に記載の方法。
  7. 音記録の咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化するステップと、
    カテゴリ化された罹患咳嗽イベントの割合を示す罹患咳嗽指数を計算するステップと、
    前記罹患咳嗽指数が所定の要件を満たす場合に、前記患者を前記特定の疾患状態に罹患していると見なすステップと
    を含む、請求項5または請求項6に記載の方法。
  8. 前記所定の要件が、前記罹患咳嗽指数が所定のしきい値を超えることを含む、請求項7に記載の方法。
  9. 前記咳嗽イベントを罹患または非罹患のどちらかとしてカテゴリ化する前記ステップが、分類手順により前記咳嗽イベントから抽出した特徴を処理するステップを含む、請求項7または請求項8に記載の方法。
  10. 前記分類手順がロジスティック回帰モデルの適用を含む、請求項9に記載の方法。
  11. 前記分類手順が、訓練した人工ニューラルネットワークの適用を含む、請求項9に記載の方法。
  12. 以下の訴えすなわち喘息、気管支炎、鼻咽頭炎、喘鳴、扁桃咽頭炎、心臓疾患、喉頭軟化症、マラリア、および異物吸入のうち1つまたは複数に罹患している患者から記録された非肺炎性音を含むある種の分類器に対する訓練事例の適用を含む、請求項10または請求項11に記載の方法。
  13. 請求項1から12のいずれか一項に記載の方法を実行するプロセッサのための命令を含む電子メモリと通信する少なくとも1つの電子プロセッサを含む計算デバイス。
  14. 前記計算デバイスが、前記方法を実行するようにプログラムされた携帯電話または同様のデバイスを備える、請求項13に記載の計算デバイス。
  15. 請求項1から12のいずれか一項に記載の方法を実行するための1つまたは複数の電子プロセッサによる実行のための有形の命令を持つ機械可読媒体。
  16. 患者音を処理するように計算デバイスを動作させる方法であって、
    特徴を前記患者音のセグメントから抽出するステップと、
    前記抽出した特徴および所定の基準に基づいて、前記セグメントを咳嗽音または非咳嗽音として分類するステップと
    を含む方法。
  17. 咳嗽音として分類された前記患者音のセグメントに基づいて疾患関連状態を診断するステップと、前記計算デバイスによって制御された電子ディスプレイ上で前記診断を提示するステップとをさらに含む、請求項1に記載の方法。
  18. 咳嗽音を「湿性咳嗽」音または「非湿性咳嗽」音であるとしてカテゴリ化するステップを含む、請求項2に記載の方法。
JP2015502020A 2012-03-29 2013-03-28 患者音を処理するための方法および装置 Active JP6435257B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2012901255A AU2012901255A0 (en) 2012-03-29 A method and apparatus for processing patient sounds
AU2012901255 2012-03-29
PCT/AU2013/000323 WO2013142908A1 (en) 2012-03-29 2013-03-28 A method and apparatus for processing patient sounds

Publications (2)

Publication Number Publication Date
JP2015514456A true JP2015514456A (ja) 2015-05-21
JP6435257B2 JP6435257B2 (ja) 2018-12-05

Family

ID=49257951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015502020A Active JP6435257B2 (ja) 2012-03-29 2013-03-28 患者音を処理するための方法および装置

Country Status (8)

Country Link
US (1) US10098569B2 (ja)
EP (2) EP2830496B1 (ja)
JP (1) JP6435257B2 (ja)
KR (1) KR102081241B1 (ja)
CN (2) CN104321015A (ja)
AU (1) AU2013239327B2 (ja)
ES (1) ES2947765T3 (ja)
WO (1) WO2013142908A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534026A (ja) * 2015-10-08 2018-11-22 コルディオ メディカル リミテッド 音声分析による肺疾患の評価
WO2019216320A1 (ja) * 2018-05-08 2019-11-14 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
KR20200025717A (ko) * 2018-08-31 2020-03-10 재단법인 아산사회복지재단 폐음을 이용한 폐 정보 획득 방법, 그 장치 및 그 프로그램
JP2020508726A (ja) * 2017-02-01 2020-03-26 レスアップ ヘルス リミテッド 背景雑音環境における咳嗽検出のための方法および装置
JP2021506486A (ja) * 2017-12-21 2021-02-22 ザ ユニバーシティ オブ クィーンズランド 呼吸器疾患を診断するために疾患シグネチャを使用して咳音を分析するための方法
JP2021151570A (ja) * 2017-01-23 2021-09-30 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
KR102376188B1 (ko) * 2021-12-15 2022-03-17 가천대학교 산학협력단 딥러닝 기반의 호흡음 분류를 위한 피쳐정보 선택방법 및 시스템

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK2557988T3 (da) 2010-04-16 2020-08-10 Univ Tennessee Res Found System til forudsigelse af gastrointestinal dysfunktion
EP2608714A4 (en) * 2010-08-25 2017-03-08 Diacoustic Medical Devices (Pty) Ltd A system and method for classifying a heart sound
US11315687B2 (en) * 2012-06-18 2022-04-26 AireHealth Inc. Method and apparatus for training and evaluating artificial neural networks used to determine lung pathology
CN103730130B (zh) * 2013-12-20 2019-03-01 中国科学院深圳先进技术研究院 一种病理嗓音的检测系统
JP6320109B2 (ja) * 2014-03-27 2018-05-09 旭化成株式会社 心疾患識別装置
EP2945084A1 (en) * 2014-05-12 2015-11-18 Electrosalus Biyomedikal Sanayi ve Ticaret Anonim Sirketi Auscultation data acquisition, communication and evaluation system incorporating mobile facilities
WO2015188156A1 (en) 2014-06-05 2015-12-10 Morphy Inc. Methods and systems for gathering human biological signals and controlling a bed device
CN106471567B (zh) * 2015-05-15 2019-04-26 深圳市大疆创新科技有限公司 色彩校正系统和方法
US9687208B2 (en) * 2015-06-03 2017-06-27 iMEDI PLUS Inc. Method and system for recognizing physiological sound
US20170135883A1 (en) * 2015-11-16 2017-05-18 Eight Sleep Inc. Adjustable bedframe and operating methods
US10105092B2 (en) 2015-11-16 2018-10-23 Eight Sleep Inc. Detecting sleeping disorders
US10154932B2 (en) 2015-11-16 2018-12-18 Eight Sleep Inc. Adjustable bedframe and operating methods for health monitoring
US9899034B2 (en) * 2015-12-22 2018-02-20 Intel IP Corporation Technologies for robust crying detection using temporal characteristics of acoustic features
EP3692923B1 (en) 2016-02-17 2022-06-29 Sanolla Ltd Digital stethoscopes, and auscultation and imaging systems
US11116478B2 (en) 2016-02-17 2021-09-14 Sanolla Ltd. Diagnosis of pathologies using infrasonic signatures
US9998487B2 (en) * 2016-04-25 2018-06-12 General Electric Company Domain level threat detection for industrial asset control system
CN105962897B (zh) * 2016-04-27 2018-10-02 南京理工大学 一种自适应的鼾声信号检测方法
US10592733B1 (en) * 2016-05-20 2020-03-17 Educational Testing Service Computer-implemented systems and methods for evaluating speech dialog system engagement via video
CN109475304B (zh) * 2016-07-14 2022-07-29 皇家飞利浦有限公司 用于监测哮喘症状的系统和方法
US10008218B2 (en) 2016-08-03 2018-06-26 Dolby Laboratories Licensing Corporation Blind bandwidth extension using K-means and a support vector machine
CN106364542B (zh) * 2016-09-20 2018-08-21 智易行科技(武汉)有限公司 基于支持向量机的多传感器融合智能婴儿体态安抚方法
EP3515293A4 (en) * 2016-09-26 2020-04-29 The University Of Queensland METHOD AND DEVICE FOR AUTOMATICALLY DIAGNOSIS OF A DISEASE CONDITION
EP3541288B1 (en) * 2016-11-15 2023-07-19 Boehringer Ingelheim Vetmedica GmbH Method for predicting a specific respiratory pathogen
EP3592231A1 (en) * 2017-03-10 2020-01-15 Masimo Corporation Pneumonia screener
WO2018187664A1 (en) * 2017-04-06 2018-10-11 Brown University Improved diagnostic instrument and methods
KR101924852B1 (ko) * 2017-04-14 2018-12-04 네이버 주식회사 네트워크에 연결된 음향기기와의 멀티모달 인터렉션 방법 및 시스템
WO2018204934A1 (en) * 2017-05-05 2018-11-08 Canary Speech, LLC Selecting speech features for building models for detecting medical conditions
CN107591162B (zh) * 2017-07-28 2021-01-12 南京邮电大学 基于模式匹配的哭声识别方法及智能看护系统
CN108701469B (zh) * 2017-07-31 2023-06-20 深圳和而泰智能控制股份有限公司 咳嗽声音识别方法、设备和存储介质
CN107693043B (zh) * 2017-08-18 2019-10-11 中国人民解放军总医院 肠鸣音信号的非线性动力学分析方法
US12029606B2 (en) 2017-09-05 2024-07-09 Sanolla Ltd. Electronic stethoscope with enhanced features
CN110021435A (zh) * 2017-09-07 2019-07-16 医疗财团法人徐元智先生医药基金会亚东纪念医院 嗓音侦测分类系统
WO2019060298A1 (en) 2017-09-19 2019-03-28 Neuroenhancement Lab, LLC METHOD AND APPARATUS FOR NEURO-ACTIVATION
EP3471027A1 (en) * 2017-10-13 2019-04-17 Siemens Aktiengesellschaft A method for computer-implemented determination of a data-driven prediction model
CN108053841A (zh) * 2017-10-23 2018-05-18 平安科技(深圳)有限公司 利用语音进行疾病预测的方法及应用服务器
CN111712183A (zh) * 2017-10-27 2020-09-25 高等工艺学校 耳内非语言音频事件分类系统和方法
EP3709881A1 (en) 2017-11-17 2020-09-23 Koninklijke Philips N.V. Cough detection in a respiratory support system
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
USD865167S1 (en) 2017-12-20 2019-10-29 Bat Call D. Adler Ltd. Digital stethoscope
US10957335B2 (en) * 2017-12-28 2021-03-23 Sleep Number Corporation Home automation having user privacy protections
CN108090686B (zh) * 2017-12-29 2022-01-25 北京大学 一种医疗事件风险评估分析方法及系统
WO2019133997A1 (en) 2017-12-31 2019-07-04 Neuroenhancement Lab, LLC System and method for neuroenhancement to enhance emotional response
GB2584242B (en) 2018-01-09 2022-09-14 Eight Sleep Inc Systems and methods for detecting a biological signal of a user of an article of furniture
GB2584241B (en) 2018-01-19 2023-03-08 Eight Sleep Inc Sleep pod
KR20190113390A (ko) * 2018-03-28 2019-10-08 (주)오상헬스케어 호흡 질환 진단 장치 및 호흡 질환 모니터링 방법
US12070323B2 (en) * 2018-04-05 2024-08-27 Google Llc System and method for generating diagnostic health information using deep learning and sound understanding
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
EA201800377A1 (ru) * 2018-05-29 2019-12-30 Пт "Хэлси Нэтворкс" Способ диагностики заболеваний органов дыхания и система для его реализации
WO2020004727A1 (ko) * 2018-06-29 2020-01-02 주식회사 디플리 실시간 소리 분석 방법 및 장치
WO2020008339A1 (en) * 2018-07-02 2020-01-09 3M Innovative Properties Company Sensing system and method for monitoring time-dependent processes
US10832673B2 (en) 2018-07-13 2020-11-10 International Business Machines Corporation Smart speaker device with cognitive sound analysis and response
US10832672B2 (en) 2018-07-13 2020-11-10 International Business Machines Corporation Smart speaker system with cognitive sound analysis and response
GB2578418B (en) 2018-07-25 2022-06-15 Audio Analytic Ltd Sound detection
WO2020047264A1 (en) * 2018-08-31 2020-03-05 The Trustees Of Dartmouth College A device embedded in, or attached to, a pillow configured for in-bed monitoring of respiration
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
US11380351B2 (en) * 2018-09-20 2022-07-05 Samsung Electronics Co., Ltd. System and method for pulmonary condition monitoring and analysis
US10847177B2 (en) 2018-10-11 2020-11-24 Cordio Medical Ltd. Estimating lung volume by speech analysis
WO2020077413A1 (en) * 2018-10-17 2020-04-23 The University Of Queensland A method and apparatus for diagnosis of maladies from patient sounds
WO2020087014A1 (en) * 2018-10-26 2020-04-30 AIRx Health, Inc. Devices and methods for remotely managing chronic medical conditions
CN109498228B (zh) * 2018-11-06 2021-03-30 林枫 基于咳嗽音反馈的肺康复治疗装置
US20200152330A1 (en) 2018-11-13 2020-05-14 CurieAI, Inc. Scalable Personalized Treatment Recommendation
MX2021007010A (es) * 2018-12-13 2021-10-14 Liminal Sciences Inc Sistemas y métodos para un dispositivo ponible que incluyen componentes de estimulación y supervisión.
EP3897379A4 (en) * 2018-12-20 2022-09-21 University of Washington DETECTION OF AGONAL BREATHING WITH AN INTELLIGENT DEVICE
US11216742B2 (en) 2019-03-04 2022-01-04 Iocurrents, Inc. Data compression and communication using machine learning
US11011188B2 (en) 2019-03-12 2021-05-18 Cordio Medical Ltd. Diagnostic techniques based on speech-sample alignment
JP7479711B2 (ja) * 2019-03-12 2024-05-09 コルディオ メディカル リミテッド 音声サンプルのアライメントに基づく診断手法
US11024327B2 (en) 2019-03-12 2021-06-01 Cordio Medical Ltd. Diagnostic techniques based on speech models
CN113710162A (zh) 2019-04-16 2021-11-26 因泰克医疗公司 生物声学信号的增强检测和分析
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
WO2020243701A1 (en) * 2019-05-30 2020-12-03 Insurance Services Office, Inc. Systems and methods for machine learning of voice attributes
CN111883174A (zh) * 2019-06-26 2020-11-03 深圳数字生命研究院 声音的识别方法及装置、存储介质和电子装置
US11948690B2 (en) * 2019-07-23 2024-04-02 Samsung Electronics Co., Ltd. Pulmonary function estimation
DE102019210929B4 (de) * 2019-07-24 2023-07-20 Zf Friedrichshafen Ag Computerimplementiertes Verfahren zum maschinellen Lernen von Husten- und/oder Niesgeräuschen von ein Beförderungsmittel nutzenden Fahrgästen, um bei erkannten Husten- und/oder Niesgeräuschen Maßnahmen zur Reinigung des Beförderungsmittels einzuleiten, und Steuergerät, Verfahren, Vorrichtung, Beförderungsmittel und Computerprogramm zum Einleiten der Maßnahmen
CN110367934B (zh) * 2019-07-25 2023-02-03 深圳大学 一种基于非语音身体声音的健康监测方法及监测系统
US11526780B2 (en) * 2019-08-05 2022-12-13 Microsoft Technology Licensing, Llc Converting nonnative skills for conversational computing interfaces
EP4017351A4 (en) * 2019-08-19 2023-08-23 The University Of Queensland METHOD AND DEVICE FOR PROCESSING ASTHMAPATIENT COUGH FOR ADMINISTRATION OF RELEVANT THERAPY
US10702239B1 (en) 2019-10-21 2020-07-07 Sonavi Labs, Inc. Predicting characteristics of a future respiratory event, and applications thereof
US10709414B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Predicting a respiratory event based on trend information, and applications thereof
US10750976B1 (en) * 2019-10-21 2020-08-25 Sonavi Labs, Inc. Digital stethoscope for counting coughs, and applications thereof
US10709353B1 (en) 2019-10-21 2020-07-14 Sonavi Labs, Inc. Detecting a respiratory abnormality using a convolution, and applications thereof
US10716534B1 (en) 2019-10-21 2020-07-21 Sonavi Labs, Inc. Base station for a digital stethoscope, and applications thereof
US11741986B2 (en) * 2019-11-05 2023-08-29 Samsung Electronics Co., Ltd. System and method for passive subject specific monitoring
US20210161502A1 (en) * 2019-12-03 2021-06-03 Samsung Electronics Co., Ltd. System and method for determining a likelihood of paradoxical vocal cord motion (pvcm) in a person
CN115023183A (zh) * 2019-12-16 2022-09-06 瑞爱普健康有限公司 用于自动咳嗽检测的方法和装置
EP4078621A4 (en) * 2019-12-16 2023-12-27 Pfizer Inc. DIAGNOSIS OF RESPIRATORY DISEASES USING PATIENT SOUNDS
CN111179967B (zh) * 2019-12-17 2022-05-24 华南理工大学 颈脊髓损伤患者真假咳嗽音线性分类算法、介质和设备
US20210199503A1 (en) * 2019-12-26 2021-07-01 Industrial Technology Research Institute Data processing system disposed on sensor and method thereof
CN111009263A (zh) * 2019-12-28 2020-04-14 哈尔滨工业大学 一种用于肺部啰音识别的系统及方法
CN111260835B (zh) * 2020-01-19 2022-08-09 上海瑞皇管业科技股份有限公司 城市综合管廊监控报警系统及其控制方法
KR102152902B1 (ko) * 2020-02-11 2020-09-07 주식회사 엘솔루 음성 인식 모델을 학습시키는 방법 및 상기 방법을 이용하여 학습된 음성 인식 장치
US11484211B2 (en) 2020-03-03 2022-11-01 Cordio Medical Ltd. Diagnosis of medical conditions using voice recordings and auscultation
US11468908B2 (en) 2020-04-15 2022-10-11 Optum, Inc. Hybrid input machine learning frameworks
CN111584069B (zh) * 2020-05-07 2023-04-18 成都兰途网络科技有限公司 基于语音深-浅特征堆栈稀疏自动编码的精神病识别系统
KR102394882B1 (ko) * 2020-05-11 2022-05-04 한양대학교 산학협력단 감염 질환을 모니터링 및 진단하는 방법 및 장치
US20220104725A9 (en) * 2020-05-13 2022-04-07 Ali IMRAN Screening of individuals for a respiratory disease using artificial intelligence
CN115769075A (zh) * 2020-06-04 2023-03-07 因泰克医疗公司 用于预测体内功能损伤和事件的装置和方法
CN111653273A (zh) * 2020-06-09 2020-09-11 杭州叙简科技股份有限公司 一种基于智能手机的院外肺炎初步识别方法
US11219386B2 (en) 2020-06-15 2022-01-11 Cirrus Logic, Inc. Cough detection
US11134354B1 (en) 2020-06-15 2021-09-28 Cirrus Logic, Inc. Wear detection
AU2021290651A1 (en) * 2020-06-18 2023-01-19 Pfizer Inc. Event detection in subject sounds
US11417342B2 (en) 2020-06-29 2022-08-16 Cordio Medical Ltd. Synthesizing patient-specific speech models
WO2022015010A1 (ko) 2020-07-13 2022-01-20 다인기술 주식회사 음향 신호를 분석하여 기침을 계수하는 방법, 이를 수행하는 서버 및 비일시성의 컴퓨터 판독 가능 기록 매체
US20220047088A1 (en) * 2020-08-12 2022-02-17 Cvb Inc Method for analyzing sound data for use in an anti-snoring system and apparatus
KR102241399B1 (ko) * 2020-08-25 2021-04-16 주식회사 쓰리빌리언 증상의 질병 특이도 측정 시스템
EP4208081A4 (en) * 2020-09-04 2024-08-21 Level 42 Ai Inc CONTACTLESS SENSOR SYSTEMS AND METHODS
CN112233700A (zh) * 2020-10-09 2021-01-15 平安科技(深圳)有限公司 基于音频的用户状态识别方法、装置及存储介质
US11862188B2 (en) * 2020-10-22 2024-01-02 Google Llc Method for detecting and classifying coughs or other non-semantic sounds using audio feature set learned from speech
US20220338756A1 (en) * 2020-11-02 2022-10-27 Insubiq Inc. System and method for automatic detection of disease-associated respiratory sounds
CN112472066B (zh) * 2020-11-25 2024-09-20 陈向军 呼吸障碍监测终端、监测器和系统
KR102445294B1 (ko) * 2020-11-30 2022-09-20 한국전자기술연구원 호흡음을 포함한 생체신호 기반 호흡기 감염증 진단 방법 및 시스템
CN112754502A (zh) * 2021-01-12 2021-05-07 曲阜师范大学 一种基于脑电信号的音乐自动切换方法
US20240099685A1 (en) * 2021-01-28 2024-03-28 Black Box Voice Ltd. Detection of diseases and viruses by ultrasonic frequency
US20240341672A1 (en) * 2021-03-08 2024-10-17 Dain Technology, Inc. Method for evaluating possibility of dysphagia by analyzing acoustic signals, and server and non-transitory computer-readable recording medium performing same
RU2752453C1 (ru) * 2021-03-29 2021-07-28 Елена Алексеевна Терешко Телемедицинский терминал для осмотра и тестирования работников промышленных и транспортных предприятий
CN113158916B (zh) * 2021-04-26 2022-04-22 华南理工大学 一种咳嗽音自动识别算法、装置、介质和设备
US20220384040A1 (en) * 2021-05-27 2022-12-01 Disney Enterprises Inc. Machine Learning Model Based Condition and Property Detection
CN115414025A (zh) * 2021-05-31 2022-12-02 华为技术有限公司 筛查方法、设备、存储介质及程序产品
USD1042851S1 (en) 2021-06-16 2024-09-17 Sanolla Ltd. Medical diagnostic device
KR102580057B1 (ko) * 2021-08-23 2023-09-21 한양대학교 산학협력단 웨어러블 디바이스 및 그 동작방법
KR102410650B1 (ko) * 2021-10-09 2022-06-17 전상현 비대면 종합 건강 관리 서비스 제공방법
CN114041779A (zh) * 2021-11-26 2022-02-15 河南牧原智能科技有限公司 用于对牲畜呼吸道疾病进行识别的识别系统和计算机设备
KR102429256B1 (ko) * 2021-12-31 2022-08-04 주식회사 에이슬립 음향 정보를 통해 사용자의 수면 상태를 분석하기 위한 방법, 컴퓨팅 장치 및 컴퓨터 프로그램
CN114299925B (zh) * 2021-12-31 2024-11-01 江苏省省级机关医院 一种基于语音对帕金森病患者吞咽困难症状重要性度量指标的获取方法和系统
US11948599B2 (en) * 2022-01-06 2024-04-02 Microsoft Technology Licensing, Llc Audio event detection with window-based prediction
TWI820704B (zh) * 2022-05-12 2023-11-01 財團法人工業技術研究院 聲音訊號的分析方法及裝置、晶片的設計方法及裝置
US20230386504A1 (en) * 2022-05-27 2023-11-30 National Yang Ming Chiao Tung University System and method for pathological voice recognition and computer-readable storage medium
WO2023243754A1 (ko) * 2022-06-17 2023-12-21 주식회사 엔씨소프트 지정된 모션이 캡쳐된 시점을 추출하는 전자 장치 및 방법
CN114822567B (zh) * 2022-06-22 2022-09-27 天津大学 一种基于能量算子的病理嗓音频谱重构方法
CN117770790A (zh) * 2022-09-28 2024-03-29 华为技术有限公司 呼吸健康检测方法及可穿戴电子设备
WO2024081343A1 (en) * 2022-10-14 2024-04-18 The Johns Hopkins University Systems and methods for acoustic-based diagnosis
WO2024163390A1 (en) * 2023-01-31 2024-08-08 Hyfe Inc Methods for automatic cough detection and uses thereof
CN117357754A (zh) * 2023-11-15 2024-01-09 江苏麦麦医疗科技有限公司 智能家居制氧机及控制系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003038460A (ja) * 2001-08-03 2003-02-12 Mitsubishi Pharma Corp 咳嗽音検出装置、咳嗽音検出方法、咳嗽音検出プログラム及び情報記憶媒体
JP2008506423A (ja) * 2004-06-24 2008-03-06 ヴィーヴォメトリックス インコーポレイテッド 咳の監視システムおよびその方法
JP2008178635A (ja) * 2007-01-26 2008-08-07 Konica Minolta Medical & Graphic Inc 咳漱解析装置
JP2011167524A (ja) * 2003-04-10 2011-09-01 Adidas Ag 呼吸事象検出システムおよび方法
US20120071777A1 (en) * 2009-09-18 2012-03-22 Macauslan Joel Cough Analysis

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5598508A (en) * 1991-10-18 1997-01-28 Goldman; Julian M. Real-time waveform analysis using artificial neural networks
US6436057B1 (en) * 1999-04-22 2002-08-20 The United States Of America As Represented By The Department Of Health And Human Services, Centers For Disease Control And Prevention Method and apparatus for cough sound analysis
US6443907B1 (en) * 2000-10-06 2002-09-03 Biomedical Acoustic Research, Inc. Acoustic detection of respiratory conditions
US20080082018A1 (en) * 2003-04-10 2008-04-03 Sackner Marvin A Systems and methods for respiratory event detection
US7207948B2 (en) * 2004-06-24 2007-04-24 Vivometrics, Inc. Systems and methods for monitoring cough
JP2007125360A (ja) * 2005-10-05 2007-05-24 Konica Minolta Medical & Graphic Inc 咳検出装置
US7479115B2 (en) * 2006-08-25 2009-01-20 Savic Research, Llc Computer aided diagnosis of lung disease
GB0711524D0 (en) * 2007-06-15 2007-07-25 Univ Leuven Kath Online recognition and localisation of sick pig cough sounds
WO2009153681A1 (en) * 2008-06-17 2009-12-23 Koninklijke Philips Electronics, N.V. Acoustical patient monitoring using a sound classifier and a microphone
WO2010019831A1 (en) * 2008-08-14 2010-02-18 21Ct, Inc. Hidden markov model for speech processing with training method
WO2010066008A1 (en) * 2008-12-10 2010-06-17 The University Of Queensland Multi-parametric analysis of snore sounds for the community screening of sleep apnea with non-gaussianity index
EP2298163B1 (en) * 2008-12-22 2015-04-01 Pneumoflex Systems, LLC Involuntary contraction as a medical diagnostic tool
US8758262B2 (en) * 2009-11-25 2014-06-24 University Of Rochester Respiratory disease monitoring system
CN101894551B (zh) * 2010-07-02 2012-05-09 华南理工大学 一种咳嗽自动识别装置
US8784311B2 (en) * 2010-10-05 2014-07-22 University Of Florida Research Foundation, Incorporated Systems and methods of screening for medical states using speech and other vocal behaviors

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003038460A (ja) * 2001-08-03 2003-02-12 Mitsubishi Pharma Corp 咳嗽音検出装置、咳嗽音検出方法、咳嗽音検出プログラム及び情報記憶媒体
JP2011167524A (ja) * 2003-04-10 2011-09-01 Adidas Ag 呼吸事象検出システムおよび方法
JP2008506423A (ja) * 2004-06-24 2008-03-06 ヴィーヴォメトリックス インコーポレイテッド 咳の監視システムおよびその方法
JP2008178635A (ja) * 2007-01-26 2008-08-07 Konica Minolta Medical & Graphic Inc 咳漱解析装置
US20120071777A1 (en) * 2009-09-18 2012-03-22 Macauslan Joel Cough Analysis

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534026A (ja) * 2015-10-08 2018-11-22 コルディオ メディカル リミテッド 音声分析による肺疾患の評価
JP2021151570A (ja) * 2017-01-23 2021-09-30 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7201027B2 (ja) 2017-01-23 2023-01-10 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP2020508726A (ja) * 2017-02-01 2020-03-26 レスアップ ヘルス リミテッド 背景雑音環境における咳嗽検出のための方法および装置
JP7092777B2 (ja) 2017-02-01 2022-06-28 レスアップ ヘルス リミテッド 背景雑音環境における咳嗽検出のための方法および装置
JP2021506486A (ja) * 2017-12-21 2021-02-22 ザ ユニバーシティ オブ クィーンズランド 呼吸器疾患を診断するために疾患シグネチャを使用して咳音を分析するための方法
WO2019216320A1 (ja) * 2018-05-08 2019-11-14 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
JPWO2019216320A1 (ja) * 2018-05-08 2021-06-17 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
JP7197922B2 (ja) 2018-05-08 2022-12-28 国立大学法人徳島大学 機械学習装置、解析装置、機械学習方法および解析方法
KR20200025717A (ko) * 2018-08-31 2020-03-10 재단법인 아산사회복지재단 폐음을 이용한 폐 정보 획득 방법, 그 장치 및 그 프로그램
KR102092543B1 (ko) 2018-08-31 2020-03-24 재단법인 아산사회복지재단 폐음을 이용한 폐 정보 획득 방법, 그 장치 및 그 프로그램
KR102376188B1 (ko) * 2021-12-15 2022-03-17 가천대학교 산학협력단 딥러닝 기반의 호흡음 분류를 위한 피쳐정보 선택방법 및 시스템

Also Published As

Publication number Publication date
KR102081241B1 (ko) 2020-02-25
EP2830496A1 (en) 2015-02-04
JP6435257B2 (ja) 2018-12-05
US20150073306A1 (en) 2015-03-12
US10098569B2 (en) 2018-10-16
AU2013239327B2 (en) 2018-08-23
EP2830496B1 (en) 2023-04-26
CN110353685A (zh) 2019-10-22
CN110353685B (zh) 2022-03-04
KR20140142330A (ko) 2014-12-11
WO2013142908A1 (en) 2013-10-03
EP2830496A4 (en) 2015-12-16
AU2013239327A1 (en) 2014-11-06
ES2947765T3 (es) 2023-08-18
EP4241676A2 (en) 2023-09-13
EP4241676A3 (en) 2023-10-18
CN104321015A (zh) 2015-01-28

Similar Documents

Publication Publication Date Title
JP6435257B2 (ja) 患者音を処理するための方法および装置
Belkacem et al. End-to-end AI-based point-of-care diagnosis system for classifying respiratory illnesses and early detection of COVID-19: A theoretical framework
Abeyratne et al. Cough sound analysis can rapidly diagnose childhood pneumonia
JP2023164839A (ja) 呼吸器疾患を診断するために疾患シグネチャを使用して咳音を分析するための方法
Amrulloh et al. Automatic cough segmentation from non-contact sound recordings in pediatric wards
Dafna et al. Automatic detection of whole night snoring events using non-contact microphone
Swarnkar et al. Automatic identification of wet and dry cough in pediatric patients with respiratory diseases
Sánchez Morillo et al. Computer-aided diagnosis of pneumonia in patients with chronic obstructive pulmonary disease
Lella et al. A literature review on COVID-19 disease diagnosis from respiratory sound data
Aly et al. A novel deep learning model to detect COVID-19 based on wavelet features extracted from Mel-scale spectrogram of patients’ cough and breathing sounds
Haider et al. Computerized lung sound based classification of asthma and chronic obstructive pulmonary disease (COPD)
Swarnkar et al. Automatic picking of snore events from overnight breath sound recordings
US20220378377A1 (en) Augmented artificial intelligence system and methods for physiological data processing
Choi et al. Lightweight skip connections with efficient feature stacking for respiratory sound classification
Rao et al. Improved detection of lung fluid with standardized acoustic stimulation of the chest
EP4017351A1 (en) A method and apparatus for processing asthma patient cough sound for application of appropriate therapy
Aly et al. A new model to detect COVID-19 coughing and breathing sound symptoms classification from CQT and Mel spectrogram image representation using deep learning
Dar et al. Jaya Honey Badger optimization-based deep neuro-fuzzy network structure for detection of (SARS-CoV) Covid-19 disease by using respiratory sound signals
Netto et al. HBNET: a blended ensemble model for the detection of cardiovascular anomalies using phonocardiogram
Balasubramanian et al. Machine Learning-Based Classification of Pulmonary Diseases through Real-Time Lung Sounds.
US20210315517A1 (en) Biomarkers of inflammation in neurophysiological systems
Gupta et al. Correlating spirometry findings with auscultation sounds for diagnosis of respiratory diseases
Ghaffarzadegan et al. Active Learning for Abnormal Lung Sound Data Curation and Detection in Asthma
Sreerama Respiratory Sound Analysis for the Evidence of Lung Health
Koravanavar et al. Lung Sound Based Pulmonary Disease Classification Using Deep Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6435257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250