AIの医療分野での活用には、まだ課題が山積している:新型コロナウイルス対策の利用事例から明らかに

さまざまな分野で人工知能(AI)の活用が加速しているが、こと医療分野においては課題が山積している。このほど英国の研究所が実施した調査によると、新型コロナウイルス感染症の症状を検出する目的で使われたAIツールのほぼすべてに欠陥があることが明らかになったのだ。
AIの医療分野での活用には、まだ課題が山積している:新型コロナウイルス対策の利用事例から明らかに
ILLUSTRATION BY ELENA LACEY; GETTY IMAGES

新型コロナウイルスのパンデミック(世界的大流行)は人々の勇気ある行動を呼び起こし、科学的な知識を結集させて驚くべき偉業を生み出している。製薬会社は最新技術を駆使し、極めて有効なワクチンを記録的なスピードで次々に開発した。新しい方式の治験により、新型コロナウイルス感染症(COVID-19)に効果のある治療薬とそうでないものとの違いを、改めて理解することもできた。

ところが、データサイエンスや人工知能AI)の研究を専門とする英国のアラン・チューリング研究所がコロナ禍におけるAIの貢献度を実証するデータを探したところ、めぼしい成果が見当たらなかったという。2021年に発表された同研究所の報告書によると、パンデミック中にAIが何らかの影響力を発揮することはほとんどなく、AI技術の公平な活用に不可欠な健康データを活用しようとした専門家たちはさまざまな問題に直面した。

報告書は2つの調査結果に基づくもので、数百に及ぶ症例を再点検し、新型コロナウイルス感染症の症状を検出する目的で使われたAIツールのほぼすべてに欠陥があると結論づけている。「この画期的な技術による成果を示す素晴らしい事例の数々を紹介したかったのです」と、研究所の医師で報告書の編集を担当したビラル・マティーンは語る。「しかし残念ながら、そうした輝かしい事例は見当たらず、見つかったのは数多くの問題点でした」


RELATED ARTICLES

REPORT
AIによる「診断」は医療の問題を悪化させるリスクがある


医療にAIを用いることのリスク

医療用としては比較的新しいツールであるAIのような技術が、パンデミックの“救世主”になれなかったとしても無理はない。だが、マティーンをはじめとする科学者たちによると、AIを使った新型コロナウイルス対策の失敗には、さらに多くの要素が影響している。寄せられた期待の大きさに反し、データとアルゴリズムの融合によって医療の改善を図ることの難しさが明らかになりつつあるのだ。

過去の医療データをサンプルとして用いた多くの研究からは、アルゴリズムが皮膚がんの発見や病状の予測といった特定の目的において優れた精度を発揮することが報告されている。現在そうしたアルゴリズムの一部は承認済みの医療機器に搭載され、医師が脳卒中や眼病の兆候を見極める際に役立っている。

しかし、AIを使った医療の構想はほかにもあるものの、その多くは初期の概念実証(POC)から先に進んでいない。研究者たちが警告するように、いまのところ多くの研究において、AIの導入を適切に検討するための要件を量的あるいは質的に満たすデータを活用できていないのだ。

こうした状況は、信頼に値しない技術が医療体制に紛れ込むことによる実害のリスクを高めている。実際に使われている医療アルゴリズムの一部には、信ぴょう性がないことや特定の患者層に対する偏見が含まれていることが確認されている。

健康データの利用における大きな困難

膨大な量のデータを処理するデータ・クランチングが医療の向上を助ける、という発想は新しいものではない。

一説によると、疫学の始まりは1855年だったとされる。ロンドン在住の医師ジョン・スノウが、コレラが水に媒介される感染症であることを証明するために、患者の発生地点を地図の上に記したのだ。さらに最近では、写真の選別やスピーチの文字起こしといったテクノロジー業界のさまざまな業務のなかで進化してきた機械学習技術を、医師や研究者、技術者たちが積極的に利用している。

しかし、テクノロジー業界と研究病院の内部とでは、状況が大きく異なる。フェイスブック(現社名はメタ・プラットフォームズ)のような企業なら、ユーザーが投稿した何十億枚もの写真を活用し、画像認識アルゴリズムの改良に役立てることも可能だ。

しかし、健康データへの機械学習の利用には大きな困難が伴う。プライヴァシーへの配慮やITシステムの不具合といった問題があるからだ。また、患者の医療方針を決定づけるアルゴリズムの運用には、迷惑メールのフィルタリングやターゲティング広告の作成よりも大きな責任が課せられることになる。

「消費者市場で成果を上げたAIツールの開発の実例を、そのまま臨床の現場に持ち込むことはできません」と、アリゾナ州立大学准教授のヴィサール・ベリシャは言う。彼は同大学の工学部や保健学部の同僚たちと、このほど共同で学術論文を発表した。健康に関する多くのAI研究において、データ数が少なすぎる一方で強力なアルゴリズムが使われたことで、アルゴリズムの精度が実際より高いように見えていると警告する内容である。

こうした事態に陥ってしまうのは、医療画像やヴァイタルサイン、ウェアラブル端末などの健康データが、個人の生活様式や背景ノイズといった特定の健康状態とは無関係な理由で変動しがちだからだ。

テクノロジー業界で一般的となっている機械学習のアルゴリズムは、パターンを見つけ出すことに長けている。それだけに、現実にそぐわない「正解」への近道を見つけてしまうことがあるのだ。

データ数が少ないほど、アルゴリズムはそうした「ごまかし」をしやすくなり、臨床の場に好ましくない結果をもたらす盲点が生じることになる。「開発現場の人々は、自分たちが実際よりはるかに高性能なモデルを生み出していると思い込んでしまいます」と、ベリシャは指摘する。「こうしてAIを誇大に喧伝する声が高まっていくのです」

アルゴリズムの危うさ

こうした問題が、AIを用いた医療の研究の一部の領域に懸念すべき顕著な傾向を生み出していると、ベリシャは言う。例えば、録音された患者の会話にアルゴリズムを適用してアルツハイマー病や認知障害の兆候を検知する研究では、調査対象が少ない場合と比べて対象が増えるほど精度が落ちるという事実を、ベリシャらのチームは発見した。

これはビッグデータへの期待に反する結果である。CTスキャンで脳の疾患を特定したり、自閉症の診断に機械学習を取り入れたりといった研究においても、同様の傾向が報告されている。

予備研究の段階ではうまく機能するのに、実際の患者のデータに対しては異なる動きをするというアルゴリズムの危うさは、仮定の話ではない。19年の調査では、複雑な健康問題を抱える人を特に手厚くケアできるよう優先順位を決めるために数百万人の患者を対象に使われていたシステムが、黒人より白人の患者を優遇していたことが明らかになっている。

こうした偏りのあるシステムを排除するには、広範でバランスのとれたデータセットと丁寧な検証が必要になる。だだが、医療用AIの研究においては、これまで長く続いてきた医療の不平等のせいでデータの偏りが当たり前のことになっている。

スタンフォード大学の研究チームが20年に実施した調査によると、ディープラーニングを用いた米国の医療研究に使われたデータの71%が、カリフォルニア州、マサチューセッツ州、ニューヨーク州から送られたもので、残りの47州からのデータはごく少数あるいは皆無だったという。

また、低所得国のデータは、AI医療の研究にほとんど取り入れられていない。機械学習を用いて疾病の診断や経過を予測する目的で実施された150件を超える研究の検証結果が21年に発表されているが、そこではそれらの研究のほとんどが「方法論的な質が低く偏見を含んでいる恐れが高い」と結論づけられている。

問題の本質

こうした欠陥にふたりの研究者が懸念を抱き、このほど「Nightingale Open Science(ナイチンゲール・オープンサイエンス)」という名の非営利団体を設立した。その目的とは、研究者たちが利用するデータセットの質と規模の改善にある。医療機関と連携し、患者の診療記録から集めた医療画像や関連データを整理したうえで匿名化し、営利を目的としない研究に生かす活動に取り組んでいる。

ナイチンゲール・オープンサイエンスの共同設立者でカリフォルニア大学バークレー校准教授のジアド・オーバーマイヤーは、こうしたデータを利用できる環境を提供することで、望ましい成果につながる競争を促進したいと考えているという。広範囲にわたる大量の画像収集が、機械学習の進歩を加速させた経緯と同じだ。

「問題の本質は、結果を精査する人がいないことで個々の研究者が医療データを好きなように扱い、発言していることなのです」と彼は指摘する。「それぞれがデータをしまい込んでいます」

ナイチンゲール・オープンサイエンスはほかのプロジェクトと連携しながら、データの利用とデータそのものの質を向上させることで医療用AIの改善を目指している。低中所得国に関する機械学習のデータセットの構築を支援し、医療の質の向上に取り組む「Lacuna Fund」のような組織もある。

また、英国のバーミンガム大学病院は、AIシステムが偏りのないデータに基づいて稼働しているか評価する基準の作成に取り組んでいる。この活動は、英国の国民保険サーヴィス(NHS)とマサチューセッツ工科大学(MIT)の支援を受けている。

パンデミック対策用アルゴリズムに関するアラン・チューリング研究所の報告書を作成したマティーンは、AIに特化したこれらのプロジェクトを歓迎しているという。だが、医療分野におけるAIの将来は、随所に不備が目立つ医療システムのITインフラを近代化できるか否かにかかっているとも指摘する。「問題の根本への投資なくして成果は得られません」と、彼は言う。

※『WIRED』による人工知能(AI)の関連記事はこちら


RELATED ARTICLES

REPORT
AIによる「診断」は医療の問題を悪化させるリスクがある


限定イヴェントにも参加できるWIRED日本版「メンバーシップ」会員募集中!

次の10年を見通すためのインサイト(洞察)が詰まった選りすぐりのロングリード(長編記事)を、週替わりのテーマに合わせてお届けする会員サーヴィス「WIRED SZ メンバーシップ」。毎週開催の会員限定イヴェントにも参加可能な刺激に満ちたサーヴィスは、1週間の無料トライアルを実施中!詳細はこちら


TEXT BY TOM SIMONITE

TRANSLATION BY MITSUKO SAEKI