[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2020124220A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2020124220A
JP2020124220A JP2020082268A JP2020082268A JP2020124220A JP 2020124220 A JP2020124220 A JP 2020124220A JP 2020082268 A JP2020082268 A JP 2020082268A JP 2020082268 A JP2020082268 A JP 2020082268A JP 2020124220 A JP2020124220 A JP 2020124220A
Authority
JP
Japan
Prior art keywords
cell
feature amount
correlation
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020082268A
Other languages
Japanese (ja)
Other versions
JP6999118B2 (en
Inventor
信彦 米谷
Nobuhiko Yonetani
信彦 米谷
真史 山下
Masashi Yamashita
真史 山下
聖子 山▲崎▼
Seiko Yamazaki
聖子 山▲崎▼
洋介 大坪
Yosuke Otsubo
洋介 大坪
俊輔 武居
Shunsuke Takei
俊輔 武居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2020082268A priority Critical patent/JP6999118B2/en
Publication of JP2020124220A publication Critical patent/JP2020124220A/en
Application granted granted Critical
Publication of JP6999118B2 publication Critical patent/JP6999118B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Microscoopes, Condenser (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Abstract

To provide an image processing apparatus capable of suppressing poor analysis when calculating an interaction in a cell or between cells.SOLUTION: An image processing apparatus comprises: a cell image acquisition part that acquires a cell image obtained by imaging cells; a feature amount calculation part that calculates a plurality of types of feature amounts of the cell image acquired by the cell image acquisition part; and a correlation extraction part that extracts a specific correlation from the plurality of correlations between the feature amounts calculated by the feature amount calculation part, based on the likelihood of the feature amounts.SELECTED DRAWING: None

Description

本発明は、画像処理装置に関するものである。 The present invention relates to an image processing device.

生物科学や医学等において、生物の健康や疾患等の状態は、例えば、細胞や細胞内の小器官等の状態と関連性があることが知られている。そのため、これら関連性を解析することは、生物科学や医学等の諸処の課題を解決する一つの手段になる。また、細胞間、或いは細胞内で伝達される情報の伝達経路を解析することは、例えば、工業用途でのバイオセンサーや、疾病予防を目的とした製薬等の研究に役立てることができる。細胞や組織片等に関する種々の解析技術として、例えば、画像処理を用いた技術が知られている(例えば、特許文献1参照)。 In biological science, medicine, etc., it is known that the state of health and diseases of organisms is related to the state of cells and organelles within cells, for example. Therefore, analyzing these relationships is one means for solving problems in various fields such as biological science and medicine. In addition, analysis of the transmission pathway of information transmitted between cells or in cells can be useful for research on biosensors for industrial use, pharmaceuticals for disease prevention, and the like. As various analysis techniques for cells, tissue pieces, etc., for example, a technique using image processing is known (see, for example, Patent Document 1).

米国特許第0228069号明細書U.S. Pat. No. 0228069

しかしながら、細胞内或いは細胞間の相互作用を算出する場合に、撮像された細胞を含む画像を画像処理して得られる情報を用いると、得られる情報量が多いので、相関を取得するために、莫大な演算量が必要となり、解析不良となる可能性がある。 However, when calculating the interaction between cells or between cells, if the information obtained by image-processing the image containing the imaged cells is used, the amount of information obtained is large, so in order to obtain the correlation, An enormous amount of calculation is required, which may result in poor analysis.

本発明は、上記問題に鑑みてなされたものであり、解析不良を抑制することができる画像処理装置を提供することを課題とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus capable of suppressing poor analysis.

上記問題を解決するために、本発明の一態様は、細胞が撮像された細胞画像を取得する細胞画像取得部と、前記細胞画像取得部が取得する前記細胞画像の複数種類の特徴量を算出する特徴量算出部と、前記特徴量の尤度に基づいて、前記特徴量算出部が算出する前記特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する相関関係抽出部と、を備える画像処理装置である。 In order to solve the above problems, one aspect of the present invention calculates a plurality of types of feature amounts of a cell image acquisition unit that acquires a cell image in which cells are imaged, and the cell image that the cell image acquisition unit acquires. And a correlation extraction unit that extracts a specific correlation from among the plurality of correlations between the feature amounts calculated by the feature amount calculation unit based on the likelihood of the feature amount. And an image processing apparatus including.

本発明によれば、画像処理による解析不良を抑制することができる。 According to the present invention, analysis failure due to image processing can be suppressed.

本発明の実施形態による顕微鏡観察システムの構成の一例を示す模式図である。It is a schematic diagram which shows an example of a structure of the microscope observation system by embodiment of this invention. 本実施形態の画像処理装置が備える各部の機能構成の一例を示すブロック図である。It is a block diagram showing an example of functional composition of each part with which an image processing device of this embodiment is provided. 本実施形態の演算部の演算手順の一例を示す流れ図である。It is a flow chart which shows an example of a calculation procedure of a calculation part of this embodiment. 本実施形態の特徴量算出部による特徴量の算出結果の一例を示す模式図である。It is a schematic diagram which shows an example of the calculation result of the feature-value by the feature-value calculation part of this embodiment. 本実施形態の細胞毎の特徴量の行列の一例を示す図である。It is a figure which shows an example of the matrix of the feature-value for every cell of this embodiment. 本実施形態の特徴量間の相関関係の一例を示す模式図である。It is a schematic diagram which shows an example of the correlation between the feature-values of this embodiment. 本実施形態の特定の相関関係の一例を示す模式図である。It is a schematic diagram which shows an example of the specific correlation of this embodiment. 本実施形態の相関関係抽出部によるクロスバリデーションの手順の一例を示す流れ図である。It is a flow chart which shows an example of a procedure of cross validation by a correlation extraction part of this embodiment. 本実施形態の相関関係抽出部による平均尤度の算出手順の一例を示す模式図である。It is a schematic diagram which shows an example of the calculation procedure of the average likelihood by the correlation extraction part of this embodiment. 本実施形態の平均尤度と正則化パラメータとの関係の一例を示すグラフである。It is a graph which shows an example of the relation of the average likelihood and the regularization parameter of this embodiment. 本実施形態の相関関係抽出部による特徴量の相関関係の抽出結果の一例を示す模式図である。It is a schematic diagram which shows an example of the extraction result of the correlation of the feature-value by the correlation extraction part of this embodiment. 本実施形態のタンパク質アノテーション・データベースの一例を示す表である。It is a table which shows an example of the protein annotation database of this embodiment. 本実施形態の特徴量アノテーション・データベースの一例を示す表である。It is a table showing an example of a feature quantity annotation database of this embodiment. 本実施形態の特徴量ネットワークの比較類型の一例を示す図である。It is a figure which shows an example of the comparative type of the feature-value network of this embodiment. 本実施形態の生物学的知識を用いた正則化パラメータの決定手順の一例を示す図である。It is a figure which shows an example of the determination procedure of the regularization parameter using the biological knowledge of this embodiment. 本実施形態の特徴量ネットワークの結合有無についての、知識ベースネットワークと予測ネットワークとの関係性を示す図である。It is a figure which shows the relationship of a knowledge base network and a prediction network regarding the presence or absence of connection of the feature-value network of this embodiment.

[実施形態]
以下、図面を参照して、本発明の実施の形態について説明する。図1は、本発明の実施形態による顕微鏡観察システム1の構成の一例を示す模式図である。
[Embodiment]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a schematic diagram showing an example of the configuration of a microscope observation system 1 according to an embodiment of the present invention.

顕微鏡観察システム1は、細胞等を撮像することにより取得される画像に対して、画像処理を行う。以下の説明において、細胞等を撮像することにより取得される画像を、単に細胞画像とも記載する。顕微鏡観察システム1は、画像処理装置10と、顕微鏡装置20と、表示部30とを備える。 The microscope observation system 1 performs image processing on an image acquired by imaging a cell or the like. In the following description, an image acquired by imaging a cell or the like is also simply referred to as a cell image. The microscope observation system 1 includes an image processing device 10, a microscope device 20, and a display unit 30.

顕微鏡装置20は、生物顕微鏡であり、電動ステージ21と、撮像部22とを備える。電動ステージ21は、所定の方向(例えば、水平方向の二次元平面内のある方向)に、撮像対象物の位置を任意に稼働可能である。撮像部22は、CCD(Charge-Coupled Device)やCMOS(Complementary MOS)などの撮像素子を備えており、電動ステージ21上の撮像対象物を撮像する。なお、顕微鏡装置20に電動ステージ21を備えていなくてもよく、ステージが所定方向に稼働しないステージとしても構わない。 The microscope device 20 is a biological microscope and includes an electric stage 21 and an imaging unit 22. The electric stage 21 can arbitrarily move the position of the imaging target in a predetermined direction (for example, a certain direction within a horizontal two-dimensional plane). The image pickup unit 22 includes an image pickup device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS), and picks up an image of an image pickup target on the electric stage 21. It should be noted that the microscope apparatus 20 may not be provided with the electric stage 21, and the stage may not operate in the predetermined direction.

より具体的には、顕微鏡装置20は、例えば、微分干渉顕微鏡(Differential Interference Contrast microscope;DIC)や位相差顕微鏡、蛍光顕微鏡、共焦点顕微鏡、超解像顕微鏡等の機能を有する。顕微鏡装置20は、電動ステージ21上に載置された培養容器を撮像する。この培養容器とは、例えば、ウェルプレートWPである。顕微鏡装置20は、ウェルプレートWPが有する多数のウェルWの中に培養された細胞に光を照射することで、細胞を透過した透過光を細胞の画像として撮像する。これによって、細胞の透過DIC画像や、位相差画像、暗視野画像、明視野画像等の画像を取得することができる。さらに、細胞に蛍光物質を励起する励起光を照射することで、生体物質から発光される蛍光を細胞の画像として撮像する。また、顕微鏡装置20は、生体物質内に取り込まれた発色物質そのものから発光される蛍光や、発色団を持つ物質が生体物質に結合することによって発光される蛍光を、上述した細胞の画像として撮像してもよい。これにより、顕微鏡観察システム1は、蛍光画像、共焦点画像、超解像画像を取得することができる。なお、細胞の画像を取得する方法は、光学顕微鏡に限られない。例えば、電子顕微鏡でも構わない。また、後述する細胞を含む画像は、異なる方式により得られた画像を用い、相関を取得しても構わない。すなわち、細胞を含む画像の種類は適宜選択しても構わない。本実施形態における細胞とは、例えば、初代培養細胞や、株化培養細胞、組織切片の細胞等である。細胞を観察するために、観察される試料は細胞の集合体や組織試料、臓器、固体(動物など)を用い観察し、細胞を含む画像を取得しても構わない。なお、細胞の状態は、特に制限されず、生きている状態であっても、或いは固定されている状態であってもよく、“in-vivo”または“in-vitro”のどちらでもよい。勿論、生きている状態の情報と、固定されている情報とを組み合わせても構わない。
細胞の状態は、目的別に適宜選択しても構わない。例えば、細胞内の構造物において判別する種類(例えば、タンパク質、オルガネラ)により、固定と未固定を選択しても構わない。また、固定した細胞で細胞の動的挙動を取得する場合には、条件の異なる複数の固定細胞を作成し、動的挙動を取得する。細胞内の構造物において、判別する種類は核内に限られない。
また、細胞を観測するために、細胞に予め処理した後に、細胞を観察しても構わない。勿論、細胞を観察するために、細胞に処理しない状態で細胞を観察しても構わない。細胞を観察する場合には、細胞を免疫染色により染色し、観察しても構わない。例えば、細胞内の核内構造において判別する種類において、用いる染色液を選択しても構わない。また染色方法に関しては、あらゆる染色方法を用いることができる。例えば主に組織染色に用いられる各種特殊染色、塩基配列の結合を利用したハイブリダイゼーションなどがある。
また、細胞に発光タンパク質(例えば、導入された遺伝子(ルシフェラーゼ遺伝子など)から発現された発光タンパク質)で処理し、観察しても構わない。例えば、細胞内の核内構造において判別する種類において、用いる発光タンパク質を選択しても構わない。また、これらの細胞を観察する手段及び又は細胞を染色する方法などの相関取得を解析するための前処理は、目的別に適宜選択しても構わない。たとえば、細胞の動的挙動を得る場合に最適な手法により細胞の動的な情報を取得して、細胞内のシグナル伝達を得る場合には最適な手法により細胞内のシグナル伝達に関する情報を取得しても構わない。これら、目的別に選択される前処理が異なっていても構わない。また、目的別に選択される前処理の種類が少なくなるようにしても構わない。例えば、細胞の動的挙動を取得する手法と細胞内のシグナル伝達を取得する手法とがそれぞれ、最適な手法が異なっていても、それぞれ異なる手法でそれぞれの情報を取得することは煩雑となるために、それぞれの情報を取得するのに十分な場合には、最適手法とは異なり、それぞれが共通する手法で行っても構わない。
More specifically, the microscope device 20 has functions such as a differential interference microscope (DIC), a phase contrast microscope, a fluorescence microscope, a confocal microscope, and a super-resolution microscope. The microscope apparatus 20 images the culture container placed on the electric stage 21. The culture container is, for example, a well plate WP. The microscope apparatus 20 irradiates cells cultured in a large number of wells W included in the well plate WP with light, thereby capturing the transmitted light transmitted through the cells as an image of the cells. This makes it possible to acquire images such as a transmission DIC image of cells, a phase difference image, a dark field image, and a bright field image. Further, by irradiating the cells with excitation light that excites the fluorescent substance, the fluorescence emitted from the biological substance is captured as an image of the cells. In addition, the microscope device 20 captures the fluorescence emitted from the coloring substance itself taken into the biological substance or the fluorescence emitted by the substance having the chromophore bound to the biological substance as an image of the cell described above. You may. Thereby, the microscope observation system 1 can acquire a fluorescence image, a confocal image, and a super-resolution image. The method of acquiring the image of the cell is not limited to the optical microscope. For example, an electron microscope may be used. Further, as the image including cells described below, images obtained by different methods may be used to obtain the correlation. That is, the type of image containing cells may be appropriately selected. The cells in the present embodiment are, for example, primary culture cells, established culture cells, cells of tissue sections, and the like. In order to observe the cells, the sample to be observed may be an aggregate of cells, a tissue sample, an organ, or a solid (animal etc.), and an image containing the cells may be acquired. The state of the cells is not particularly limited, and may be a living state or a fixed state, and may be "in-vivo" or "in-vitro". Of course, the information of the living state and the fixed information may be combined.
The cell state may be appropriately selected according to the purpose. For example, fixed or unfixed may be selected depending on the type of discrimination in the intracellular structure (for example, protein or organelle). In addition, when acquiring the dynamic behavior of cells with fixed cells, a plurality of fixed cells under different conditions are created and the dynamic behavior is acquired. In the intracellular structure, the type of discrimination is not limited to the nucleus.
Further, in order to observe the cells, the cells may be previously treated and then observed. Of course, in order to observe the cells, the cells may be observed without being treated. When observing the cells, the cells may be stained by immunostaining and then observed. For example, the staining solution to be used may be selected depending on the type of discrimination in the intracellular nuclear structure. As for the dyeing method, any dyeing method can be used. For example, there are various special stains mainly used for tissue staining, and hybridization utilizing binding of base sequences.
Alternatively, cells may be treated with a luminescent protein (for example, a luminescent protein expressed from an introduced gene (luciferase gene or the like)) and observed. For example, the photoprotein to be used may be selected depending on the type of discrimination in the intracellular nuclear structure. Further, the pretreatment for analyzing the correlation acquisition, such as the means for observing these cells and/or the method for staining the cells, may be appropriately selected according to the purpose. For example, when obtaining the dynamic behavior of a cell, the optimal method is used to obtain the dynamic information of the cell, and when obtaining intracellular signal transduction, the optimal method is used to obtain the information regarding the intracellular signal transduction. It doesn't matter. The pretreatments selected for each purpose may be different. Further, the number of types of preprocessing selected for each purpose may be reduced. For example, even if the method for obtaining the dynamic behavior of a cell and the method for obtaining intracellular signal transduction are different from each other, it is complicated to obtain each information by different methods. In addition, when it is sufficient to acquire the respective information, different methods may be used in common, unlike the optimum method.

ウェルプレートWPは、複数のウェルWを有する。この一例では、ウェルプレートWPは、12×8の96個のウェルWを有する。細胞は、ウェルWの中において、特定の実験条件のもと培養される。特定の実験条件とは、温度、湿度、培養期間、刺激が付与されてからの経過時間、付与される刺激の種類や強さ、刺激の有無、生物学的特徴の誘導等を含む。刺激とは、例えば、電気、音波、磁気、光等の物理的刺激や、物質や薬物の投与による化学的刺激等である。また、生物学的特徴とは、細胞の分化の段階や、形態、細胞数等を示す特徴である。 The well plate WP has a plurality of wells W. In this example, the well plate WP has 96 wells W of 12×8. The cells are cultured in the well W under specific experimental conditions. The specific experimental conditions include temperature, humidity, culture period, time elapsed after stimulation is applied, type and strength of stimulation applied, presence or absence of stimulation, induction of biological characteristics, and the like. The stimulus is, for example, a physical stimulus such as electric, sound wave, magnetism, light, or a chemical stimulus by administration of a substance or a drug. The biological characteristic is a characteristic indicating the stage of cell differentiation, morphology, cell number, and the like.

図2は、本実施形態の画像処理装置10が備える各部の機能構成の一例を示すブロック図である。画像処理装置10は、顕微鏡装置20によって取得された画像を解析するコンピュータ装置である。画像処理装置10は、演算部100と、記憶部200と、結果出力部300とを備える。なお、画像処理装置10によって画像処理される画像は、顕微鏡装置20によって撮像される画像だけに限らず、例えば、画像処理装置10が備える記憶部200に予め記憶されている画像や、不図示の外部記憶装置に予め記憶されている画像であってもよい。 FIG. 2 is a block diagram showing an example of the functional configuration of each unit included in the image processing apparatus 10 according to this embodiment. The image processing device 10 is a computer device that analyzes an image acquired by the microscope device 20. The image processing device 10 includes a calculation unit 100, a storage unit 200, and a result output unit 300. The image processed by the image processing apparatus 10 is not limited to the image captured by the microscope apparatus 20, but may be, for example, an image previously stored in the storage unit 200 included in the image processing apparatus 10 or an unillustrated image. It may be an image stored in advance in an external storage device.

演算部100は、プロセッサが記憶部200に格納されたプログラムを実行することにより機能する。また、これらの演算部110の各機能部のうちの一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって構成されていてもよい。演算部100は、細胞画像取得部101と、特徴量算出部102と、雑音成分除去部103と、相関関係抽出部104とを備える。 The arithmetic unit 100 functions by the processor executing a program stored in the storage unit 200. Further, some or all of the functional units of the arithmetic unit 110 may be configured by hardware such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit). The calculation unit 100 includes a cell image acquisition unit 101, a feature amount calculation unit 102, a noise component removal unit 103, and a correlation extraction unit 104.

細胞画像取得部101は、撮像部22が撮像した細胞画像を取得し、取得した細胞画像を102に供給する。ここで、細胞画像取得部101が取得する細胞画像には、細胞の培養状態が時系列に撮像された複数の画像や、様々な実験条件において細胞が培養された複数の画像が含まれる。 The cell image acquisition unit 101 acquires the cell image captured by the imaging unit 22 and supplies the acquired cell image to 102. Here, the cell images acquired by the cell image acquisition unit 101 include a plurality of images in which the culture state of the cells is captured in time series and a plurality of images in which the cells are cultured under various experimental conditions.

特徴量算出部102は、細胞画像取得部101が供給する細胞画像の複数種類の特徴量を算出する。この特徴量には、細胞画像の輝度、面積、分散などが含まれる。
すなわち、撮像される細胞画像から取得される情報から導出される特徴である。例えば、取得される画像における輝度分布を算出する。時系列もしくは、分化等の細胞状態の変化で異なる複数の画像を用い、算出される輝度分布の所定時間の変化、もしくは、算出される輝度分布の分化等の細胞状態変化に伴う変化から、他とは異なる輝度の変化を示す位置情報を求め、輝度の変化を特徴量としてもよい。この場合に、時間の変化に限られず、分化等の細胞の状態の変化が異なる複数の画像を用いても構わない。また、異なる輝度の変化を示す位置の情報を特徴量としてもよい。例えば、細胞の所定時間内の挙動、もしくは、細胞の分化等の細胞状態変化に伴う挙動でも構わないし、細胞の形状の所定時間内の変化、もしくは、細胞の形状の分化等の細胞状態変化に伴う変化でも構わない。また、撮像される細胞画像から、所定時間内の変化、もしくは、分化等の細胞状態変化に伴う変化が認められない場合は、変化しないことも特徴量としても構わない。
雑音成分除去部103は、特徴量算出部102が算出した特徴量のうち、雑音成分(ノイズ)を除去する。
相関関係抽出部104は、雑音成分除去部103が雑音成分を除去した後の特徴量について、特徴量の尤度に基づいて、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する。ここで、尤度とは、所定条件に従って結果を算出する場合に、その結果から所定条件を推測する尤もらしさを表す数値である。また、尤度とは、データが確率モデルに従う場合に、推定すべきパラメータの尤もらしさを表すコスト関数である。
結果出力部300は、演算部100による演算結果を表示部30に出力する。なお、結果出力部300は、演算部100による演算結果を、表示部30以外の出力装置や、記憶装置などに出力してもよい。
表示部30は、結果出力部300が出力する演算結果を表示する。
上述した演算部100の具体的な演算手順について、図3を参照して説明する。
The feature amount calculation unit 102 calculates a plurality of types of feature amounts of the cell image supplied by the cell image acquisition unit 101. This feature amount includes the brightness, area, variance, etc. of the cell image.
That is, it is a feature derived from the information acquired from the imaged cell image. For example, the brightness distribution in the acquired image is calculated. Using multiple images that are different in time series or due to changes in cell state such as differentiation, changes in the calculated luminance distribution over a predetermined period of time, or changes due to changes in cell state such as differentiation in the calculated luminance distribution, It is also possible to obtain position information indicating a change in brightness different from that and use the change in brightness as the feature amount. In this case, it is possible to use a plurality of images which are not limited to the change in time and have different changes in cell states such as differentiation. Further, the information of the positions indicating different changes in brightness may be used as the feature amount. For example, the behavior of cells within a predetermined time, or the behavior associated with changes in cell states such as cell differentiation may be used, and changes in the shape of cells within a predetermined time or changes in cell states such as differentiation of cell shapes may occur. It may be accompanied by a change. Further, if no change within a predetermined time or a change associated with a change in cell state such as differentiation is not recognized from the imaged cell image, no change may be made or the feature amount may be used.
The noise component removal unit 103 removes a noise component (noise) from the feature amount calculated by the feature amount calculation unit 102.
The correlation extraction unit 104 determines, for the feature quantity after the noise component removal unit 103 has removed the noise component, a plurality of correlations between the feature quantities calculated by the feature quantity calculation unit 102 based on the likelihood of the feature quantity. From them, we extract a specific correlation. Here, the likelihood is a numerical value indicating the likelihood of estimating the predetermined condition from the result when the result is calculated according to the predetermined condition. Further, the likelihood is a cost function that represents the likelihood of the parameter to be estimated when the data follows the probability model.
The result output unit 300 outputs the calculation result of the calculation unit 100 to the display unit 30. The result output unit 300 may output the calculation result of the calculation unit 100 to an output device other than the display unit 30, a storage device, or the like.
The display unit 30 displays the calculation result output by the result output unit 300.
A specific calculation procedure of the calculation unit 100 described above will be described with reference to FIG.

図3は、本実施形態の演算部100の演算手順の一例を示す流れ図である。なお、ここに示す演算手順は、一例であって、演算手順の省略や演算手順の追加が行われてもよい。
細胞画像取得部101は、細胞画像を取得する(ステップS10)。この細胞画像には、遺伝子、タンパク質、オルガネラなど、大きさが相違する複数の種類の生体組織の画像が含まれている。また、細胞画像には、細胞の形状情報が含まれている。また、細胞画像を時系列の異なる、もしくは、分化等の細胞状態が異なる細胞画像から、動的な挙動を取得する。従って、細胞内の微細な構造から、細胞形状までの複数の大きさの相違するスケールまたは、ある所定時間、もしくは、分化等のある細胞状態での細胞画像と時系列の異なる、もしくは、分化等の細胞状態が異なる細胞画像での次元の相違するスケールを用いて解析することから、マルチスケール解析と称することも可能である。
FIG. 3 is a flowchart showing an example of the calculation procedure of the calculation unit 100 of this embodiment. The calculation procedure shown here is an example, and the calculation procedure may be omitted or the calculation procedure may be added.
The cell image acquisition unit 101 acquires a cell image (step S10). The cell image includes images of a plurality of types of living tissues having different sizes such as genes, proteins, and organelles. In addition, the cell image includes cell shape information. Further, dynamic behavior is acquired from cell images having different time series or different cell states such as differentiation. Therefore, different scales of multiple sizes from the minute structure in the cell to the cell shape, or a predetermined time, or a time series different from the cell image in a certain cell state such as differentiation, or differentiation, etc. It can also be referred to as a multi-scale analysis because it is analyzed using the scales having different dimensions in cell images having different cell states.

特徴量算出部102は、ステップS10において取得された細胞画像に含まれる細胞の画像を、細胞毎に抽出する(ステップS20)。特徴量算出部102は、細胞画像に対して、既知の手法による画像処理を施すことにより、細胞の画像を抽出する。この一例では、特徴量算出部102は、画像の輪郭抽出やパターンマッチングなどを施すことにより、細胞の画像を抽出する。 The feature amount calculation unit 102 extracts an image of cells included in the cell image acquired in step S10 for each cell (step S20). The feature amount calculation unit 102 extracts an image of a cell by performing image processing on the cell image by a known method. In this example, the feature amount calculation unit 102 extracts a cell image by performing contour extraction of the image, pattern matching, or the like.

次に、特徴量算出部102は、ステップS20において抽出された細胞の画像について、細胞の種類を判定する(ステップS30)。さらに、特徴量算出部102は、ステップS30における判定結果に基づいて、ステップS20において抽出された細胞の画像に含まれる細胞の構成要素を判定する(ステップS40)。ここで、細胞の構成要素には、細胞核、リソソーム、ゴルジ体、ミトコンドリアなどの細胞小器官(オルガネラ)や、オルガネラを構成するタンパク質などが含まれる。なお、ステップS30では細胞の種類を判定しているが、細胞の種類を判定しなくても構わない。この場合には、予め導入する細胞の種類が判定している場合には、その情報を使用しても構わない。勿論、細胞の種類を特定しなくても構わない。 Next, the feature amount calculation unit 102 determines the type of cell in the image of the cell extracted in step S20 (step S30). Further, the feature amount calculation unit 102 determines the constituent elements of the cells included in the image of the cells extracted in step S20 based on the determination result in step S30 (step S40). Here, the constituent elements of cells include organelles such as cell nuclei, lysosomes, Golgi apparatus, mitochondria, and proteins that constitute organelles. Although the cell type is determined in step S30, the cell type may not be determined. In this case, if the type of cell to be introduced is determined in advance, that information may be used. Of course, it is not necessary to specify the cell type.

次に、特徴量算出部102は、ステップS40において判定された細胞の構成要素ごとに、画像の特徴量を算出する(ステップS50)。この特徴量には、画素の輝度値、画像内のある領域の面積、画素の輝度の分散値などが含まれる。また、特徴量には、細胞の構成要素に応じた複数の種類がある。一例として、細胞核の画像の特徴量には、核内総輝度値や、核の面積などが含まれる。細胞質の画像の特徴量には、細胞質内総輝度値や、細胞質の面積などが含まれる。また、細胞全体の画像の特徴量には、細胞内総輝度値や、細胞の面積などが含まれる。また、ミトコンドリアの画像の特徴量には、断片化率が含まれる。なお、特徴量算出部102は、特徴量を、例えば0(ゼロ)から1までの間の値に正規化して算出してもよい。 Next, the feature amount calculation unit 102 calculates the feature amount of the image for each constituent element of the cell determined in step S40 (step S50). The feature amount includes a brightness value of a pixel, an area of a certain area in an image, a variance value of brightness of the pixel, and the like. In addition, there are a plurality of types of feature quantities depending on the constituent elements of cells. As an example, the feature quantity of the image of the cell nucleus includes the total brightness value in the nucleus, the area of the nucleus, and the like. The feature quantity of the cytoplasm image includes the total brightness value in the cytoplasm, the area of the cytoplasm, and the like. Further, the feature amount of the image of the entire cell includes the intracellular total brightness value, the area of the cell, and the like. Further, the feature amount of the mitochondrial image includes the fragmentation rate. The feature amount calculation unit 102 may calculate the feature amount by normalizing it to a value between 0 (zero) and 1, for example.

また、特徴量算出部102は、細胞画像に対応付けられている細胞に対する実験の条件の情報に基づいて、特徴量を算出してもよい。例えば、細胞について抗体を反応させた場合において撮像された細胞画像の場合には、特徴量算出部102は、抗体を反応させた場合に特有の特徴量を算出してもよい。また、細胞を染色した場合、又は細胞に蛍光タンパクを付与した場合において撮像された細胞画像の場合には、特徴量算出部102は、細胞を染色した場合、又は細胞に蛍光タンパクを付与した場合に特有の特徴量を算出してもよい。
これらの場合、記憶部200は、実験条件記憶部202を備えていてもよい。この実験条件記憶部202には、細胞画像に対応付けられている細胞に対する実験の条件の情報を、細胞画像毎に記憶される。
Further, the feature amount calculation unit 102 may calculate the feature amount based on the information on the experimental condition for the cell associated with the cell image. For example, in the case of a cell image captured when an antibody is made to react with a cell, the feature amount calculation unit 102 may calculate a unique feature amount when making the antibody react. Further, in the case of a cell image taken when a cell is stained or when a fluorescent protein is added to the cell, the feature amount calculation unit 102 stains the cell or when a fluorescent protein is added to the cell. You may calculate the characteristic amount peculiar to.
In these cases, the storage unit 200 may include the experimental condition storage unit 202. The experimental condition storage unit 202 stores information on experimental conditions for cells associated with cell images for each cell image.

特徴量算出部102は、ステップS50において算出した特徴量を、雑音成分除去部103に供給する。 The feature amount calculation unit 102 supplies the feature amount calculated in step S50 to the noise component removal unit 103.

雑音成分除去部103は、ステップS50において算出された特徴量のうちから、雑音成分を除去する(ステップS60)。具体的には、雑音成分除去部103は、特徴量の正常範囲又は異常範囲を示す情報を取得する。この特徴量の正常範囲又は異常範囲を示す情報は、細胞画像に撮像されている細胞の特性に基づいて予め定められている。例えば、細胞核の画像の特徴量のうち、核内総輝度値についての正常範囲が、細胞核の画像の特性に基づいて定められている。雑音成分除去部103は、算出された特徴量が、この正常範囲に含まれない場合には、その特徴量を雑音成分として除去する。ここで、雑音成分除去部103は、特徴量を雑音成分として除去する場合には、細胞毎に除去する。具体的には、ある細胞について、複数の特徴量が算出される場合がある。例えば、ある細胞について、細胞内総輝度値、核内総輝度値、及び核の面積が、特徴量としてそれぞれ算出される場合がある。この場合において、ある細胞について、細胞内総輝度値を雑音成分として除去する場合には、雑音成分除去部103は、その細胞の核内総輝度値、及び核の面積についても、除去する。つまり、雑音成分除去部103は、ある細胞について算出された複数の特徴量のうち、少なくとも1つの特徴量が正常範囲に含まれない場合には、この細胞の他の特徴量についても除去する。 The noise component removal unit 103 removes a noise component from the feature amount calculated in step S50 (step S60). Specifically, the noise component removal unit 103 acquires information indicating the normal range or abnormal range of the feature amount. The information indicating the normal range or the abnormal range of the feature amount is predetermined based on the characteristics of the cell captured in the cell image. For example, the normal range of the total nuclear intensity value of the feature amount of the image of the cell nucleus is determined based on the characteristics of the image of the cell nucleus. The noise component removing unit 103 removes the calculated feature amount as a noise component when the calculated feature amount is not included in the normal range. Here, the noise component removing unit 103 removes the feature amount as a noise component for each cell. Specifically, a plurality of feature values may be calculated for a certain cell. For example, for a certain cell, the total intracellular brightness value, the total nuclear brightness value, and the area of the nucleus may be calculated as the feature values. In this case, when removing the total intracellular brightness value as a noise component from a certain cell, the noise component removing unit 103 also removes the total nuclear brightness value of the cell and the area of the nucleus. That is, the noise component removal unit 103 also removes other feature amounts of this cell when at least one feature amount out of the plurality of feature amounts calculated for a cell is not included in the normal range.

すなわち、雑音成分除去部103は、細胞画像に撮像されている細胞の特性を示す情報に基づいて、相関関係抽出部104に供給される特徴量のうちから雑音成分を細胞画像に撮像されている細胞毎に除去する。このように構成することにより、雑音成分除去部103は、信頼度が相対的に低い特徴量がある場合に、その特徴量を細胞単位で除外することができる。つまり、雑音成分除去部103によれば、特徴量の信頼度を向上させることができる。 That is, the noise component removal unit 103 captures a noise component in the cell image from the feature amounts supplied to the correlation extraction unit 104 based on the information indicating the characteristics of the cell captured in the cell image. Remove for each cell. With this configuration, the noise component removing unit 103 can exclude the feature amount in cell units when there is a feature amount having a relatively low reliability. That is, the noise component removing unit 103 can improve the reliability of the feature amount.

また、雑音成分除去部103は、算出された特徴量が、この正常範囲に含まれる場合には、その特徴量を相関関係抽出部104に供給する。なお、この雑音成分除去部103は、必須の構成要素ではなく、細胞画像の状態や、特徴量の算出の状態によっては、省略可能である。 Further, when the calculated feature amount is included in this normal range, the noise component removal unit 103 supplies the feature amount to the correlation extraction unit 104. The noise component removing unit 103 is not an essential component and may be omitted depending on the state of the cell image and the state of calculation of the feature amount.

相関関係抽出部104は、スパース推定を用いて、特徴量の尤度に基づいて、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する(ステップS70)。以下、相関関係抽出部104が行う処理について、より具体的に説明する。 The correlation extraction unit 104 extracts a specific correlation from a plurality of correlations between the feature amounts calculated by the feature amount calculation unit 102 based on the likelihood of the feature amount using sparse estimation ( Step S70). Hereinafter, the process performed by the correlation extraction unit 104 will be described more specifically.

相関関係抽出部104は、ステップS60において雑音成分が除去された後の特徴量を取得する。この特徴量は、ステップS50において、特徴量算出部102により細胞毎に算出されている。特徴量算出部102による、あるタンパク質の特徴量の算出結果について、図4を参照して説明する。 The correlation extracting unit 104 acquires the feature amount after the noise component is removed in step S60. The feature amount is calculated for each cell by the feature amount calculation unit 102 in step S50. The calculation result of the characteristic amount of a certain protein by the characteristic amount calculation unit 102 will be described with reference to FIG.

図4は、本実施形態の特徴量算出部102による特徴量の算出結果の一例を示す模式図である。特徴量算出部102は、タンパク質1について、細胞ごと、かつ時刻ごとに、複数の特徴量を算出する。この一例において、特徴量算出部102は、細胞1から細胞NまでのN個の細胞について、特徴量を算出する。また、この一例において、特徴量算出部102は、時刻1から時刻7までの7つの時刻について、特徴量を算出する。また、この一例において、特徴量算出部102は、特徴量k1から特徴量kKまでの、K種類の特徴量を算出する。つまり、この一例において、特徴量算出部102は、三軸の方向に、特徴量を算出する。ここで、細胞方向の軸を軸Ncと、時間方向の軸を軸Nと、特徴量方向の軸を軸d1と、それぞれ記載する。 FIG. 4 is a schematic diagram showing an example of the calculation result of the characteristic amount by the characteristic amount calculation unit 102 of this embodiment. The feature amount calculation unit 102 calculates a plurality of feature amounts for the protein 1 for each cell and for each time. In this example, the feature amount calculation unit 102 calculates the feature amount of N cells from cell 1 to cell N. Further, in this example, the feature amount calculation unit 102 calculates the feature amount at seven times from time 1 to time 7. Further, in this example, the feature amount calculation unit 102 calculates K types of feature amounts from the feature amount k1 to the feature amount kK. That is, in this example, the feature amount calculation unit 102 calculates the feature amount in the directions of the three axes. Here, the axis in the cell direction is described as the axis Nc, the axis in the time direction as the axis N, and the axis in the feature amount direction as the axis d1.

なお、特徴量k1から特徴量kKまでのK種類の特徴量とは、タンパク質1についての特徴量の組み合わせである。タンパク質1以外のタンパク質、又は、タンパク質1以外の細胞内の構成要素については、特徴量の種類や組み合わせが相違する場合がある。 The K types of feature quantities from the feature quantity k1 to the feature quantity kK are combinations of the feature quantities of the protein 1. Regarding the proteins other than the protein 1 or the constituent elements in the cell other than the protein 1, the types and combinations of the characteristic amounts may differ.

図5は、本実施形態の細胞毎の特徴量の行列Xの一例を示す図である。ある細胞についての特徴量を、図5に示す、行方向に軸Nを、列方向に軸dをとった行列Xによって示すこともできる。図5では、行列Xの各要素を、細胞集団の平均値によって示しているが、中央値や最頻値といった統計量を使用することもできる。勿論、細胞毎の特徴量の行列Xとしても構わない。 FIG. 5 is a diagram showing an example of the matrix X of the feature amount for each cell according to the present embodiment. The feature amount of a certain cell can also be shown by a matrix X shown in FIG. 5 with the axis N in the row direction and the axis d in the column direction. In FIG. 5, each element of the matrix X is shown by the average value of the cell population, but it is also possible to use a statistic such as the median or the mode. Of course, the matrix X of the feature amount for each cell may be used.

図6は、本実施形態の特徴量間の相関関係の一例を示す模式図である。相関関係抽出部104は、特徴量算出部102が算出する特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する。
図7は、本実施形態の特定の相関関係の一例を示す模式図である。ここで、特定の相関関係とは、特徴量間の複数の相関関係のうちから数学的な演算によって選択された相関関係である。特定の相関関係の数は、相関関係抽出部104によって抽出される前の特徴量間の複数の相関関係の数よりも少ない。つまり、相関関係抽出部104は、特徴量間の相関関係の数を疎(スパース)にする。相関関係抽出部104は、特徴量間の相関関係について、スパース推定を用いることにより、特徴量間の相関関係の数を疎にする。この相関関係抽出部104による、スパース推定の一例について説明する。
FIG. 6 is a schematic diagram showing an example of the correlation between the feature amounts of this embodiment. The correlation extraction unit 104 extracts a specific correlation from the plurality of correlations between the feature amounts calculated by the feature amount calculation unit 102.
FIG. 7 is a schematic diagram showing an example of the specific correlation according to the present embodiment. Here, the specific correlation is a correlation selected by a mathematical operation from a plurality of correlations between feature amounts. The number of specific correlations is smaller than the number of the plurality of correlations between the feature quantities before being extracted by the correlation extraction unit 104. That is, the correlation extraction unit 104 makes the number of correlations between feature amounts sparse. The correlation extraction unit 104 reduces the number of correlations between feature quantities by using sparse estimation for the correlations between feature quantities. An example of sparse estimation by the correlation extracting unit 104 will be described.

相関関係抽出部104がスパース推定に用いるガウシアンモデルにおける尤度を、式(1)に示す。 The likelihood in the Gaussian model used by the correlation extraction unit 104 for sparse estimation is shown in Expression (1).

Figure 2020124220
Figure 2020124220

この式(1)において、「φ(Λ)」の項は、正則化項である。この正則化項の関数形には、抽出したい相関関係の属性に応じて、様々な形式がある。特にガウシアンモデルを仮定した際に、式(2)のようにL1正則化項を付け加えることで、スパースな成分を持つ精度行列が得られることが知られている。式(2)におけるλは、正則化の強さを表し、これが大きいほど精度行列の成分はスパースになりやすい、という性質を持つ。 In this equation (1), the term “φ(Λ)” is a regularization term. The function form of the regularization term has various forms depending on the attribute of the correlation to be extracted. In particular, it is known that an accuracy matrix having sparse components can be obtained by adding the L1 regularization term as in Expression (2) when assuming a Gaussian model. Λ in the equation (2) represents the strength of regularization, and the larger this is, the more easily the components of the accuracy matrix become sparse.

Figure 2020124220
Figure 2020124220

また、例えば、正則化項を式(3)のように設定することでスパースな部分行列を得ることも可能である。 Further, for example, it is possible to obtain a sparse submatrix by setting the regularization term as in Expression (3).

Figure 2020124220
Figure 2020124220

[Graphical Lassoによるスパース推定]
ここでは、正則化項がGraphical Lassoによる関数形の場合における、スパース推定の一例について説明する。Graphical Lassoとは、L1正則化付のガウシアンモデルから、精度行列を推定するための効率的なアルゴリズムである。例えば、JEROME FRIEDMANとTREVOR HASTIEとROBERT TIBSHIRANIによるBiostatistics (2008), 9, 3 432−441号の“Sparse inverse covariance estimation with the graphical lasso”に記載されている。
まず、式(2)を採用した場合の式(1)、ガウシアンモデルのL1正則化付尤度を精度行列によって微分する。
[Sparse estimation by Graphical Lasso]
Here, an example of sparse estimation in the case where the regularization term is a functional form by Graphical Lasso will be described. Graphical Lasso is an efficient algorithm for estimating an accuracy matrix from a Gaussian model with L1 regularization. For example, in JEROME FRIEDMAN, TREVOR HASTIE, and ROBERT TIBSHIRANI, Biostatistics (2008), 9, 3 432-441, “Sparse inverse covariance esteation with the graph”.
First, the equation (1) when the equation (2) is adopted, the likelihood with L1 regularization of the Gaussian model is differentiated by the accuracy matrix.

Figure 2020124220
Figure 2020124220

次に、精度行列は正定値行列であるという条件から、対角成分が式(5)のように求まる。 Next, on the condition that the precision matrix is a positive definite matrix, the diagonal components are obtained as in Expression (5).

Figure 2020124220
Figure 2020124220

次に、特定の変数iに着目し、分散共分散行列、精度行列、サンプル共分散行列を式(6)のようにブロック行列に分割することで、式(7)のように式(4)を変形することができる。 Next, focusing on a specific variable i, the variance covariance matrix, the precision matrix, and the sample covariance matrix are divided into block matrices as shown in equation (6) to obtain equation (4) as shown in equation (7). Can be transformed.

Figure 2020124220
Figure 2020124220

Figure 2020124220
Figure 2020124220

Figure 2020124220
Figure 2020124220

式(7)は、一般のLasso回帰の最適化問題である式(8)に帰着することができ、既存のソルバーなどで求めることができる。 Expression (7) can be reduced to Expression (8), which is a general Lasso regression optimization problem, and can be obtained by an existing solver or the like.

Figure 2020124220
Figure 2020124220

式(9)の条件を満たす式(8)の最適解β*(ベータ・アスタリスク)が求まれば、式(6)及び式(7)、式(10)から導出される式(11)と式(12)を用いることで式(6)のブロック行列の各成分を求めることが出来る。但し、式(10)におけるIとは、単位行列である。 If the optimal solution β* (beta asterisk) of the equation (8) satisfying the condition of the equation (9) is obtained, the equation (11) derived from the equations (6), (7), and (10) is obtained. By using Expression (12), each component of the block matrix of Expression (6) can be obtained. However, I in Expression (10) is an identity matrix.

Figure 2020124220
Figure 2020124220

Figure 2020124220
Figure 2020124220

Figure 2020124220
Figure 2020124220

上述の式(5)から式(12)の演算を、行と列とを入れ替えて繰り返し行う。 The operations of the above equations (5) to (12) are repeated by exchanging rows and columns.

以上説明したように画像処理装置10は、相関関係抽出部104がスパース推定を行うことにより、特徴量間の相関関係の数を疎にする。このため、画像処理装置10によれば、特徴量間の相関関係の数を低減させた状態にして解析を行うことができる。つまり、画像処理装置10によれば、特徴量の相関関係の解析の演算量を低減することができる。特徴量間の相関関係の数を尤度を指標として低減させることができるので、特徴量の相関関係の解析の演算量を例えば人が恣意的に低減することによる、解析不良を抑制することができる。また、細胞を含む画像から、特徴量の相関を取得するために、特徴量を取得した。特徴量には、画像から直接導かれる輝度情報など、それ以外に、その画像情報以外の情報も合わせて用いる。例えば、画像の形状から、輝度情報の細胞での場所(核、核膜、細胞質)を推定する。また、例えば、染色された細胞の染色部位(輝度情報がある部位)の場所(核、核膜、細胞質)を推定する。このように、画像情報から直接導き出される情報以外に、画像情報から推定される情報とを用いて、特徴量の相関を取得するために、演算量が膨大になる。したがって、相関関係抽出部104がスパース推定を行うことにより、特徴量間の相関関係の数を疎にすることができるために、演算量が膨大になることを抑制することができる。
また、例えば細胞内の相関を取得する場合を例に説明すると、細胞内の相関を取得する場合に、例えば、画像では複数の細胞を取得できる場合があり、その複数の細胞において、細胞内の相関を取得することが可能である。この場合に、複数の細胞内での相関を取得すると、単一の細胞の相関を取得する場合に比べて、複数の細胞での相関を取得できるので、相関の取得として例えば算出されるシグナル伝達の経路の精度を高めることができる。精度を高めるために複数の細胞の相関を取得する場合に、その相関を取得するために行う演算量が膨大になる。この場合において、尤度を指標として演算量を低減することができるので、解析不良を抑制することができる。また、例えば細胞同士の相関を取得する場合を例に説明すると、細胞同士の相関を取得する場合に、例えば、画像では複数の細胞を取得できる場合があり、その複数の細胞に対する、細胞同士の相関を取得することが可能である。この場合に、所定の細胞が複数の細胞と相関している場合があり、その所定細胞以外の細胞もまた複数の細胞と相関している場合がある。また、この場合にそれぞれの細胞同士の細胞の相関を取得することで、相関の取得として例えば算出される細胞同士のシグナル伝達の経路の精度を高めることができる。精度を高めるために複数の細胞の相関を取得する場合に、その相関を取得するために行う演算量が膨大になる。この場合において、尤度を指標として演算量を低減することができるので、解析不良を抑制することができる。
また、特徴量算出部102より算出される特徴量は、例えば、細胞が細胞外からのシグナル受容した後の、細胞内でのシグナル伝達を相関として求める場合に、その細胞内のシグナル伝達に関与するたんぱく質の種類を、特徴量として抽出しても構わない。すなわち、例えば、細胞内のシグナル伝達に関与する物質の種類でも構わないし、細胞内でシグナルが伝達されることに伴う結果の細胞の形状の変化でも構わない。細胞内のシグナル伝達に関与する物質の特定は、NMRなどで特定しても構わないし、用いる染色液からその相互作用する相手を類推する方法でも構わない。
As described above, in the image processing apparatus 10, the correlation extraction unit 104 performs the sparse estimation to reduce the number of correlations between feature amounts. Therefore, according to the image processing apparatus 10, the analysis can be performed in a state where the number of correlations between the feature amounts is reduced. That is, according to the image processing apparatus 10, it is possible to reduce the calculation amount of the analysis of the correlation of the feature amounts. Since it is possible to reduce the number of correlations between feature amounts using the likelihood as an index, it is possible to suppress analysis failure due to, for example, a person arbitrarily reducing the calculation amount of the analysis of the feature amount correlations. it can. In addition, the feature amount was acquired from the image containing the cells in order to obtain the correlation of the feature amount. In addition to the information such as luminance information directly derived from the image, information other than the image information is also used as the feature amount. For example, the location of the brightness information in the cell (nucleus, nuclear membrane, cytoplasm) is estimated from the shape of the image. Further, for example, the location (nucleus, nuclear membrane, cytoplasm) of the stained portion (the portion having the brightness information) of the stained cell is estimated. As described above, in addition to the information directly derived from the image information, the information amount estimated from the image information is used to acquire the correlation of the feature amounts, resulting in a huge amount of calculation. Therefore, since the correlation extraction unit 104 performs the sparse estimation, the number of correlations between the feature amounts can be sparse, and thus the amount of calculation can be prevented from becoming huge.
Further, for example, to explain the case of acquiring the intracellular correlation, when acquiring the intracellular correlation, for example, it may be possible to acquire a plurality of cells in the image, in the plurality of cells, It is possible to obtain the correlation. In this case, when the correlation in a plurality of cells is acquired, the correlation in a plurality of cells can be acquired as compared with the case where the correlation of a single cell is acquired. The accuracy of the route can be improved. When the correlation of a plurality of cells is obtained in order to improve the accuracy, the amount of calculation performed to obtain the correlation becomes enormous. In this case, since the amount of calculation can be reduced using the likelihood as an index, it is possible to suppress poor analysis. Further, for example, when the case of acquiring the correlation between cells is described as an example, when acquiring the correlation between cells, for example, it may be possible to acquire a plurality of cells in the image, and for the plurality of cells, between the cells It is possible to obtain the correlation. In this case, a given cell may be correlated with a plurality of cells, and cells other than the given cell may also be correlated with a plurality of cells. Further, in this case, by acquiring the correlation between the cells, it is possible to improve the accuracy of the signal transduction pathway between the cells, which is calculated as the acquisition of the correlation. When the correlation of a plurality of cells is obtained in order to improve the accuracy, the amount of calculation performed to obtain the correlation becomes enormous. In this case, since the amount of calculation can be reduced using the likelihood as an index, it is possible to suppress poor analysis.
Further, the feature amount calculated by the feature amount calculation unit 102 is involved in the signal transduction in the cell when the signal transduction in the cell after the cell receives the signal from the extracellular is obtained as a correlation, for example. The type of protein to be extracted may be extracted as the feature amount. That is, for example, it may be the type of substance involved in intracellular signal transduction, or the change in the shape of the cell as a result of intracellular signal transduction. The substance involved in intracellular signal transduction may be identified by NMR or the like, or may be a method of analogizing the interacting partner from the staining solution used.

[正則化パラメータの決定]
次に、相関関係抽出部104が行うスパース推定における、正則化パラメータの決定について説明する。スパース推定には、モデルの柔軟性が比較的高いことや、人間やコンピュータが解釈しやすいようにモデルを調整することができるといった利点がある。一方で、スパース推定には、正則化パラメータ依存性があるためモデルが一意には定まらないという課題がある。この課題を解決するための正則化パラメータの決定手順を示す。このパラメータの決定手順には、一例として、クロスバリデーションによるパラメータの決定手順と、生物学的知識を用いたパラメータの決定手順とがある。このうち、クロスバリデーションによるパラメータの決定手順について説明する。
[Determination of regularization parameters]
Next, the determination of the regularization parameter in the sparse estimation performed by the correlation extraction unit 104 will be described. Sparse estimation has the advantage that the model is relatively flexible and that it can be adjusted for human and computer interpretation. On the other hand, in sparse estimation, there is a problem that the model cannot be uniquely determined due to the regularization parameter dependence. A procedure for determining a regularization parameter for solving this problem will be shown. Examples of the parameter determining procedure include a parameter determining procedure by cross validation and a parameter determining procedure using biological knowledge. Of these, the procedure for determining parameters by cross validation will be described.

[クロスバリデーションによるλ推定]
図8は、本実施形態の相関関係抽出部104によるクロスバリデーションの手順の一例を示す流れ図である。
相関関係抽出部104は、行列X、正則化パラメータλ、分割数Kを取得する(ステップS100)。相関関係抽出部104は、ステップS100において取得した分割数Kに基づいて、行列Xを分割する(ステップS110)。
次に、相関関係抽出部104は、正則化パラメータλのループ(ステップS120)と、分割数Kのループ(ステップS130)との2重のループを処理する。分割数Kのループ内において、相関関係抽出部104は、行列Xkと、行列X/kとを用いた尤度Lkを算出する(ステップS140)。正則化パラメータλのループにおいて、相関関係抽出部104は、ある正則化パラメータλにおける尤度Lkの平均尤度Lλを算出する(ステップS150)。この相関関係抽出部104による平均尤度Lλの算出手順の詳細について、図9を参照して説明する。
[Λ estimation by cross validation]
FIG. 8 is a flowchart showing an example of the procedure of cross validation by the correlation extraction unit 104 of this embodiment.
The correlation extraction unit 104 acquires the matrix X, the regularization parameter λ, and the division number K (step S100). The correlation extraction unit 104 divides the matrix X based on the division number K acquired in step S100 (step S110).
Next, the correlation extraction unit 104 processes a double loop including a loop for the regularization parameter λ (step S120) and a loop for the number of divisions K (step S130). In the loop of the division number K, the correlation extraction unit 104 calculates the likelihood Lk using the matrix Xk and the matrix X/k (step S140). In the loop of the regularization parameter λ, the correlation extraction unit 104 calculates the average likelihood Lλ of the likelihood Lk in the regularization parameter λ (step S150). Details of the procedure of calculating the average likelihood Lλ by the correlation extracting unit 104 will be described with reference to FIG. 9.

図9は、本実施形態の相関関係抽出部104による平均尤度Lλの算出手順の一例を示す模式図である。相関関係抽出部104は、上述した分割数Kのループにおいて、細胞方向Ncに、行列XをK個に分割する。相関関係抽出部104は、K個に分割された行列Xについて、尤度Lkを算出する。 FIG. 9 is a schematic diagram showing an example of the procedure for calculating the average likelihood Lλ by the correlation extraction unit 104 of this embodiment. The correlation extraction unit 104 divides the matrix X into K pieces in the cell direction Nc in the loop of the division number K described above. The correlation extracting unit 104 calculates the likelihood Lk for the matrix X divided into K pieces.

具体的には、相関関係抽出部104は、図9(k=1)に示す算出枠W1に含まれる要素について、尤度L1を算出する。また、相関関係抽出部104は、ある正則化パラメータλについて、図9(k=2)に示す算出枠W2−1及び算出枠W2−2に含まれる要素について、尤度L2を算出する。また、相関関係抽出部104は、図9(k=K)に示す算出枠WKに含まれる要素について、尤度LKを算出する。つまり、相関関係抽出部104は、ある正則化パラメータλについて、k=1からk=Kまでの尤度Lkをそれぞれ算出する。相関関係抽出部104は、正則化パラメータλ毎にそれぞれ算出した尤度Lkについて、式(13)によって平均尤度Lλを算出する。 Specifically, the correlation extraction unit 104 calculates the likelihood L1 for the elements included in the calculation frame W1 shown in FIG. 9 (k=1). Further, the correlation extraction unit 104 calculates the likelihood L2 for the elements included in the calculation frame W2-1 and the calculation frame W2-2 shown in FIG. 9 (k=2) for a certain regularization parameter λ. Further, the correlation extracting unit 104 calculates the likelihood LK for the elements included in the calculation frame WK shown in FIG. 9(k=K). That is, the correlation extraction unit 104 calculates the likelihood Lk from k=1 to k=K for each regularization parameter λ. The correlation extraction unit 104 calculates the average likelihood Lλ by the equation (13) for the likelihood Lk calculated for each regularization parameter λ.

Figure 2020124220
Figure 2020124220

次に、相関関係抽出部104は、平均尤度Lλが最大値Max(Lλ)を示す正則化パラメータλを、算出対象の正則化パラメータλとして算出して(ステップS160)、正則化パラメータλの算出を終了する。この相関関係抽出部104による、正則化パラメータλの算出手順の一例について説明する。 Next, the correlation extraction unit 104 calculates the regularization parameter λ whose average likelihood Lλ indicates the maximum value Max(Lλ) as the regularization parameter λ of the calculation target (step S160), and the regularization parameter λ The calculation ends. An example of the procedure of calculating the regularization parameter λ by the correlation extracting unit 104 will be described.

この一例において、相関関係抽出部104は、正則化パラメータλを0から1まで変化させた場合の、尤度Lλを算出する。具体的には、相関関係抽出部104は、正則化パラメータλを0から1までのある値にして、図9に示した尤度Lkの算出を行う。相関関係抽出部104は、この尤度Lkの平均、すなわち平均尤度Lλを算出して、正則化パラメータλと、平均尤度Lλとの対応関係を生成する。この相関関係抽出部104が生成する正則化パラメータλと、平均尤度Lλとの対応関係を図10に示す。 In this example, the correlation extraction unit 104 calculates the likelihood Lλ when the regularization parameter λ is changed from 0 to 1. Specifically, the correlation extraction unit 104 sets the regularization parameter λ to a certain value from 0 to 1 and calculates the likelihood Lk shown in FIG. 9. The correlation extraction unit 104 calculates the average of the likelihoods Lk, that is, the average likelihood Lλ, and generates the correspondence between the regularization parameter λ and the average likelihood Lλ. FIG. 10 shows the correspondence between the regularization parameter λ generated by the correlation extraction unit 104 and the average likelihood Lλ.

図10は、本実施形態の平均尤度Lλと正則化パラメータλとの関係の一例を示すグラフである。この図10に示す一例の場合、正則化パラメータλaにおいて、平均尤度Lλが最大値を示す。この場合、相関関係抽出部104は、正則化パラメータλaを、算出対象の正則化パラメータλとして算出する。 FIG. 10 is a graph showing an example of the relationship between the average likelihood Lλ and the regularization parameter λ of this embodiment. In the case of the example shown in FIG. 10, the average likelihood Lλ shows the maximum value in the regularization parameter λa. In this case, the correlation extracting unit 104 calculates the regularization parameter λa as the regularization parameter λ to be calculated.

上述のステップS110において、相関関係抽出部104は、行列Xを分割数KによってK個に分割する際に、細胞方向Ncに分割する。換言すれば、相関関係抽出部104は、細胞画像に撮像されている細胞数に基づいて特徴量の尤度Lを求めることにより、特定の相関関係を抽出する。ここで、相関関係抽出部104は、行列Xを時間方向Nに分割することもできる。しかしながら、相関関係抽出部104が行列Xを時間方向Nに分割するためには、時間方向Nに複数の細胞画像が必要である。つまり、相関関係抽出部104が行列Xを時間方向Nに分割するためには、互いに異なる時刻に撮像された複数の細胞画像が必要である。一方、相関関係抽出部104が行列Xを細胞方向Ncに分割する場合には、互いに異なる時刻に撮像された複数の細胞画像が不要である。つまり、本実施形態の相関関係抽出部104は、互いに異なる時刻に撮像された複数の細胞画像がなくても、例えば、1枚の細胞画像から正則化パラメータλを算出することができる。 In step S110 described above, when the matrix X is divided into K pieces by the division number K, the correlation extraction part 104 divides the matrix X in the cell direction Nc. In other words, the correlation extraction unit 104 extracts the specific correlation by obtaining the likelihood L of the feature amount based on the number of cells captured in the cell image. Here, the correlation extraction unit 104 can also divide the matrix X in the time direction N. However, in order for the correlation extraction unit 104 to divide the matrix X in the time direction N, a plurality of cell images are required in the time direction N. That is, in order for the correlation extraction unit 104 to divide the matrix X in the time direction N, a plurality of cell images taken at different times are necessary. On the other hand, when the correlation extraction unit 104 divides the matrix X into the cell directions Nc, a plurality of cell images captured at different times are unnecessary. That is, the correlation extraction unit 104 of the present embodiment can calculate the regularization parameter λ from one cell image, for example, even if there are no cell images captured at different times.

[スパース推定結果の生物学的解釈]
次に、相関関係抽出部104によるスパース推定結果の生物学的解釈について、図11から図13を参照して説明する。生物学的情報に基づいて、相関関係抽出部104によるスパース推定結果に対して、生物学的解釈を加えることができる。なお、この一例において、生物学的情報は、記憶部200に予め記憶されているとして説明するが、これに限られない。生物学的情報は、顕微鏡観察システム1の外部からネットワークや可搬記憶媒体などを介して供給されてもよい。生物学的情報には、細胞内構成要素アノテーション・データベース、特徴量アノテーション・データベースなどが含まれる。細胞内構成要素とは、細胞を構成する要素のことである。細胞を構成する要素には、例えば、タンパク質、遺伝子、化合物などがあげられる。以下、相関関係抽出部104によるスパース推定結果の生物学的解釈の手順の具体例について説明する。
[Biological interpretation of sparse estimation results]
Next, the biological interpretation of the sparse estimation result by the correlation extracting unit 104 will be described with reference to FIGS. 11 to 13. A biological interpretation can be added to the sparse estimation result by the correlation extracting unit 104 based on the biological information. In this example, the biological information will be described as being stored in the storage unit 200 in advance, but the present invention is not limited to this. The biological information may be supplied from outside the microscope observation system 1 via a network or a portable storage medium. The biological information includes an intracellular component annotation database, a feature amount annotation database, and the like. The intracellular constituents are the constituents of the cell. The elements constituting the cells include, for example, proteins, genes and compounds. Hereinafter, a specific example of the procedure of biological interpretation of the sparse estimation result by the correlation extraction unit 104 will be described.

図11は、本実施形態の相関関係抽出部104による特徴量の相関関係の抽出結果の一例を示す模式図である。この一例では、相関関係抽出部104は、タンパク質Aからタンパク質Fの6種類のタンパク質と、ミトコンドリアとについて、特徴量の相関関係を抽出する。 FIG. 11 is a schematic diagram showing an example of the extraction result of the correlation of the feature amounts by the correlation extraction unit 104 of this embodiment. In this example, the correlation extraction unit 104 extracts the correlations of the feature amounts for the six types of proteins, protein A to protein F, and mitochondria.

この一例の場合、細胞画像には、タンパク質A〜タンパク質Fやミトコンドリアを含む細胞が撮像されている。特徴量算出部102は、これらタンパク質A〜タンパク質Fやミトコンドリアに対応する種類の特徴量を算出する。すなわち、特徴量算出部102は、複数種類の特徴量のうち、細胞画像に撮像されている細胞に含まれる細胞内の構成要素の種類に対応する種類の特徴量を算出する。 In the case of this example, a cell image includes cells including protein A to protein F and mitochondria. The characteristic amount calculation unit 102 calculates the characteristic amounts of the types corresponding to the proteins A to F and mitochondria. That is, the feature amount calculation unit 102 calculates, out of a plurality of types of feature amounts, the feature amount of the type corresponding to the type of the constituent element in the cell included in the cell imaged in the cell image.

具体的には、相関関係抽出部104は、タンパク質Aの特徴量と、タンパク質Dの特徴量との間に、相関関係R1、相関関係R2、及び相関関係R3の3種類の相関関係を抽出する。ここで、相関関係R1とは、タンパク質Aの特徴量A3と、タンパク質Dの特徴量D2との相関関係である。相関関係R2とは、タンパク質Aの特徴量A1と、タンパク質Dの特徴量D3との相関関係である。相関関係R3とは、タンパク質Aの特徴量A4と、タンパク質Dの特徴量D1との相関関係である。例えば、特徴量A1とは、タンパク質Aの画像の分散値である。特徴量D3とは、タンパク質Dの画像の輝度値である。 Specifically, the correlation extraction unit 104 extracts three types of correlation R1, correlation R2, and correlation R3 between the characteristic amount of the protein A and the characteristic amount of the protein D. .. Here, the correlation R1 is a correlation between the feature amount A3 of the protein A and the feature amount D2 of the protein D. The correlation R2 is a correlation between the characteristic amount A1 of the protein A and the characteristic amount D3 of the protein D. The correlation R3 is a correlation between the characteristic amount A4 of the protein A and the characteristic amount D1 of the protein D. For example, the feature amount A1 is a variance value of the image of the protein A. The feature amount D3 is the brightness value of the image of protein D.

また、相関関係抽出部104は、タンパク質Aの特徴量と、ミトコンドリアの特徴量との間に、相関関係R4を抽出する。ここで、相関関係R4とは、タンパク質Aの特徴量A2と、ミトコンドリアの特徴量M1との相関関係である。特徴量A2とは、例えば、タンパク質Aの画像の細胞内総輝度値に対する核内総輝度値の割合である。例えば、特徴量M1とは、ミトコンドリアの画像が示す、ミトコンドリアの断片化率である。 Further, the correlation extraction unit 104 extracts the correlation R4 between the characteristic amount of the protein A and the characteristic amount of mitochondria. Here, the correlation R4 is a correlation between the characteristic amount A2 of the protein A and the characteristic amount M1 of mitochondria. The feature amount A2 is, for example, the ratio of the total nuclear intensity value to the total intracellular intensity value of the image of protein A. For example, the feature amount M1 is a mitochondrial fragmentation rate shown by the mitochondrial image.

図12は、本実施形態の細胞内構成要素アノテーション・データベースの一例を示す表である。この細胞内構成要素アノテーション・データベースは、細胞内構成要素の種類と、細胞内構成要素の機能とを関連付ける。本実施形態の一例においては、細胞内構成要素アノテーション・データベースは、記憶部200に予め記憶されている。具体的には、細胞内構成要素アノテーション・データベースにおいて、種類「タンパク質A」が、機能「転写因子(促進)」に関連付けられている。また、細胞内構成要素アノテーション・データベースにおいて、種類「タンパク質B」が、機能「キナーゼ」に関連付けられている。 FIG. 12 is a table showing an example of the intracellular component annotation database of this embodiment. This intracellular component annotation database associates the type of intracellular component with the function of the intracellular component. In the example of the present embodiment, the intracellular component annotation database is stored in the storage unit 200 in advance. Specifically, in the intracellular component annotation database, the type “protein A” is associated with the function “transcription factor (promotion)”. Further, in the intracellular component annotation database, the type “protein B” is associated with the function “kinase”.

図13は、本実施形態の特徴量アノテーション・データベースの一例を示す表である。この特徴量アノテーション・データベースは、NW要素と、特徴量と、特徴量の変化方向と、生物学的意味を示す情報とを関連付ける。本実施形態の一例においては、特徴量アノテーション・データベースは、記憶部200に予め記憶されている。具体的には、特徴量アノテーション・データベースにおいて、NW要素「転写因子(促進)」と、特徴量「核内総輝度値/細胞内総輝度値」と、特徴量変化「UP」と、生物学的意味「転写促進」とが互いに関連付けられている。また、特徴量アノテーション・データベースにおいて、NW要素「ミトコンドリア」と、特徴量「断片化率」と、特徴量変化「UP」と、生物学的意味「分裂促進、酸化ストレス上昇、マイトファジー亢進」とが互いに関連付けられている。なお、この特徴量アノテーション・データベースとは、記憶部200が備える種類記憶部201の具体的な一例である。つまり、種類記憶部201には、細胞画像に撮像されている細胞に含まれる細胞内構成要素の種類と、特徴量の種類とが対応付けられて記憶されている。 FIG. 13 is a table showing an example of the feature quantity annotation database of this embodiment. This feature amount annotation database associates NW elements, feature amounts, changing directions of feature amounts, and information indicating biological meaning. In the example of the present embodiment, the feature amount annotation database is stored in the storage unit 200 in advance. Specifically, in the feature amount annotation database, the NW element “transcription factor (promotion)”, the feature amount “total nuclear brightness value/intracellular total brightness value”, feature amount change “UP”, and biology The physical meaning “transcriptional promotion” is associated with each other. Further, in the feature amount annotation database, the NW element “mitochondria”, the feature amount “fragmentation rate”, the feature amount change “UP”, and the biological meaning “mitosis, oxidative stress increase, mitophagy enhancement” Are associated with each other. The feature amount annotation database is a specific example of the type storage unit 201 included in the storage unit 200. That is, the type storage unit 201 stores the types of intracellular constituent elements included in the cells captured in the cell image and the types of feature amounts in association with each other.

抽出された相関関係R4、つまり、タンパク質Aの画像の細胞内総輝度値に対する核内総輝度値の割合と、ミトコンドリアの断片化率との相関関係が、高相関である場合、次のようにして生物学的解釈を行うことができる。 When the extracted correlation R4, that is, the correlation between the nuclear total luminance value to the intracellular total luminance value of the image of protein A and the mitochondrial fragmentation rate is highly correlated, the following is performed. Biological interpretation can be performed.

すなわち、細胞内構成要素アノテーション・データベースに基づいて、タンパク質Aの機能が「転写因子(促進)」であると判定する。また、特徴量アノテーション・データベースに基づいて、「転写因子(促進)」に関連付けられた特徴量「核内総輝度値/細胞内総輝度値」が特徴量変化「UP」を示す場合、その生物学的意味が「転写促進」であると判定できる。また、特徴量アノテーション・データベースに基づいて、「ミトコンドリア」に関連付けられた特徴量「断片化率」が特徴量変化「UP」を示す場合、その生物学的意味が「分裂促進、酸化ストレス上昇、マイトファジー亢進」であると判定できる。 That is, it is determined that the function of protein A is “transcription factor (promotion)” based on the intracellular component annotation database. Further, based on the feature amount annotation database, when the feature amount “total nuclear brightness value/intracellular total brightness value” associated with “transcription factor (promotion)” indicates a feature amount change “UP”, the organism It can be determined that the biological meaning is “promoting transcription”. Further, based on the feature amount annotation database, when the feature amount “fragmentation rate” associated with “mitochondria” indicates a feature amount change “UP”, its biological meaning is “mitogenesis, increase in oxidative stress, It can be determined that it is “Mito fuzzy enhancement”.

これらの判定結果に基づいて、次のような相関関係R4の生物学的解釈を加えることができる。すなわち、(1)タンパク質Aは、ミトコンドリア分裂に関係するタンパク質の転写を促進する。(2)タンパク質Aは、マイトファジーを亢進するタンパク質の転写を促進する。 Based on these determination results, the following biological interpretation of the correlation R4 can be added. That is, (1) protein A promotes transcription of proteins involved in mitochondrial division. (2) Protein A promotes transcription of proteins that enhance mitophage.

上述したように、画像処理装置10によれば、細胞の特徴量間の相関関係の抽出結果と、生物学的情報とに基づいて、その相関関係の生物学的解釈に示唆を与えることができる。
相関関係の取得に用いられた細胞の特徴量から、その特徴量の生物学的情報を作成する。すなわち、相関関係の取得に用いられた細胞の特徴量の生物学的な情報を作成する。これにより、抽出された相関の生物学的解釈を行うことができる。
As described above, according to the image processing apparatus 10, it is possible to give a suggestion to the biological interpretation of the correlation based on the extraction result of the correlation between the feature amounts of the cells and the biological information. ..
From the feature amount of the cell used to acquire the correlation, biological information of the feature amount is created. That is, the biological information of the feature amount of the cell used to acquire the correlation is created. This allows a biological interpretation of the extracted correlation.

[スパース推定結果を利用した特徴量ネットワークの特徴の抽出]
相関関係抽出部104によるスパース推定結果を利用して、特徴量ネットワークの要素を抽出することができる。ここで、特徴量ネットワークとは、特徴量間の相関関係のネットワークを指す。特徴量ネットワークの要素には、ノード、エッジ、サブグラフ(クラスタ)、リンクが含まれる。特徴量ネットワークの特徴には、ハブの有無、クラスタの有無などが含まれる。例えば、あるノードがハブを有するか否かは、偏相関行列の値に基づいて判定することができる。ここで、ハブとは、他の特徴量との相関関係の数が比較的多い特徴量のことである。
[Feature Feature Network Feature Extraction Using Sparse Estimation Results]
The elements of the feature amount network can be extracted using the sparse estimation result by the correlation extraction unit 104. Here, the feature amount network refers to a network of correlations between feature amounts. Elements of the feature amount network include nodes, edges, subgraphs (clusters), and links. The features of the feature amount network include the presence/absence of hubs and the presence/absence of clusters. For example, whether or not a node has a hub can be determined based on the value of the partial correlation matrix. Here, the hub is a feature amount having a relatively large number of correlations with other feature amounts.

あるノードにハブが存在する場合、そのハブである特徴量、又は、そのハブを含むノードが、生物学的に重要な意味を持つことが考えられる。したがって、ハブの存在の発見は、重要なタンパク質や、重要な特徴量の発見につながることがある。つまり、相関関係抽出部104によるスパース推定結果を利用することにより、重要なタンパク質や、重要な特徴量の発見に寄与することができる。
したがって、相関関係抽出部104は、スパース推定を用いて、算出される特徴量ネットワークから、その特徴量ネットワークを構成する複数の要素の中から、一つ以上の要素を特定することができる。これにより、相関を取得する際に優先して考慮する要素を抽出することができる。抽出することで、それ以外の相関を取得する際に、考慮に入れることができる。
もちろん、相関関係抽出部104は、スパース推定を用いて、算出される特徴量ネットワークから、その特徴量ネットワークを構成する複数の要素群の中から、一つ以上の要素群を特定することができる。要素群としては、例えば、タンパク質の二次構造が同一な複数のタンパク質を一つの要素群としても構わない。
When a hub exists in a certain node, it is considered that the feature quantity that is the hub or the node including the hub has a biologically important meaning. Therefore, the discovery of the presence of the hub may lead to the discovery of important proteins and important feature quantities. That is, by utilizing the sparse estimation result by the correlation extraction unit 104, it is possible to contribute to the discovery of important proteins and important feature quantities.
Therefore, the correlation extraction unit 104 can specify one or more elements from the calculated feature amount network by using the sparse estimation, from the plurality of elements forming the feature amount network. With this, it is possible to extract an element to be considered with priority when acquiring the correlation. By extracting, it can be taken into consideration when acquiring other correlations.
Of course, the correlation extraction unit 104 can specify one or more element groups from the calculated feature amount network by using the sparse estimation, from the plurality of element groups forming the feature amount network. .. As the element group, for example, a plurality of proteins having the same secondary structure of the protein may be one element group.

[特徴量ネットワーク間の変化検知]
相関関係抽出部104によるスパース推定結果を利用して、複数の特徴量ネットワーク
間の変化を検知することができる。
図14は、本実施形態の特徴量ネットワークの比較類型の一例を示す図である。特徴量ネットワークは、ミクロからマクロまでの各粒度において、相互に比較可能である。具体的には、関係性の変化に基づいて、エッジ粒度の変化検知を行うことができる。このエッジ粒度の変化検知は、d(d−1)/d個のスコアを有する。また、変数の変化に基づいて、ノード粒度の変化検知を行うことができる。このノード粒度の変化検知は、d個のスコアを有する。EGONET(エゴネット)の変化に基づいて、クラスタ粒度の変化検知を行うことができる。このクラスタ粒度の変化検知は、d個のスコアを有する。ネットワークの変化に基づいて、ネットワーク粒度の変化検知を行うことができる。このネットワーク粒度の変化検知は、1個のスコアを有する。
[Detection of changes between feature networks]
A change between a plurality of feature amount networks can be detected by using the sparse estimation result by the correlation extraction unit 104.
FIG. 14 is a diagram showing an example of a comparative type of the feature quantity network of this embodiment. The feature networks can be compared with each other in each grain size from micro to macro. Specifically, a change in edge granularity can be detected based on the change in the relationship. This edge granularity change detection has d(d-1)/d scores. Further, it is possible to detect a change in node granularity based on a change in a variable. This node granularity change detection has d scores. A change in cluster grain size can be detected based on a change in EGONET. This cluster granularity change detection has d scores. It is possible to detect changes in network granularity based on changes in the network. This network granularity change detection has a score of one.

ノード粒度の変化検知は、例えば、確率的近傍法によって行われる。この確率的近傍法によるノード粒度の変化検知は、非類似度行列のi番目の要素と、j番目の要素との近傍確率を算出し、この近傍確率をスコア化することにより可能である。また、あるタンパク質のある指標についてのスコアを、タンパク質毎かつ指標毎に並べることにより、スコアの変化をグラフ化することができる。例えば、Tsuyoshi IdeとSpiros PapadimitriouとMichail Vlachosが、Proceedings of the Seventh IEEE International Conference on Data Mining(ICDM)のOct 28−31, 2007, pp523−528で、記載されている。 The detection of changes in node granularity is performed by, for example, the stochastic neighborhood method. The change in node granularity can be detected by the probabilistic neighborhood method by calculating the neighborhood probability between the i-th element and the j-th element of the dissimilarity matrix and scoring the neighborhood probability. In addition, by arranging scores for a certain index of a certain protein for each protein and for each index, the change in the score can be graphed. For example, Tsushioshi Ide, Spiros Papadimitriou, and Michel Vlachos are described in Proceedings of the Event International Conference on Data Mining (IC28) 52, Oct.

クラスタ粒度の変化検知は、EGONETによって行われる。ここで、EGONETとは、ノードとエッジとで構成される特徴量ネットワークにおいて、個々のノード(Ego)に注目し、注目ノードと、注目ノードに関係するノードと、これらのノードが張るエッジの関係を示す図である。EGONETによれば、特徴量ネットワークに含まれる全エッジから、注目ノードについてのエッジが抽出される。このため、EGONETどうしを比較することは、特徴量ネットワークどうしの比較に比べて容易である。注目するノード周りの相関構造を可視化する上で有益である。 The change in cluster grain size is detected by EGONET. Here, EGONET refers to a relationship between a focused node, a node related to the focused node, and an edge formed by these nodes, focusing on individual nodes (Ego) in a feature quantity network composed of nodes and edges. FIG. According to EGONET, the edge of the target node is extracted from all the edges included in the feature amount network. Therefore, comparing EGONETs is easier than comparing feature amount networks. This is useful for visualizing the correlation structure around the node of interest.

特徴量ネットワーク間の変化検知の変形例として、2つ以上の特徴量ネットワーク間の定量的な比較がある。例えば、ある病気に罹患している人の組織から採取された細胞についての特徴量ネットワークと、健康な人の組織から採取された細胞についての特徴量ネットワークとを比較することができる。この場合、特徴量ネットワークどうしを比較することにより、ある病気に特有の特徴量ネットワークの構造を発見することが可能である。また、本実施形態では相関関係抽出部104がスパース推定を用いることにより、解釈しやすい疎な特徴量ネットワークを導出するため、特徴量ネットワークの比較が、スパース推定を用いない場合に比べて容易である。 As a modification of the change detection between the feature amount networks, there is a quantitative comparison between two or more feature amount networks. For example, a feature network for cells taken from the tissue of a person suffering from a disease can be compared with a feature network for cells taken from the tissue of a healthy person. In this case, it is possible to discover the structure of the feature amount network peculiar to a certain disease by comparing the feature amount networks. Further, in the present embodiment, since the correlation extraction unit 104 uses sparse estimation to derive a sparse feature amount network that is easy to interpret, comparison of feature amount networks is easier than when sparse estimation is not used. is there.

なお、特徴量ネットワーク間の比較において、SVM、ランダムフォレストなどによるネットワーク学習を用いてもよい。また、このネットワーク学習の際には、分類性能を向上させるため、正則化パラメータを調整してもよい。 Note that network learning by SVM, random forest, or the like may be used in comparison between feature amount networks. Further, during this network learning, the regularization parameter may be adjusted in order to improve the classification performance.

[特徴量ネットワーク間の比較による同機能タンパク質の同定]
あるタンパク質P1と、他のあるタンパク質P2とが同機能を有する場合には、タンパク質P1と他のタンパク質Pnとの間のエッジと、タンパク質P2と他のタンパク質Pnとの間のエッジとに差がない場合がある。つまり、タンパク質P1と、タンパク質P2とを同一のタンパク質とした場合、互いの特徴量ネットワークの構造が類似する。この特性を利用することにより、同機能タンパク質の同定を行うことができる。例えば、相関関係抽出部104によるスパース推定の際に、特徴量ネットワークからタンパク質P1だけを除外したものと、特徴量ネットワークからタンパク質P2だけを除外したものとを抽出することにより、同機能タンパク質の同定を行うことができる。
[Identification of proteins with the same function by comparing feature networks]
When a certain protein P1 and another certain protein P2 have the same function, there is a difference between the edge between the protein P1 and the other protein Pn and the edge between the protein P2 and the other protein Pn. May not be. That is, when the protein P1 and the protein P2 are the same protein, the structures of the feature amount networks are similar to each other. By utilizing this characteristic, it is possible to identify a protein having the same function. For example, at the time of sparse estimation by the correlation extraction unit 104, by extracting the one in which only the protein P1 is excluded from the feature amount network and the one in which only the protein P2 is excluded from the feature amount network, identification of the functional protein is performed. It can be performed.

[生物学的知識を用いた正則化パラメータの決定]
図15は、本実施形態の生物学的知識を用いた正則化パラメータの決定手順の一例を示す図である。この一例では、生物学的知識に基づいた、タンパク質どうしの結合が、予め規定されている。具体的には、生物学的知識に基づいて、あるタンパク質の特徴量と他のタンパク質の特徴量との間において「結合があるべきだ」という結合と、「結合があるはずはない」という結合とが、予め知識データベースとして規定されている。本実施形態においては、この予め規定されている知識データベースが、記憶部200に記憶されていてもよい。
[Determination of regularization parameter using biological knowledge]
FIG. 15 is a diagram showing an example of a procedure for determining a regularization parameter using the biological knowledge of this embodiment. In this example, the binding of proteins based on biological knowledge is predefined. Specifically, based on biological knowledge, a bond "should have a bond" and a bond "should not exist" between a feature amount of one protein and a feature amount of another protein. And are previously defined as a knowledge database. In the present embodiment, this predefined knowledge database may be stored in the storage unit 200.

この知識データベースと、相関関係抽出部104によるスパース推定結果が示す特徴量ネットワークとの距離、すなわち、Fscoreを算出することにより、正則化パラメータλを決定する。このFscoreは、式(14)に示す精度(Precision)と、式(15)に示す再現性(Recall)とによって、式(16)のように示される。Fscoreは正則化パラメータに依存し、推定されたネットワークが知識データベースと最も近いときに、最大値をとり、このときの正則化パラメータを採用する。また、図15に示すように、知識データベースが充分でない場合、すなわち行列の成分が完全にラベル付けされていない場合であっても、正則化パラメータの範囲を狭めることができる。 The regularization parameter λ is determined by calculating the distance between this knowledge database and the feature amount network indicated by the sparse estimation result by the correlation extraction unit 104, that is, Fscore. This Fscore is expressed as in Expression (16) by the accuracy (Precision) shown in Expression (14) and the reproducibility (Recall) shown in Expression (15). Fscore depends on the regularization parameter, takes the maximum value when the estimated network is closest to the knowledge database, and adopts the regularization parameter at this time. Further, as shown in FIG. 15, the range of regularization parameters can be narrowed even when the knowledge database is not sufficient, that is, when the matrix components are not completely labeled.

Figure 2020124220
Figure 2020124220

Figure 2020124220
Figure 2020124220

Figure 2020124220
Figure 2020124220

式(14)及び式(15)に示すTP、FP、及びFNの関係性について、図16に示す。
図16は、本実施形態の特徴量ネットワークの結合有無についての、知識ベースネットワークと予測ネットワークとの関係性を示す図である。なお、精度(Precision)とは、特徴量ネットワークのある要素について、エッジであるとして予測したもののうち、実際にエッジであるものの割合である。また、再現性(Recall)とは、特徴量ネットワークのある要素について、実際にエッジであるものについて、エッジであると予測されるものの割合である。
FIG. 16 shows the relationship between TP, FP, and FN shown in equations (14) and (15).
FIG. 16 is a diagram showing the relationship between the knowledge base network and the prediction network regarding the presence/absence of connection of feature amount networks according to the present embodiment. Note that the precision is a ratio of an element that is actually an edge among elements predicted to be an edge for a certain element of the feature amount network. Further, the reproducibility (Recall) is a ratio of a certain element of the feature amount network to an element that is actually an edge and an element that is predicted to be an edge.

上述したように、相関関係抽出部104は、細胞画像に撮像されている細胞の特性を示す情報に基づいて特徴量の尤度を求めることにより、特定の相関関係を抽出してもよい。
なお、上述の実施形態により、抽出される相関関係は、適宜、学術文献やデータベースを用いて、検証しても構わない。また、データベースが複数に分割されている場合は、分割されたデータベースからの情報を適宜、選択しても構わない。この場合に、分割されたデータベースは、遺伝子、タンパク質などの種類で分けても構わない。また、複数のデータベースの検証結果を組み合わせて、抽出される相関関係を検証しても構わない。
As described above, the correlation extracting unit 104 may extract the specific correlation by obtaining the likelihood of the feature amount based on the information indicating the characteristics of the cell captured in the cell image.
It should be noted that the correlations extracted by the above-described embodiment may be properly verified using academic literature or a database. In addition, when the database is divided into a plurality of pieces, information from the divided databases may be selected as appropriate. In this case, the divided databases may be divided according to types such as genes and proteins. Further, the extracted correlation may be verified by combining the verification results of a plurality of databases.

なお、本発明の実施形態における画像処理装置10の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上述した種々の処理を行ってもよい。 A program for executing each process of the image processing apparatus 10 according to the embodiment of the present invention is recorded in a computer-readable recording medium, and the program recorded in the recording medium is read into a computer system and executed. Therefore, the various processes described above may be performed.

なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 The “computer system” here may include an OS and hardware such as peripheral devices. Further, the “computer system” also includes a homepage providing environment (or display environment) if a WWW system is used. The "computer-readable recording medium" is a writable nonvolatile memory such as a flexible disk, a magneto-optical disk, a ROM, a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, or the like. Storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the "computer-readable recording medium" means a volatile memory (for example, a DRAM (Dynamic) in a computer system that serves as a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), which also holds the program for a certain period of time. Further, the program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the functions described above in combination with a program already recorded in the computer system.

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail above with reference to the drawings, but the specific configuration is not limited to this embodiment, and includes a design and the like within a range not departing from the gist of the present invention.

1…顕微鏡観察システム、10…画像処理装置、20…顕微鏡装置、101…細胞画像取得部、102…特徴量算出部、103…雑音成分除去部、104…相関関係抽出部 DESCRIPTION OF SYMBOLS 1... Microscope observation system, 10... Image processing apparatus, 20... Microscope apparatus, 101... Cell image acquisition part, 102... Feature amount calculation part, 103... Noise component removal part, 104... Correlation extraction part

上記問題を解決するために、本発明の一態様は、少なくとも1つの細胞を含む細胞画像を取得する細胞画像取得部と、前記細胞画像に含まれる前記細胞を構成する複数の構成要素のうち、所定の構成要素の特徴量をそれぞれ算出し、前記特徴量に基づいて、前記特徴量間での複数の相関関係を算出する特徴量算出部と、前記複数の相関関係から尤度をそれぞれ算出し、前記尤度に基づいて、前記複数の相関関係から、特定の相関関係を抽出する相関関係抽出部と、を備える画像処理装置である。 In order to solve the above problems, one embodiment of the present invention is a cell image acquisition unit that acquires a cell image including at least one cell, and a plurality of constituent elements that configure the cell included in the cell image , A feature amount of each of the predetermined components is calculated, and a feature amount calculation unit that calculates a plurality of correlations between the feature amounts based on the feature amount, and a likelihood is calculated from each of the plurality of correlations. An image processing apparatus including: a correlation extraction unit that extracts a specific correlation from the plurality of correlations based on the likelihood .

Claims (1)

細胞が撮像された細胞画像を取得する細胞画像取得部と、
前記細胞画像取得部が取得する前記細胞画像の複数種類の特徴量を算出する特徴量算出部と、
前記特徴量の尤度に基づいて、前記特徴量算出部が算出する前記特徴量間の複数の相関関係のうちから、特定の相関関係を抽出する相関関係抽出部と、
を備える画像処理装置。
A cell image acquisition unit that acquires a cell image of a cell imaged,
A feature amount calculation unit that calculates a plurality of types of feature amounts of the cell image acquired by the cell image acquisition unit,
Based on the likelihood of the feature amount, from among the plurality of correlations between the feature amounts calculated by the feature amount calculation unit, a correlation extraction unit that extracts a specific correlation,
An image processing apparatus including.
JP2020082268A 2020-05-07 2020-05-07 Image processing equipment Active JP6999118B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082268A JP6999118B2 (en) 2020-05-07 2020-05-07 Image processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082268A JP6999118B2 (en) 2020-05-07 2020-05-07 Image processing equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017557557A Division JP6756339B2 (en) 2015-12-22 2015-12-22 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2020124220A true JP2020124220A (en) 2020-08-20
JP6999118B2 JP6999118B2 (en) 2022-01-18

Family

ID=72084002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082268A Active JP6999118B2 (en) 2020-05-07 2020-05-07 Image processing equipment

Country Status (1)

Country Link
JP (1) JP6999118B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023015674A (en) * 2021-07-20 2023-02-01 株式会社エビデント Internal estimation method of cell mass, program, and image processing device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006104201A1 (en) * 2005-03-29 2006-10-05 Olympus Corporation Cell image analyzing method, cell image analyzing program, cell image analyzing device, screening method and screening device
WO2013001584A1 (en) * 2011-06-30 2013-01-03 パナソニック株式会社 Similar case history search device and similar case history search method
JP2013143102A (en) * 2012-01-12 2013-07-22 Nikon Corp Mobile object detection device, mobile object detection method, and program
JP2014085949A (en) * 2012-10-25 2014-05-12 Dainippon Printing Co Ltd Cell behaviour analysis device, cell behaviour analysis method, and program
WO2014178323A1 (en) * 2013-05-01 2014-11-06 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method, and biomarker device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006104201A1 (en) * 2005-03-29 2006-10-05 Olympus Corporation Cell image analyzing method, cell image analyzing program, cell image analyzing device, screening method and screening device
WO2013001584A1 (en) * 2011-06-30 2013-01-03 パナソニック株式会社 Similar case history search device and similar case history search method
JP2013143102A (en) * 2012-01-12 2013-07-22 Nikon Corp Mobile object detection device, mobile object detection method, and program
JP2014085949A (en) * 2012-10-25 2014-05-12 Dainippon Printing Co Ltd Cell behaviour analysis device, cell behaviour analysis method, and program
WO2014178323A1 (en) * 2013-05-01 2014-11-06 株式会社国際電気通信基礎技術研究所 Brain activity analysis device, brain activity analysis method, and biomarker device

Also Published As

Publication number Publication date
JP6999118B2 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
JP6756339B2 (en) Image processing device and image processing method
Nirschl et al. A deep-learning classifier identifies patients with clinical heart failure using whole-slide images of H&E tissue
US10733726B2 (en) Pathology case review, analysis and prediction
Schiff et al. Integrating deep learning and unbiased automated high-content screening to identify complex disease signatures in human fibroblasts
US8320655B2 (en) Process and system for analyzing the expression of biomarkers in cells
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
US20110091081A1 (en) Method and system for analyzing the expression of biomarkers in cells in situ in their tissue of origin
Li et al. Parasitologist-level classification of apicomplexan parasites and host cell with deep cycle transfer learning (DCTL)
US11321836B2 (en) Image-processing device, image-processing method, and image-processing program for setting cell analysis area based on captured image
Woloshuk et al. In situ classification of cell types in human kidney tissue using 3D nuclear staining
JP6818041B2 (en) Analytical equipment, analysis method, and program
JP2022105045A (en) Analysis equipment
US20200372652A1 (en) Calculation device, calculation program, and calculation method
US11645859B2 (en) Analysis device, analysis method, analysis program and display device
US20210319554A1 (en) Method and system for assessing fibrosis in a tissue sample
JP6999118B2 (en) Image processing equipment
US8824769B2 (en) Process and system for analyzing the expression of biomarkers in a cell
WO2018193612A1 (en) Correlation calculation device, correlation calculation method, and correlation calculation program
JPWO2018066039A1 (en) Analysis device, analysis method, and program
Tang et al. Fast post-processing pipeline for optical projection tomography
WO2018109826A1 (en) Analysis device, analysis program, and analysis method
WO2018122908A1 (en) Analysis device, analysis program and analysis method
WO2020090089A1 (en) Determination device, determination method, and determination program
Backová Segmentation of Multi-Dimensional Multi-Parametric Microscopic Data of Biological Samples Using Convolutional Neural Networks
WO2019159247A1 (en) Computation device, analysis program, and analysis method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 6999118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150