JPH11316754A - 実験計画法及び実験計画プログラムを記録した記録媒体 - Google Patents
実験計画法及び実験計画プログラムを記録した記録媒体Info
- Publication number
- JPH11316754A JPH11316754A JP12305798A JP12305798A JPH11316754A JP H11316754 A JPH11316754 A JP H11316754A JP 12305798 A JP12305798 A JP 12305798A JP 12305798 A JP12305798 A JP 12305798A JP H11316754 A JPH11316754 A JP H11316754A
- Authority
- JP
- Japan
- Prior art keywords
- point
- input
- question
- learning
- experiment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013401 experimental design Methods 0.000 title abstract description 4
- 238000000034 method Methods 0.000 claims abstract description 67
- 238000002474 experimental method Methods 0.000 claims abstract description 62
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 37
- 230000006870 function Effects 0.000 claims abstract description 28
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 21
- 238000013461 design Methods 0.000 claims description 10
- 238000003050 experimental design method Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 4
- 238000012952 Resampling Methods 0.000 description 8
- 108090000765 processed proteins & peptides Proteins 0.000 description 7
- 102000004196 processed proteins & peptides Human genes 0.000 description 4
- 102000004169 proteins and genes Human genes 0.000 description 4
- 108090000623 proteins and genes Proteins 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 125000003275 alpha amino acid group Chemical group 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 239000000427 antigen Substances 0.000 description 2
- 102000036639 antigens Human genes 0.000 description 2
- 108091007433 antigens Proteins 0.000 description 2
- 230000007786 learning performance Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 150000001413 amino acids Chemical class 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013400 design of experiment Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 210000000987 immune system Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
(57)【要約】
【課題】 対象となる全試行の遂行が事実上不可能な実
験を行う際に、能動学習を用いて効率的な実験手順を指
定することにより、少い実験回数で目的関数の推定を可
能にする実験計画の立案方法を提供する。 【解決手段】 まず、入力手段において、初期データ、
そのデータの初期分布、および下位学習アルゴリズムを
入力する。次に、ブースティング装置100が実行して
仮説を求め、仮説から現在のデータへの予測値を計算
し、予測値から誤差を計算して、データの分布を更新す
る。手段210では、ブースティング装置100で最終
的に得られた仮説を使用して、過去のデータに含まれな
い質問点の選択を行い、この質問点を実験者に対する新
しい実験として指示する。手段220では、上記の質問
点に対して実験者の実験により得られた関数値を受け取
る。手段230では、得られた質問点とその関数値を過
去のデータに加える。最後に、手段240において、質
問回数が一定値に達していれば、能動学習を終了する。
この時点で得られる仮説が、求めたい仮説になってい
る。
験を行う際に、能動学習を用いて効率的な実験手順を指
定することにより、少い実験回数で目的関数の推定を可
能にする実験計画の立案方法を提供する。 【解決手段】 まず、入力手段において、初期データ、
そのデータの初期分布、および下位学習アルゴリズムを
入力する。次に、ブースティング装置100が実行して
仮説を求め、仮説から現在のデータへの予測値を計算
し、予測値から誤差を計算して、データの分布を更新す
る。手段210では、ブースティング装置100で最終
的に得られた仮説を使用して、過去のデータに含まれな
い質問点の選択を行い、この質問点を実験者に対する新
しい実験として指示する。手段220では、上記の質問
点に対して実験者の実験により得られた関数値を受け取
る。手段230では、得られた質問点とその関数値を過
去のデータに加える。最後に、手段240において、質
問回数が一定値に達していれば、能動学習を終了する。
この時点で得られる仮説が、求めたい仮説になってい
る。
Description
【0001】
【発明の属する技術分野】本発明は、分子生物学などの
分野の実験を効率的に遂行する計画を立案する方法に関
する。
分野の実験を効率的に遂行する計画を立案する方法に関
する。
【0002】
【従来の技術】一般に、従来の「実験計画法」は、例え
ば、ある機械の性能向上、といった目的(これを特性と
呼ぶ)に対し、影響を及ぼすような要因(これを因子と
呼ぶ)を抽出し、因子のとり得る値(これを水準と呼
ぶ)によって、特性が向上するかを検査することが目的
となっている。即ち、因子のとる水準を変動させて実験
することにより、因子同士の相関とその特性への影響を
解析する。
ば、ある機械の性能向上、といった目的(これを特性と
呼ぶ)に対し、影響を及ぼすような要因(これを因子と
呼ぶ)を抽出し、因子のとり得る値(これを水準と呼
ぶ)によって、特性が向上するかを検査することが目的
となっている。即ち、因子のとる水準を変動させて実験
することにより、因子同士の相関とその特性への影響を
解析する。
【0003】しかし、従来の「実験計画法」では、実際
の実験において、過去に得られた実験結果を踏まえて、
次に行う実験で使用するべき因子の水準を逐一決めるわ
けではない。即ち、従来の「実験計画法」は、特性の追
求のために、どのような実験手順を行うかという戦略を
決定する方法ではない。
の実験において、過去に得られた実験結果を踏まえて、
次に行う実験で使用するべき因子の水準を逐一決めるわ
けではない。即ち、従来の「実験計画法」は、特性の追
求のために、どのような実験手順を行うかという戦略を
決定する方法ではない。
【0004】こうした従来の「実験計画法」において生
じる問題を、一例として「免疫ペプチドの結合能の特定
問題」を挙げて以下に説明する。体内のMHC細胞と呼
ばれる細胞が、抗原の持つペプチドと呼ばれる小さい蛋
白質のかけらと結合することによって、免疫系は抗原を
認識していると考えられている。このため、「免疫ペプ
チドの結合能の特定問題」は、医学、特に免疫学の分野
における最重要問題の一つである。例えば、ある蛋白質
が、長さ10のアミノ酸配列(以下、ペプチドと呼ぶ)
と結合するとし、この時アミノ酸配列に依存して結合能
が変わるとする。どのようなペプチドがこの蛋白質に対
して結合能が高いのかを仮に生化学実験を行って知ろう
とすれば、長さ10のペプチドを全種類生成し、それぞ
れの結合能を測定する実験を行うという手順を経る必要
がある。しかし、アミノ酸の種類は20なので、長さ1
0のペプチドには、2010の組み合わせが存在すること
になる。これら全ての配列に対する結合能のデータを生
化学実験から得るのは到底不可能である。
じる問題を、一例として「免疫ペプチドの結合能の特定
問題」を挙げて以下に説明する。体内のMHC細胞と呼
ばれる細胞が、抗原の持つペプチドと呼ばれる小さい蛋
白質のかけらと結合することによって、免疫系は抗原を
認識していると考えられている。このため、「免疫ペプ
チドの結合能の特定問題」は、医学、特に免疫学の分野
における最重要問題の一つである。例えば、ある蛋白質
が、長さ10のアミノ酸配列(以下、ペプチドと呼ぶ)
と結合するとし、この時アミノ酸配列に依存して結合能
が変わるとする。どのようなペプチドがこの蛋白質に対
して結合能が高いのかを仮に生化学実験を行って知ろう
とすれば、長さ10のペプチドを全種類生成し、それぞ
れの結合能を測定する実験を行うという手順を経る必要
がある。しかし、アミノ酸の種類は20なので、長さ1
0のペプチドには、2010の組み合わせが存在すること
になる。これら全ての配列に対する結合能のデータを生
化学実験から得るのは到底不可能である。
【0005】つまり、より一般的に述べれば、変数xと
それに対応するラベル(出力)yのデータから、xとy
の関係を表現する関数f(y=f(x))を知りたい
時、変数xの取り得る範囲が非常に広く、全てのxに対
してf(x)の値を実験的に求めることは現実的に不可
能な場合が多々存在する。このような場合、従来の「実
験計画法」によれば現実には実行不可能な数の実験を行
わなければ解析ができない、即ち、実際には解析できな
かった。
それに対応するラベル(出力)yのデータから、xとy
の関係を表現する関数f(y=f(x))を知りたい
時、変数xの取り得る範囲が非常に広く、全てのxに対
してf(x)の値を実験的に求めることは現実的に不可
能な場合が多々存在する。このような場合、従来の「実
験計画法」によれば現実には実行不可能な数の実験を行
わなければ解析ができない、即ち、実際には解析できな
かった。
【0006】このように、従来、過去に得られたデータ
(x,y)から次の実験すべき質問点を決めながら関数
fを推定していくための精度の良い方法が知られておら
ず、そのような方法の発明が待望されていた。
(x,y)から次の実験すべき質問点を決めながら関数
fを推定していくための精度の良い方法が知られておら
ず、そのような方法の発明が待望されていた。
【0007】このような従来の「実験計画法」に対し、
本発明での「実験計画法」は、上記「従来の実験計画
法」の言葉で書けば、次のようになる。即ち、因子を入
力として特性を出力とするような関数fを推定する際
に、結果を知りたい実験の因子の水準を逐一指定するこ
とにより、少ない実験回数で関数fを推定する方法であ
る。表現を一般化すると、入力xとそのラベル(出力)
yの関係を表す関数(仮説)f(y=f(x))を効率
良く推定するために行う実験の順序を計画することを指
す。
本発明での「実験計画法」は、上記「従来の実験計画
法」の言葉で書けば、次のようになる。即ち、因子を入
力として特性を出力とするような関数fを推定する際
に、結果を知りたい実験の因子の水準を逐一指定するこ
とにより、少ない実験回数で関数fを推定する方法であ
る。表現を一般化すると、入力xとそのラベル(出力)
yの関係を表す関数(仮説)f(y=f(x))を効率
良く推定するために行う実験の順序を計画することを指
す。
【0008】本発明では、この実験計画法を能動学習に
より実現する。能動学習とは、例えば、1997年発行
の日本の雑誌「情報処理」38巻7号558−561頁
記載の安倍と中村による解説「能動学習概要」などに記
されているように、学習者が環境から選択的に情報を獲
得し、学習する方法を指す。
より実現する。能動学習とは、例えば、1997年発行
の日本の雑誌「情報処理」38巻7号558−561頁
記載の安倍と中村による解説「能動学習概要」などに記
されているように、学習者が環境から選択的に情報を獲
得し、学習する方法を指す。
【0009】能動学習の手法としては、多くの方法が提
案されている。例えば、1995年発行の米国の雑誌
「スタティスティカル サイエンス」(Statist
ical Science)の第10巻273−304
頁記載のチャロナー(Chaloner)とベルディネ
リィ(Verdinelli)の論文「ベイジアン エ
クスペリメンタル デザイン:ア レビュー」(Bay
esian experimental desig
n:a Review)では、ベイズ決定理論に基づく
能動学習手法が提案されている。また、1991年発行
の米国の雑誌「アイトリプルイー トランザクションズ
オン ニューラル ネットワークス」(IEEE T
ransactions on Neural Net
works)の第2巻5−19頁記載のバウム(Bau
m)の論文「ニューラル ネット アルゴリズムズ ザ
ット ラーン イン ポリノミアル タイム フロム
イグザンプルズ アンド クエリーズ」(Neural
net algorithms that lear
nin polynomial time frome
xamples and queries)では、過去
の学習データから境界点と推定される点を新たな質問点
とする学習方法を提案している。
案されている。例えば、1995年発行の米国の雑誌
「スタティスティカル サイエンス」(Statist
ical Science)の第10巻273−304
頁記載のチャロナー(Chaloner)とベルディネ
リィ(Verdinelli)の論文「ベイジアン エ
クスペリメンタル デザイン:ア レビュー」(Bay
esian experimental desig
n:a Review)では、ベイズ決定理論に基づく
能動学習手法が提案されている。また、1991年発行
の米国の雑誌「アイトリプルイー トランザクションズ
オン ニューラル ネットワークス」(IEEE T
ransactions on Neural Net
works)の第2巻5−19頁記載のバウム(Bau
m)の論文「ニューラル ネット アルゴリズムズ ザ
ット ラーン イン ポリノミアル タイム フロム
イグザンプルズ アンド クエリーズ」(Neural
net algorithms that lear
nin polynomial time frome
xamples and queries)では、過去
の学習データから境界点と推定される点を新たな質問点
とする学習方法を提案している。
【0010】これらの手法と共に、データ効率性を実現
するための「集団質問学習」と呼ばれる学習方法が提案
されており、有力な能動学習手法の一つとされている。
代表的な集団質問学習手法としては、1992年発行の
国際会議の予稿集「プロシーディングス オブ ザ フ
ィフス アニュアル エーシーエム ワークショップオ
ン コンピュテーショナル ラーニング セオリー(P
roceedings of the fifth a
nnual ACM workshop on com
putational learning thoer
y)」の287−294頁記載のセング(Seung)
らの論文「クエリー バイ コミッティ」(Query
by Committee)記載の方法がある。この
方法では、ランダム化された複数の学習者に予測をさ
せ、その不一致度が最大の点を新たな質問点とし、学習
を行っている。
するための「集団質問学習」と呼ばれる学習方法が提案
されており、有力な能動学習手法の一つとされている。
代表的な集団質問学習手法としては、1992年発行の
国際会議の予稿集「プロシーディングス オブ ザ フ
ィフス アニュアル エーシーエム ワークショップオ
ン コンピュテーショナル ラーニング セオリー(P
roceedings of the fifth a
nnual ACM workshop on com
putational learning thoer
y)」の287−294頁記載のセング(Seung)
らの論文「クエリー バイ コミッティ」(Query
by Committee)記載の方法がある。この
方法では、ランダム化された複数の学習者に予測をさ
せ、その不一致度が最大の点を新たな質問点とし、学習
を行っている。
【0011】一方、能動学習をしない学習は受動学習と
呼ばれる。受動学習において、学習者は環境から情報を
選択的に得ることはなく、所与の大量のデータからデー
タに内在する規則(仮説)を推定する。受動学習におい
て、近年、与えられたデータからそれまでの仮説が不得
意とするデータ領域を重点的に学習させるようにリサン
プリングを繰り返すことによって学習精度を向上させる
「ブースティング」と呼ばれる技術が注目されており、
実験的にも高い性能を有することが確かめられて来てい
る。
呼ばれる。受動学習において、学習者は環境から情報を
選択的に得ることはなく、所与の大量のデータからデー
タに内在する規則(仮説)を推定する。受動学習におい
て、近年、与えられたデータからそれまでの仮説が不得
意とするデータ領域を重点的に学習させるようにリサン
プリングを繰り返すことによって学習精度を向上させる
「ブースティング」と呼ばれる技術が注目されており、
実験的にも高い性能を有することが確かめられて来てい
る。
【0012】「ブースティング」の手法については、1
995年発行の国際会議予稿集「プロシーディングス
オブ ザ セカンド ヨーロピアン コンファレンス
オンコンピュテーショナル ラーニング セオリー(P
roceedings of the second
european conference oncom
putational learning thoer
y)」の23−37頁記載のフロインド(Freun
d)とシャピレ(Shapire)の論文「ア デシジ
ョン セオレティック ジェネラライゼーション オブ
オンラインラーニング アンド アン アプリケーシ
ョン トゥー ブースティング」(A decisio
n−theoretic generalizatio
nof on−line learning and
an application to boostin
g)に記載されている。更に、1996年発行の国際会
議予稿集「プロシーディングス オブ ザ サーティー
ンス インターナショナル コンファレンス オン マ
シン ラーニング(Proceedingsof th
e thirteenth internationa
l conference on machine l
earning)」の148−156頁記載のフロイン
ド(Freund)とシャピレ(Shapire)の論
文「エクスペリメンツ ウィズ ア ニュー ブーステ
ィング アルゴリズム」(Experiments w
ith a new boosting algori
thm)においては、受動学習における「ブースティン
グ」技術が、そこそこの学習性能を持つ学習アルゴリズ
ムを使用し、任意の学習精度を持つ学習アルゴリズムを
構成するという、優位性を実験的に示している。
995年発行の国際会議予稿集「プロシーディングス
オブ ザ セカンド ヨーロピアン コンファレンス
オンコンピュテーショナル ラーニング セオリー(P
roceedings of the second
european conference oncom
putational learning thoer
y)」の23−37頁記載のフロインド(Freun
d)とシャピレ(Shapire)の論文「ア デシジ
ョン セオレティック ジェネラライゼーション オブ
オンラインラーニング アンド アン アプリケーシ
ョン トゥー ブースティング」(A decisio
n−theoretic generalizatio
nof on−line learning and
an application to boostin
g)に記載されている。更に、1996年発行の国際会
議予稿集「プロシーディングス オブ ザ サーティー
ンス インターナショナル コンファレンス オン マ
シン ラーニング(Proceedingsof th
e thirteenth internationa
l conference on machine l
earning)」の148−156頁記載のフロイン
ド(Freund)とシャピレ(Shapire)の論
文「エクスペリメンツ ウィズ ア ニュー ブーステ
ィング アルゴリズム」(Experiments w
ith a new boosting algori
thm)においては、受動学習における「ブースティン
グ」技術が、そこそこの学習性能を持つ学習アルゴリズ
ムを使用し、任意の学習精度を持つ学習アルゴリズムを
構成するという、優位性を実験的に示している。
【0013】しかしながら、ブースティング技術は、受
動学習でのみ使用されており、能動学習にはまだ適用さ
れていない。即ち、能動学習においては、リサンプリン
グを繰り返すといった「ブースティング」技術特有の考
え方はこれまで無く、この技術を能動学習の枠組で使用
する方法は提案されていなかった。
動学習でのみ使用されており、能動学習にはまだ適用さ
れていない。即ち、能動学習においては、リサンプリン
グを繰り返すといった「ブースティング」技術特有の考
え方はこれまで無く、この技術を能動学習の枠組で使用
する方法は提案されていなかった。
【0014】
【発明が解決しようとする課題】本発明が解決しようと
する課題は、対象となる全試行の遂行が事実上不可能な
実験を行う際に、少ない実験回数で目的関数の推定を可
能にする実験計画の立案方法、プログラム及び装置を提
供することである。
する課題は、対象となる全試行の遂行が事実上不可能な
実験を行う際に、少ない実験回数で目的関数の推定を可
能にする実験計画の立案方法、プログラム及び装置を提
供することである。
【0015】
【課題を解決するための手段】本発明では、前記課題を
解決するために、能動学習を用いた実験計画法を提案す
る。
解決するために、能動学習を用いた実験計画法を提案す
る。
【0016】特に、受動的な学習アルゴリズムの精度
を、データのリサンプリングを繰り返すことにより向上
させる手法である「ブースティング」技術を、能動学習
の有力手法の一つである集団質問学習と適切に組み合わ
せることにより、精度の高い能動学習を実現し、実験計
画の立案に適用する。
を、データのリサンプリングを繰り返すことにより向上
させる手法である「ブースティング」技術を、能動学習
の有力手法の一つである集団質問学習と適切に組み合わ
せることにより、精度の高い能動学習を実現し、実験計
画の立案に適用する。
【0017】即ち、本発明によれば、入力と出力の間に
正確または近似的に成り立つ関数関係について、実験に
よって得られる入出力のデータをもとに推定を行う実験
計画法において、次の実験の入力点の選択をする各時点
で、過去の入出力データから一定の表現形を用いて関数
関係を推定する予め定められた学習アルゴリズムを下位
アルゴリズムとして用いて、下位アルゴリズムに該時点
までの入出力データを訓練データとして学習させる学習
段階と、学習段階の学習精度をブースティング技術によ
り向上させるブースティング段階と、ブースティング段
階により複数の仮説の重み付き平均として得られる最終
仮説を用いて、ランダムに生成された複数の入力候補点
に対する関数値の予測を行なう関数値予測段階と、重み
の総和が最大の出力値の重み和と、重みの総和が次に大
きい出力値の重み和との差が、最も小さいような入力候
補点を前記入力点として選択する入力点指定段階とを行
うことを特徴とする実験計画法が得られる。
正確または近似的に成り立つ関数関係について、実験に
よって得られる入出力のデータをもとに推定を行う実験
計画法において、次の実験の入力点の選択をする各時点
で、過去の入出力データから一定の表現形を用いて関数
関係を推定する予め定められた学習アルゴリズムを下位
アルゴリズムとして用いて、下位アルゴリズムに該時点
までの入出力データを訓練データとして学習させる学習
段階と、学習段階の学習精度をブースティング技術によ
り向上させるブースティング段階と、ブースティング段
階により複数の仮説の重み付き平均として得られる最終
仮説を用いて、ランダムに生成された複数の入力候補点
に対する関数値の予測を行なう関数値予測段階と、重み
の総和が最大の出力値の重み和と、重みの総和が次に大
きい出力値の重み和との差が、最も小さいような入力候
補点を前記入力点として選択する入力点指定段階とを行
うことを特徴とする実験計画法が得られる。
【0018】別の言い方をすれば、実験によって得られ
る入出力のデータを元に、入力と出力の間に成り立つ関
数関係を推定する実験計画法において、受動学習によっ
て過去のデータから仮説を推定する仮説推定段階と、仮
説に基づいて次の質問点を指示する質問点指示段階と、
質問点に対する関数値を実験によって求める実験段階
と、質問点及び関数値を過去のデータに追加するデータ
更新段階とを含むことを特徴とする実験計画法が得られ
る。ここで、仮説推定段階においてブースティングを用
いることが好ましい。また、質問点指示段階は、過去の
データにない複数の質問候補点をランダムに生成する質
問候補点生成段階と、仮説に基づいて複数の質問候補点
から次の質問点を選択する質問点選択段階とからなる。
る入出力のデータを元に、入力と出力の間に成り立つ関
数関係を推定する実験計画法において、受動学習によっ
て過去のデータから仮説を推定する仮説推定段階と、仮
説に基づいて次の質問点を指示する質問点指示段階と、
質問点に対する関数値を実験によって求める実験段階
と、質問点及び関数値を過去のデータに追加するデータ
更新段階とを含むことを特徴とする実験計画法が得られ
る。ここで、仮説推定段階においてブースティングを用
いることが好ましい。また、質問点指示段階は、過去の
データにない複数の質問候補点をランダムに生成する質
問候補点生成段階と、仮説に基づいて複数の質問候補点
から次の質問点を選択する質問点選択段階とからなる。
【0019】また、本発明によれば、入力と出力の間に
正確または近似的に成り立つ関数関係について、実験に
よって得られる入出力のデータをもとに推定を行う実験
計画プログラムを記録したコンピュータ読み取り可能な
記録媒体において、次の実験の入力点の選択をする各時
点で、過去の入出力データから一定の表現形を用いて関
数関係を推定する任意の学習アルゴリズムを下位アルゴ
リズムとして用いて、前記下位アルゴリズムに該時点ま
での入出力データを訓練データとして学習させる学習処
理と、学習処理の学習精度をブースティング技術により
向上させるブースティング処理と、ブースティング処理
により複数の仮説の重み付き平均として得られる最終仮
説を用いて、ランダムに生成された複数の入力候補点に
対する関数値の予測を行なう関数値予測処理と、重みの
総和が最大の出力値の重み和と、重みの総和が次に大き
い出力値の重み和との差が、最も小さいような入力候補
点を前記入力点として選択する入力点指定処理とをコン
ピュータに実行させることを特徴とする実験計画プログ
ラムを記録した記録媒体が得られる。
正確または近似的に成り立つ関数関係について、実験に
よって得られる入出力のデータをもとに推定を行う実験
計画プログラムを記録したコンピュータ読み取り可能な
記録媒体において、次の実験の入力点の選択をする各時
点で、過去の入出力データから一定の表現形を用いて関
数関係を推定する任意の学習アルゴリズムを下位アルゴ
リズムとして用いて、前記下位アルゴリズムに該時点ま
での入出力データを訓練データとして学習させる学習処
理と、学習処理の学習精度をブースティング技術により
向上させるブースティング処理と、ブースティング処理
により複数の仮説の重み付き平均として得られる最終仮
説を用いて、ランダムに生成された複数の入力候補点に
対する関数値の予測を行なう関数値予測処理と、重みの
総和が最大の出力値の重み和と、重みの総和が次に大き
い出力値の重み和との差が、最も小さいような入力候補
点を前記入力点として選択する入力点指定処理とをコン
ピュータに実行させることを特徴とする実験計画プログ
ラムを記録した記録媒体が得られる。
【0020】別の言い方をすれば、実験によって得られ
る入出力のデータを元に、入力と出力の間に成り立つ関
数関係を推定する実験計画プログラムを記録したコンピ
ュータ読み取り可能な記録媒体において、受動学習によ
って過去のデータから仮説を推定する仮説推定処理と、
仮説に基づいて次の質問点を指示する質問点指示処理
と、質問点に対する関数値を実験によって求める実験処
理と、質問点及び関数値を過去のデータに追加するデー
タ更新処理とをコンピュータに実行させることを特徴と
する実験計画プログラムを記録した記録媒体が得られ
る。ここで、仮説推定処理はブースティング処理を含む
ことが好ましい。また、質問点指示処理は、過去のデー
タにない複数の質問候補点をランダムに生成する質問候
補点生成処理と、仮説に基づいて複数の質問候補点から
次の質問点を選択する質問点選択処理とからなる。
る入出力のデータを元に、入力と出力の間に成り立つ関
数関係を推定する実験計画プログラムを記録したコンピ
ュータ読み取り可能な記録媒体において、受動学習によ
って過去のデータから仮説を推定する仮説推定処理と、
仮説に基づいて次の質問点を指示する質問点指示処理
と、質問点に対する関数値を実験によって求める実験処
理と、質問点及び関数値を過去のデータに追加するデー
タ更新処理とをコンピュータに実行させることを特徴と
する実験計画プログラムを記録した記録媒体が得られ
る。ここで、仮説推定処理はブースティング処理を含む
ことが好ましい。また、質問点指示処理は、過去のデー
タにない複数の質問候補点をランダムに生成する質問候
補点生成処理と、仮説に基づいて複数の質問候補点から
次の質問点を選択する質問点選択処理とからなる。
【0021】
【発明の実施の形態】本発明の第1の実施の形態である
実験計画法アルゴリズムについて説明する。
実験計画法アルゴリズムについて説明する。
【0022】本アルゴリズムは、受動学習を行う下位学
習アルゴリズムと、これを使用して、能動学習を行う上
位アルゴリズムに分かれる。
習アルゴリズムと、これを使用して、能動学習を行う上
位アルゴリズムに分かれる。
【0023】まず、ラベル付きの学習データをSとす
る。データ数をmとすれば、 S={(x1,y1),…,(xi,yi),…,(xm,
ym)} である。例えば、このデータは、前述の蛋白質とそれに
結合するペプチドの例においては、xiがペプチド、yi
が結合能を表す数値に相当する。
る。データ数をmとすれば、 S={(x1,y1),…,(xi,yi),…,(xm,
ym)} である。例えば、このデータは、前述の蛋白質とそれに
結合するペプチドの例においては、xiがペプチド、yi
が結合能を表す数値に相当する。
【0024】以下、下位学習アルゴリズムをAと呼ぶ。
Aの役割は、所与の大量のデータ(S)から学習を行い
仮説を出力することと、所与の一つの質問点xiに対し
て、学習を行った仮説を使用して、そのラベルyiの予
測値を出力することの二つである。ここで使用するA
は、そこそこの学習性能を持つ学習アルゴリズムであれ
ばいずれでも良い。例えば、決定木を学習するアルゴリ
ズムや階層型のニューラルネットワークの学習アルゴリ
ズムなどが考えられる。ただし、以下の説明では、ラベ
ルyiには、yi∈{0,1}という制限を付ける。即
ち、ラベルは0あるいは1の値しかとらず、また、Aは
与えられた質問点に対して0あるいは1を予測値として
出力する。
Aの役割は、所与の大量のデータ(S)から学習を行い
仮説を出力することと、所与の一つの質問点xiに対し
て、学習を行った仮説を使用して、そのラベルyiの予
測値を出力することの二つである。ここで使用するA
は、そこそこの学習性能を持つ学習アルゴリズムであれ
ばいずれでも良い。例えば、決定木を学習するアルゴリ
ズムや階層型のニューラルネットワークの学習アルゴリ
ズムなどが考えられる。ただし、以下の説明では、ラベ
ルyiには、yi∈{0,1}という制限を付ける。即
ち、ラベルは0あるいは1の値しかとらず、また、Aは
与えられた質問点に対して0あるいは1を予測値として
出力する。
【0025】次に、上位アルゴリズムについて説明す
る。能動学習を行う際の質問回数をN、上位アルゴリズ
ムで使用するブースティングの際のデータのリサンプリ
ングの回数をT、質問点を選ぶ際の候補の数をRとす
る。上位アルゴリズムの能動学習は、以下の(1)から
(5)の手順をN回繰り返す。
る。能動学習を行う際の質問回数をN、上位アルゴリズ
ムで使用するブースティングの際のデータのリサンプリ
ングの回数をT、質問点を選ぶ際の候補の数をRとす
る。上位アルゴリズムの能動学習は、以下の(1)から
(5)の手順をN回繰り返す。
【0026】(1)まず最初に、データの分布を変えな
がらリサンプリングを繰り返すことにより下位アルゴリ
ズムの学習精度を増強する「ブースティング」を行う。
ここで、t回目のデータの分布をDtとする。m個の過
去のデータを入力するとすれば、次の数1のように、初
期分布(D1)は一様とする。
がらリサンプリングを繰り返すことにより下位アルゴリ
ズムの学習精度を増強する「ブースティング」を行う。
ここで、t回目のデータの分布をDtとする。m個の過
去のデータを入力するとすれば、次の数1のように、初
期分布(D1)は一様とする。
【0027】
【数1】 「ブースティング」は、以下のIとIIをT回繰り返
す。
す。
【0028】I、分布Dtに従って入力データからリサ
ンプリングされたデータをもとに下位学習アルゴリズム
Aに学習をさせ、Aが出力した仮説と学習データから、
この仮説の予測誤差を計算する。即ち、t回目の出力仮
説をhtとすれば、t回目の予測誤差ctを次の数2のよ
うに計算する。
ンプリングされたデータをもとに下位学習アルゴリズム
Aに学習をさせ、Aが出力した仮説と学習データから、
この仮説の予測誤差を計算する。即ち、t回目の出力仮
説をhtとすれば、t回目の予測誤差ctを次の数2のよ
うに計算する。
【0029】
【数2】 II、この予測誤差を使用して、Aが出力した仮説が正
しく予測した点の確率値を一定倍率減らし、分布の全体
を正規化することにより、次回のデータの分布を定義す
る。即ち、予測誤差ctからβtを次の数3のように計算
し、βtを使用して、次の数4のようにt+1回目のデ
ータの分布Dt+1を計算する。ただし、数4において、
Zは正規化定数である。
しく予測した点の確率値を一定倍率減らし、分布の全体
を正規化することにより、次回のデータの分布を定義す
る。即ち、予測誤差ctからβtを次の数3のように計算
し、βtを使用して、次の数4のようにt+1回目のデ
ータの分布Dt+1を計算する。ただし、数4において、
Zは正規化定数である。
【0030】
【数3】
【0031】
【数4】 (2)(1)で得られたブースティングの最終仮説h
fin(x)を、ブースティングの各回の重みlog(1
/βt)を用いて、次の数5のように計算する。
fin(x)を、ブースティングの各回の重みlog(1
/βt)を用いて、次の数5のように計算する。
【0032】
【数5】 (3)過去のデータにない、R個の質問候補点C⊂Xを
ランダムに生成し、その中から次の質問点を選択する。
質問点の選択においては、各候補点に対し、データの関
数値が0である場合と1の場合それぞれのブースティン
グの重み和を計算し、その差を最小とする点を、次の数
6のように次の質問点xmin∈Cとして選択する。
ランダムに生成し、その中から次の質問点を選択する。
質問点の選択においては、各候補点に対し、データの関
数値が0である場合と1の場合それぞれのブースティン
グの重み和を計算し、その差を最小とする点を、次の数
6のように次の質問点xmin∈Cとして選択する。
【0033】
【数6】 (4)xminの関数値を質問し、実験によりf(xmin)
を得る。
を得る。
【0034】(5)過去のデータに(4)において実験
により得られた質問点の値もデータとして加える。
により得られた質問点の値もデータとして加える。
【0035】次に、本発明の第2の実施の形態である実
験計画法について図1を参照して説明する。
験計画法について図1を参照して説明する。
【0036】本実施の形態では、まず、入力手段におい
て、初期データ、そのデータの初期分布、および下位学
習アルゴリズムを入力する。
て、初期データ、そのデータの初期分布、および下位学
習アルゴリズムを入力する。
【0037】次に、能動学習における質問の繰り返しに
入るが、繰り返しの最初の部分は、ブースティング装置
100で実行される。装置100においても、手段11
0と手段120によりデータのリサンプリングが繰り返
される。まず、手段110において、下位学習アルゴリ
ズムを使用して現在のデータからの学習が行われ、学習
結果として仮説を得る。更に、手段110において、仮
説から現在のデータへの予測値を計算し、予測値から誤
差を計算する。次に、手段120において、手段110
で得られた誤差から、データのリサンプリング分布を更
新する。最後に、手段130において、リサンプリング
回数が一定値に達していれば、ブースティングを終了
し、そうでなければ手段110に戻り繰り返しを行う。
入るが、繰り返しの最初の部分は、ブースティング装置
100で実行される。装置100においても、手段11
0と手段120によりデータのリサンプリングが繰り返
される。まず、手段110において、下位学習アルゴリ
ズムを使用して現在のデータからの学習が行われ、学習
結果として仮説を得る。更に、手段110において、仮
説から現在のデータへの予測値を計算し、予測値から誤
差を計算する。次に、手段120において、手段110
で得られた誤差から、データのリサンプリング分布を更
新する。最後に、手段130において、リサンプリング
回数が一定値に達していれば、ブースティングを終了
し、そうでなければ手段110に戻り繰り返しを行う。
【0038】手段210では、ブースティング装置10
0で最終的に得られた仮説を使用して、過去のデータに
含まれない、質問点の選択を行い、この質問点を実験者
に対する新しい実験として指示する。
0で最終的に得られた仮説を使用して、過去のデータに
含まれない、質問点の選択を行い、この質問点を実験者
に対する新しい実験として指示する。
【0039】手段220では、実験者の実験により試さ
れた質問点の関数値を受け取る。
れた質問点の関数値を受け取る。
【0040】手段230では、得られた質問点とその関
数値を過去のデータに加える。
数値を過去のデータに加える。
【0041】最後に、手段240において、質問回数が
一定値に達していれば、能動学習を終了する。この時点
で得られる仮説を最終仮説として出力する。
一定値に達していれば、能動学習を終了する。この時点
で得られる仮説を最終仮説として出力する。
【0042】以上、本発明を実施の形態に基づいて説明
したが、本発明はこれに限定されるものではなく、当業
者の通常の知識の範囲内でその変更や改良が可能である
ことは勿論である。
したが、本発明はこれに限定されるものではなく、当業
者の通常の知識の範囲内でその変更や改良が可能である
ことは勿論である。
【0043】
【発明の効果】本発明では、受動学習において、ほどほ
どの精度を挙げることが可能な学習アルゴリズムであれ
ば任意の精度にまで予測精度を向上させることが可能な
ブースティング技術を、能動学習の手法である集団質問
学習と適切な方法により組み合わせることにより、精度
の高い能動学習手法を実現する。
どの精度を挙げることが可能な学習アルゴリズムであれ
ば任意の精度にまで予測精度を向上させることが可能な
ブースティング技術を、能動学習の手法である集団質問
学習と適切な方法により組み合わせることにより、精度
の高い能動学習手法を実現する。
【0044】更に、場合の数が多いあるいは一回の試行
の負担が大きいために、現実的にすべての試行を行うこ
とが不可能な実験に対して、本方式を実験計画の立案に
適用することにより、効率的でかつ精度の高い実験計画
の実現が可能となる。
の負担が大きいために、現実的にすべての試行を行うこ
とが不可能な実験に対して、本方式を実験計画の立案に
適用することにより、効率的でかつ精度の高い実験計画
の実現が可能となる。
【図1】本発明の第2の実施の形態の動作を示す流れ図
である。
である。
10 入力手段 100 ブースティング実行装置 110 下位アルゴリズム学習、予測、誤差計算手段 120 データ分布更新手段 130 ブースティング実行回数判定手段 210 質問点選択手段 220 関数値入力手段 230 データ更新手段 240 能動学習実行回数判定手段
Claims (8)
- 【請求項1】 入力と出力の間に正確または近似的に成
り立つ関数関係について、実験によって得られる入出力
のデータをもとに推定を行う実験計画法において、 次の実験の入力点の選択をする各時点で、 過去の入出力データから一定の表現形を用いて関数関係
を推定する予め定められた学習アルゴリズムを下位アル
ゴリズムとして用いて、前記下位アルゴリズムに該時点
までの入出力データを訓練データとして学習させる学習
段階と、 前記学習段階の学習精度をブースティング技術により向
上させるブースティング段階と、 前記ブースティング段階により複数の仮説の重み付き平
均として得られる最終仮説を用いて、ランダムに生成さ
れた複数の入力候補点に対する関数値の予測を行なう関
数値予測段階と、 重みの総和が最大の出力値の重み和と、重みの総和が次
に大きい出力値の重み和との差が、最も小さいような入
力候補点を前記入力点として選択する入力点指定段階と
を行うことを特徴とする実験計画法。 - 【請求項2】 実験によって得られる入出力のデータを
元に、入力と出力の間に成り立つ関数関係を推定する実
験計画法において、 受動学習によって過去のデータから仮説を推定する仮説
推定段階と、 前記仮説に基づいて次の質問点を指示する質問点指示段
階と、 質問点に対する関数値を実験によって求める実験段階
と、 質問点及び関数値を過去のデータに追加するデータ更新
段階とを含むことを特徴とする実験計画法。 - 【請求項3】 請求項2記載の実験計画法において、前
記仮説推定段階はブースティングを用いることを特徴と
する実験計画法。 - 【請求項4】 請求項2及び3のいずれかに記載の実験
計画法において、前記質問点指示段階は、 過去のデータにない複数の質問候補点をランダムに生成
する質問候補点生成段階と、 仮説に基づいて複数の質問候補点から次の質問点を選択
する質問点選択段階とを含むことを特徴とする実験計画
法。 - 【請求項5】 入力と出力の間に正確または近似的に成
り立つ関数関係について、実験によって得られる入出力
のデータをもとに推定を行う実験計画プログラムを記録
したコンピュータ読み取り可能な記録媒体において、 次の実験の入力点の選択をする各時点で、 過去の入出力データから一定の表現形を用いて関数関係
を推定する任意の学習アルゴリズムを下位アルゴリズム
として用いて、前記下位アルゴリズムに該時点までの入
出力データを訓練データとして学習させる学習処理と、 前記学習処理の学習精度をブースティング技術により向
上させるブースティング処理と、 前記ブースティング処理により複数の仮説の重み付き平
均として得られる最終仮説を用いて、ランダムに生成さ
れた複数の入力候補点に対する関数値の予測を行なう関
数値予測処理と、 重みの総和が最大の出力値の重み和と、重みの総和が次
に大きい出力値の重み和との差が、最も小さいような入
力候補点を前記入力点として選択する入力点指定処理と
をコンピュータに実行させることを特徴とする実験計画
プログラムを記録した記録媒体。 - 【請求項6】 実験によって得られる入出力のデータを
元に、入力と出力の間に成り立つ関数関係を推定する実
験計画プログラムを記録したコンピュータ読み取り可能
な記録媒体において、 受動学習によって過去のデータから仮説を推定する仮説
推定処理と、 前記仮説に基づいて次の質問点を指示する質問点指示処
理と、 質問点に対する関数値を実験によって求める実験処理
と、 質問点及び関数値を過去のデータに追加するデータ更新
処理とをコンピュータに実行させることを特徴とする実
験計画プログラムを記録した記録媒体。 - 【請求項7】 請求項6記載の実験計画プログラムを記
録した記録媒体において、前記仮説推定処理はブーステ
ィング処理を含むことを特徴とする実験計画プログラム
を記録した記録媒体。 - 【請求項8】 請求項6及び7のいずれかに記載の実験
計画プログラムを記録した記録媒体において、前記質問
点指示処理は、 過去のデータにない複数の質問候補点をランダムに生成
する質問候補点生成処理と、 仮説に基づいて複数の質問候補点から次の質問点を選択
する質問点選択処理とをコンピュータに実行させること
を特徴とする実験計画プログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12305798A JPH11316754A (ja) | 1998-05-06 | 1998-05-06 | 実験計画法及び実験計画プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12305798A JPH11316754A (ja) | 1998-05-06 | 1998-05-06 | 実験計画法及び実験計画プログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11316754A true JPH11316754A (ja) | 1999-11-16 |
Family
ID=14851140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12305798A Pending JPH11316754A (ja) | 1998-05-06 | 1998-05-06 | 実験計画法及び実験計画プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11316754A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004021590A (ja) * | 2002-06-17 | 2004-01-22 | Fujitsu Ltd | データ分類装置、データ分類装置の能動学習方法及び能動学習プログラム |
JP2005107743A (ja) * | 2003-09-29 | 2005-04-21 | Nec Corp | 学習システム |
WO2005105993A1 (ja) * | 2004-04-30 | 2005-11-10 | Nec Corporation | Hla結合性ペプチド、その前駆体、それをコードするdna断片および組み換えベクター |
WO2006030770A1 (ja) * | 2004-09-17 | 2006-03-23 | Nec Corporation | Hla結合性ペプチド、それをコードするdna断片および組み換えベクター |
EP1717737A1 (en) * | 2005-04-28 | 2006-11-02 | NEC Corporation | Active learning method and active learning system |
WO2007091387A1 (ja) | 2006-02-07 | 2007-08-16 | Nec Corporation | Hla結合性ペプチド、その前駆体、それをコードするdna断片および組み換えベクター |
WO2007094137A1 (ja) | 2006-02-17 | 2007-08-23 | Nec Corporation | 細胞傷害性t細胞の誘導方法、細胞傷害性t細胞の誘導剤、およびそれを用いた医薬組成物およびワクチン |
JP2007304783A (ja) * | 2006-05-10 | 2007-11-22 | Nec Corp | 実験計画方法および実験計画システム |
WO2008044567A1 (fr) | 2006-10-12 | 2008-04-17 | Nec Corporation | Peptide liant les molécules hla, son précurseur, fragment d'adn le codant et vecteur recombinant |
WO2009066462A1 (ja) | 2007-11-20 | 2009-05-28 | Nec Corporation | 細胞傷害性t細胞の誘導方法、細胞傷害性t細胞の誘導剤、およびそれを用いた医薬組成物およびワクチン |
JP2009301557A (ja) * | 2009-07-21 | 2009-12-24 | Nec Corp | 学習システム |
WO2010047019A1 (ja) * | 2008-10-21 | 2010-04-29 | 日本電気株式会社 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
US11618770B2 (en) | 2015-03-09 | 2023-04-04 | Nec Corporation | MUC1-derived peptide, and pharmaceutical composition for treatment or prevention of cancer, immunity-inducing agent and method for manufacturing antigen presenting cell using same |
-
1998
- 1998-05-06 JP JP12305798A patent/JPH11316754A/ja active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004021590A (ja) * | 2002-06-17 | 2004-01-22 | Fujitsu Ltd | データ分類装置、データ分類装置の能動学習方法及び能動学習プログラム |
JP2005107743A (ja) * | 2003-09-29 | 2005-04-21 | Nec Corp | 学習システム |
US7698235B2 (en) | 2003-09-29 | 2010-04-13 | Nec Corporation | Ensemble learning system and method |
JPWO2005105993A1 (ja) * | 2004-04-30 | 2008-03-13 | 日本電気株式会社 | Hla結合性ペプチド、その前駆体、それをコードするdna断片および組み換えベクター |
WO2005105993A1 (ja) * | 2004-04-30 | 2005-11-10 | Nec Corporation | Hla結合性ペプチド、その前駆体、それをコードするdna断片および組み換えベクター |
JP2011120598A (ja) * | 2004-04-30 | 2011-06-23 | Nec Corp | Hla結合性ペプチド、それをコードするdna断片および組み換えベクター |
JP4761311B2 (ja) * | 2004-04-30 | 2011-08-31 | 日本電気株式会社 | Hla結合性ペプチド、それをコードするdna断片および組み換えベクター |
WO2006030770A1 (ja) * | 2004-09-17 | 2006-03-23 | Nec Corporation | Hla結合性ペプチド、それをコードするdna断片および組み換えベクター |
EP2636679A1 (en) | 2004-09-17 | 2013-09-11 | Nec Corporation | HLA-binding peptide, and DNA fragment and recombinant vector coding for said HLA-binding peptide |
JP2006309485A (ja) * | 2005-04-28 | 2006-11-09 | Nec Corp | 能動学習方法および能動学習システム |
EP1717737A1 (en) * | 2005-04-28 | 2006-11-02 | NEC Corporation | Active learning method and active learning system |
WO2007091387A1 (ja) | 2006-02-07 | 2007-08-16 | Nec Corporation | Hla結合性ペプチド、その前駆体、それをコードするdna断片および組み換えベクター |
WO2007094137A1 (ja) | 2006-02-17 | 2007-08-23 | Nec Corporation | 細胞傷害性t細胞の誘導方法、細胞傷害性t細胞の誘導剤、およびそれを用いた医薬組成物およびワクチン |
EP2491940A2 (en) | 2006-02-17 | 2012-08-29 | Nec Corporation | Method for inducing cytotoxic T-cells, cytotoxic T-cell inducer, and pharmaceutical composition and vaccine employing same |
JP2007304783A (ja) * | 2006-05-10 | 2007-11-22 | Nec Corp | 実験計画方法および実験計画システム |
EP2434014A1 (en) | 2006-10-12 | 2012-03-28 | Nec Corporation | HLA-binding peptide, precursor thereof, DNA fragment and recombinant vector encoding the same |
JPWO2008044567A1 (ja) * | 2006-10-12 | 2010-02-12 | 日本電気株式会社 | Hla結合性ペプチド、その前駆体、それをコードするdna断片および組み換えベクター |
US8324345B2 (en) | 2006-10-12 | 2012-12-04 | Nec Corporation | HLA-binding peptide, precursor thereof, DNA fragment and recombinant vector encoding the same |
WO2008044567A1 (fr) | 2006-10-12 | 2008-04-17 | Nec Corporation | Peptide liant les molécules hla, son précurseur, fragment d'adn le codant et vecteur recombinant |
WO2009066462A1 (ja) | 2007-11-20 | 2009-05-28 | Nec Corporation | 細胞傷害性t細胞の誘導方法、細胞傷害性t細胞の誘導剤、およびそれを用いた医薬組成物およびワクチン |
WO2010047019A1 (ja) * | 2008-10-21 | 2010-04-29 | 日本電気株式会社 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
JP5321596B2 (ja) * | 2008-10-21 | 2013-10-23 | 日本電気株式会社 | 統計モデル学習装置、統計モデル学習方法、およびプログラム |
JP2009301557A (ja) * | 2009-07-21 | 2009-12-24 | Nec Corp | 学習システム |
US11618770B2 (en) | 2015-03-09 | 2023-04-04 | Nec Corporation | MUC1-derived peptide, and pharmaceutical composition for treatment or prevention of cancer, immunity-inducing agent and method for manufacturing antigen presenting cell using same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Senior et al. | Protein structure prediction using multiple deep neural networks in the 13th Critical Assessment of Protein Structure Prediction (CASP13) | |
JP2022501695A (ja) | 予測タンパク質構造と実際のタンパク質構造との間の類似性を推定するジオメトリニューラルネットワークを使用してタンパク質構造を予測すること | |
CN110852755B (zh) | 针对交易场景的用户身份识别方法和装置 | |
Li et al. | The max-min high-order dynamic Bayesian network for learning gene regulatory networks with time-delayed regulations | |
JPH11316754A (ja) | 実験計画法及び実験計画プログラムを記録した記録媒体 | |
CN107092812B (zh) | 一种在ppi网络中基于遗传算法识别关键蛋白质的方法 | |
CN109447096B (zh) | 一种基于机器学习的扫视路径预测方法和装置 | |
Cai et al. | On-device image classification with proxyless neural architecture search and quantization-aware fine-tuning | |
Prayogo | Metaheuristic-based machine learning system for prediction of compressive strength based on concrete mixture properties and early-age strength test results | |
CN117121016A (zh) | 在低级基元上的粒度神经网络架构搜索 | |
EP4287079A1 (en) | Program, calculation method, and information processing apparatus | |
Kadra et al. | Scaling laws for hyperparameter optimization | |
CN114997366B (zh) | 基于图神经网络的蛋白质结构模型质量评估方法 | |
KR102559605B1 (ko) | 함수 최적화 방법 및 장치 | |
KR20230125038A (ko) | 단백질 구조 임베딩에 조건화된 생성형 모델을 사용한단백질 아미노산 서열 예측 | |
Lim et al. | Resolution Based Incremental Scaling Methodology for CNNs | |
JP2005258480A (ja) | 能動学習システム及びそれに用いる能動学習法並びにそのプログラム | |
Hu et al. | Pwsnas: powering weight sharing nas with general search space shrinking framework | |
CN113536677A (zh) | 基于brkga算法的贝叶斯网络结构优化方法及装置 | |
Osman et al. | Hybrid learning algorithm in neural network system for enzyme classification | |
US20220392566A1 (en) | Distillation of MSA Embeddings to Folded Protein Structures using Graph Transformers | |
Singh et al. | Multi-statistic approximate Bayesian computation with multi-armed bandits | |
CN117976047B (zh) | 基于深度学习的关键蛋白质预测方法 | |
JPH0713959A (ja) | タンパク質立体構造予測方法 | |
Zhao et al. | Joint channel and weight pruning for model acceleration on moblie devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20010516 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20050310 |