[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6384065B2 - 情報処理装置、学習方法、及び、プログラム - Google Patents

情報処理装置、学習方法、及び、プログラム Download PDF

Info

Publication number
JP6384065B2
JP6384065B2 JP2014041228A JP2014041228A JP6384065B2 JP 6384065 B2 JP6384065 B2 JP 6384065B2 JP 2014041228 A JP2014041228 A JP 2014041228A JP 2014041228 A JP2014041228 A JP 2014041228A JP 6384065 B2 JP6384065 B2 JP 6384065B2
Authority
JP
Japan
Prior art keywords
learning
prediction
weight
prediction target
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014041228A
Other languages
English (en)
Other versions
JP2015166962A (ja
Inventor
京子 加藤
京子 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014041228A priority Critical patent/JP6384065B2/ja
Priority to US14/628,681 priority patent/US20150254554A1/en
Publication of JP2015166962A publication Critical patent/JP2015166962A/ja
Application granted granted Critical
Publication of JP6384065B2 publication Critical patent/JP6384065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報処理装置、学習方法、及び、プログラムに関し、特に、時系列データの予測を行う情報処理装置、学習方法、及び、プログラムに関する。
IT(Information Technology)の進化、普及に伴い、多くの情報が電子データとして蓄積されつつある。また、近年、安価に大量の計算機リソースを利用できるようになり、大量のデータを活用する環境が整ってきた。このような状況の中で、蓄積された情報を分析することで意思決定に活用することが求められている。例えば、商品や電力の需要予測、気象予測など、広範囲の分野で、時系列データを用いた予測(時系列予測)が行われている。時系列予測には、重回帰分析、ニューラルネットワークなど様々な手法があるが、階層型ニューラルネットワークはノイズ除去に優れ、周期性を持つデータの予測に使用されることが多い。
このような階層型ニューラルネットワークを用いて時系列予測を行う方法が、例えば、特許文献1に開示されている。
なお、関連技術として、非特許文献1には、教師ありの機械学習アルゴリズムの一手法である、SSI(Supervised Semantic Indexing)が開示されている。
特開2002−109150号公報
Bing Bai, et al, "Supervised Semantic Indexing", Conference: International Conference on Information and Knowledge Management - CIKM, pp.761-765, 2009
ニューラルネットワークを用いた時系列データの予測においては、予測対象毎に、入力パラメータを適切に選択する必要がある。入力パラメータとしては、予測対象のデータの実測値をそのまま使うだけでなく、それを加工した値を用いることもできる。例えば、実測値から算出した差分や、平均、標準偏差、あるいは、日時情報をもとにフラグ化された曜日、休日等も、入力パラメータとして用いることができる。また、対象地域の気象データ等、予測対象に影響を与えるデータも入力パラメータとして用いることができる。
このように、予測を行うための入力パラメータは無数に考えられる。このため、ニューラルネットワークの予測精度を向上させるためには、ユーザは、学習と予測を繰り返し、その結果を考察しながら、膨大な数のパラメータの中から、入力として用いるパラメータの選択を行うといった、試行錯誤を重ねる必要がある。したがって、最適な予測モデルを得るまでには非常に多くの時間を要する。
本発明の目的は、上述した課題を解決し、ニューラルネットワークを用いた時系列データの予測モデルを短時間で生成できる、情報処理装置、学習方法、及び、プログラムを提供することである。
本発明の情報処理装置は、予測対象種別、及び、前記予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得するデータ取得手段と、前記データ値の時系列を要素として含む集合が分割して入力される第1及び第2のニューラルネットワーク、及び、前記第1及び第2のニューラルネットワークの出力の内積を入力として、予測対象時刻における前記予測対象種別のデータ値の予測値を出力する第3のニューラルネットワーク、を含む予測モデルの学習を行う、予測モデル学習手段と、を備える。
本発明の学習方法は、予測対象種別、及び、前記予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得し、前記データ値の時系列を要素として含む集合が分割して入力される第1及び第2のニューラルネットワーク、及び、前記第1及び第2のニューラルネットワークの出力の内積を入力として、前記予測対象時刻における前記予定対象種別のデータ値の予測値を出力する第3のニューラルネットワーク、を含む予測モデルの学習を行う。
本発明のプログラムは、コンピュータに、予測対象種別、及び、前記予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得し、前記データ値の時系列を要素として含む集合が分割して入力される第1及び第2のニューラルネットワーク、及び、前記第1及び第2のニューラルネットワークの出力の内積を入力として、前記予測対象時刻における前記予定対象種別のデータ値の予測値を出力する第3のニューラルネットワーク、を含む予測モデルの学習を行う、処理を実行させる。
本発明の効果は、ニューラルネットワークを用いた時系列データの予測モデルを短時間で生成できることである。
本発明の第1の実施の形態の特徴的な構成を示すブロック図である。 本発明の第1の実施の形態における、学習装置100の構成を示すブロック図である。 本発明の第1の実施の形態における、予測モデルの例を示す図である。 本発明の第1の実施の形態における、学習用データのデータセットの例を示す図である。 本発明の第1の実施の形態における、学習用データと予測用データの例を示す図である 本発明の第1の実施の形態における、学習処理を示すフローチャートである。 本発明の第1の実施の形態における、予測処理を示すフローチャートである。 本発明の第2の実施の形態における、学習装置100の構成を示すブロック図である。 本発明の第2の実施の形態における、解析モデルの例を示す図である。 本発明の第2の実施の形態における、学習処理を示すフローチャートである。 本発明の第2の実施の形態における、解析処理を示すフローチャートである。 本発明の第2の実施の形態における、重みの算出方法を示す図である。 本発明の第2の実施の形態における、各要素ペアの重みの算出例を示す図である。 本発明の第2の実施の形態における、各要素の重みの算出例を示す図である。
(第1の実施の形態)
本発明の第1の実施の形態について説明する。
はじめに、本発明の第1の実施の形態における予測モデルについて説明する。
本発明の第1の実施の形態では、予測モデルとして、非特許文献1に記載されているSSIを用いる。SSIは、文書やWebページ等のテキスト集合間の類似度の算出のために考えられた手法であり、2つの入力データ群から最適な出力を学習する機械学習アルゴリズムである。本発明の第1の実施の形態では、SSIの内部の学習モデルに階層型ニューラルネットワークを適用して、ディープラーニングを行う。
図3は、本発明の第1の実施の形態における、予測モデルの例を示す図である。
本発明の第1の実施の形態における予測モデルは、図3に示すように3つのニューラルネットワーク(Xネットワーク、Yネットワーク、及び、Zネットワーク)により構成される。これらの3つのニューラルネットワークの各々は、入力層、1以上の中間層、及び、出力層により構成される、3層以上の階層ニューラルネットワークである。なお、これらのニューラルネットワークは、中間層を省いた、2層のニューラルネットワークでもよい。
Xネットワーク、Yネットワークには、予測モデルの入力として、Xベクトル、Yベクトルが、それぞれ入力される。また、Zネットワークには、Xネットワークの出力ベクトルとYネットワークの出力ベクトルの内積(コサイン類似度)が入力される。Zネットワークは、予測モデルの出力(output)である、予測値を出力する。
予測モデルの入力であるXベクトルとYベクトルの要素は、XベクトルとYベクトルとの要素の間で相関を有するように設定されることが望ましい。
本発明の第1の実施の形態では、予測の対象とする種別(予測対象種別)のデータ値、及び、予測対象種別に影響を与える可能性がある他の種別の内の少なくとも一方のデータ値の時系列を用いて、予測対象種別のデータ値を予測する。
予測モデルのXベクトルとYベクトルには、予測対象種別、及び、他の種別の内の少なくとも一方のデータ値の時系列を要素として含む集合が分割して設定される。ここで、集合には、予測対象時刻を基準とした所定の時刻におけるデータ値が、要素として設定される。そして、Zネットワークの出力として、予測の対象とする時刻(予測対象時刻)における、予測対象種別のデータ値の予測値が出力される。
例えば、予測対象種別が消費電力、予測対象時刻が1時間後の場合、すなわち、1時間後の消費電力の値を予測する場合を考える。ここで、予測対象種別に影響を与える可能性がある他の種別として、休日フラグ(平日か休日かを示すフラグ)を用いると仮定する。この場合、予測モデルのXベクトルとYベクトルには、例えば、現在以前の時刻における電力の実測値と、1時間後以前の時刻における休日フラグの値と、の集合が分割して設定される。例えば、Xベクトルの要素には、電力の過去の実測値(1時間前の実測値、2時間前の実測値、…、N時間前の実測値)が設定される。また、Yベクトルの要素には、電力の現在の実測値と、予測対象時刻における休日フラグの値が設定される。なお、他の種別として、予測対象時刻以前や以降の各時刻における天気や気温等、休日フラグ以外の種別が設定されてもよい。
また、他の種別のデータ値として、予測対象種別の実測値の1時間前の実測値との差分や、任意の範囲の実測値の移動平均、標準偏差、最小値、最大値、中央値等が用いられてもよい。また、これらを組み合わせた値が用いられてもよい。
なお、Xベクトル及びYベクトルの各要素の値には、0〜1の範囲で正規化された値が用いられる。
次に、本発明の第1の実施の形態の構成を説明する。
図2は、本発明の第1の実施の形態における、学習装置100の構成を示すブロック図である。学習装置100は、本発明の情報処理装置の一実施形態である。図2を参照すると、本発明の第1の実施の形態における学習装置100は、処理受付部110、学習部120、予測部130、及び、予測モデル記憶部140を含む。
処理受付部110は、ユーザから学習処理、予測処理の要求を受け付け、結果をユーザへ返却する。処理受付部110は、データ取得部111を含む。データ取得部111は、ユーザから、学習用データ、及び、予測用データを取得する。データ取得部111は、学習用データ、及び、予測用データを、他の装置や、記憶部(図示せず)から取得してもよい。
図4は、本発明の第1の実施の形態における、学習用データのデータセットの例を示す図である。
学習用データは、予測モデルの入力であるXベクトルとYベクトル、及び、予測値の正解値(target)の組(データセット)を、学習期間分含むデータである。
図4は、上述の消費電力予測における学習用データのデータセットの例である。図4の例では、Xベクトルとして、消費電力の過去の実測値、Yベクトルとして、消費電力の現在の実測値と予測対象時刻の休日フラグ、及び、正解値(target)として、消費電力の予測対象時刻の実測値が設定されている。
予測用データは、予測モデルの入力であるXベクトルとYベクトルの組(データセット)を、学習期間とは異なる、予測期間分含むデータである。なお、予測用データのデータセットも、予測値の正解値を含んでいてもよい。この場合、正解値は、予測した値との誤差率の算出のために用いられる。
図5は、本発明の第1の実施の形態における、学習用データと予測用データの例を示す図である。
図5の例では、学習期間「2013/02/01 00:00〜2013/02/21 23:00」、予測期間「2013/02/22 00:00〜2013/02/28 23:00」について、1時間毎のデータセットが用いられている。
なお、データ取得部111は、予測対象種別のデータ値や、他の種別のデータ値の時系列をもとに、図5のような形式の学習データ、及び、予測データを生成してもよい。
学習部120は、予測モデル学習部121を含む。予測モデル学習部121は、学習用データを基に、予測モデルの学習(生成、及び、最適化)を行う。
予測部130は、予測用データと予測モデルを用いて、予測対象時刻における、予測対象種別のデータ値の予測を行う。
予測モデル記憶部140は、予測モデル学習部121により生成された予測モデルを記憶する。
なお、学習装置100は、CPU(Central Processing Unit)とプログラムを記憶した記憶媒体を含み、プログラムに基づく制御によって動作するコンピュータであってもよい。この場合、学習装置100のCPUが、処理受付部110、学習部120、及び、予測部130の機能を実現するためのコンピュータプログラムを実行する。また、学習装置100の記憶媒体は、予測モデル記憶部140の情報を記憶する。
次に、本発明の第1の実施の形態における学習装置100の動作について説明する。学習装置100の動作は、学習処理、及び、予測処理に分かれる。
はじめに、本発明の第1の実施の形態における、学習処理を説明する。
図6は、本発明の第1の実施の形態における、学習処理を示すフローチャートである。
はじめに、学習部120は、処理受付部110を介して、ユーザから学習処理の要求を受け付ける。学習部120は、データ取得部111から、学習用データを取得する。
学習部120の予測モデル学習部121は、初期予測モデルを生成する(ステップS101)。初期予測モデルにおける、各ニューラルネットワーク(Xネットワーク、Yネットワーク、Zネットワーク)内の重みは、例えば、ランダムに設定される。なお、初期予測モデルの重みには、所定の初期値が設定されてもよい。
予測モデル学習部121は、学習用データから、ランダムにデータセット(Xベクトル、Yベクトル、及び、正解値(target))を抽出する(ステップS102)。
予測モデル学習部121は、抽出したデータセットのXベクトル、Yベクトルを予測モデルに入力して(ステップS103)、出力値(output)を算出する(ステップS104)。
予測モデル学習部121は、出力値(output)と正解値(target)の誤差を算出する(ステップS105)。
予測モデル学習部121は、算出された誤差を基に、各ニューラルネットワーク(Xネットワーク、Yネットワーク、Zネットワーク)の重みを修正する(ステップS106)。ここで、予測モデル学習部121は、図3のように、Zネットワーク内の誤差伝搬(バックプロパゲーション)により、Zネットワークの重みを修正する。そして、予測モデル学習部121は、ZネットワークからXネットワーク、及び、Yネットワークへの誤差伝搬を行う。そして、予測モデル学習部121は、Xネットワーク、Yネットワーク内の誤差伝搬により、Xネットワーク、Yネットワークの各々の重みを修正する。
予測モデル学習部121は、誤差率が収束するまで、ステップS103からの処理を繰り返す(ステップS107)。
誤差率が収束した場合(ステップS107/Y)、予測モデル学習部121は、学習(生成)した予測モデルを、予測モデル記憶部140に保存する(ステップS108)。
学習部120は、処理受付部110を介して、ユーザに処理結果(予測モデルの学習完了)を返却する(ステップS109)。
次に、本発明の第1の実施の形態における、予測処理を説明する。予測処理は、学習処理により予測モデルが生成された後に行われる。
図7は、本発明の第1の実施の形態における、予測処理を示すフローチャートである。
はじめに、予測部130は、処理受付部110を介して、ユーザから予測処理の要求を受け付ける。予測部130は、データ取得部111から、予測用データを取得する。
予測部130は、予測用データから、データセット(Xベクトル、Yベクトル)を抽出して、予測モデルに入力し(ステップS201)、出力値(output)を算出する(ステップS202)。
学習部120は、算出した出力値(output)を予測結果として、処理受付部110を介して、ユーザに返却する(ステップS203)。なお、学習部120は、予測結果を記憶部(図示せず)や他の装置に出力してもよい。
以上により、本発明の第1の実施の形態の動作が完了する。
次に、本発明の第1の実施の形態の特徴的な構成を説明する。図1は、本発明の第1の実施の形態の特徴的な構成を示すブロック図である。
図1を参照すると、学習装置100(情報処理装置)は、データ取得部111、及び、予測モデル学習部121を含む。
データ取得部111は、予測対象種別、及び、予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得する。
予測モデル学習部121は、第1及び第2のニューラルネットワーク(X、Yネットワーク)、及び、第3のニューラルネットワーク(Zネットワーク)を含む予測モデルの学習を行う。第1及び第2のニューラルネットワークには、上述のデータ値の時系列を要素として含む集合が分割して入力される。第3のニューラルネットワークは、第1及び第2のニューラルネットワークの出力の内積を入力として、予測対象時刻における所定種別のデータ値の予測値を出力する。
次に、本発明の第1の実施の形態の効果を説明する。
本発明の第1の実施の形態によれば、時系列データの予測モデルを短時間で生成できる。その理由は、予測モデル学習部121が、時系列データの予測モデルとして、SSIにニューラルネットワークを適用した予測モデルの学習を行うためである。
SSIにニューラルネットワークを適用した予測モデルでは、各ネットワークで学習が並列して実行されるため、学習処理が高速に行われる。このため、入力される要素(パラメータ)数が多くても学習時間が短い。また、X及びYネットワークの2つのネットワークで学習が行われるため、サンプルデータが少なくても、高い精度の予測モデルが得られる。したがって、入力される要素(パラメータ)の吟味を行わずに、多数の要素(パラメータ)を含む学習データを用いて学習しても、通常のニューラルネットワークを用いた場合に比べて、短時間で高い精度の予測モデルが得られる。
(第2の実施の形態)
次に、本発明の第2の実施の形態について説明する。
本発明の第2の実施の形態においては、解析モデルを用いて、XベクトルとYベクトルの各要素の重みを算出する点において、本発明の第1の実施の形態と異なる。
はじめに、本発明の第2の実施の形態における予測モデルと解析モデルについて説明する。
本発明の第2の実施の形態における予測モデルは、本発明の第1の実施の形態の予測モデル(図3)と同様に、3つのニューラルネットワーク(Xネットワーク、Yネットワーク、Zネットワーク)により構成される。ここで、少なくとも、Xネットワーク、及び、Yネットワークは、3層以上の階層ニューラルネットワークである。
図9は、本発明の第2の実施の形態における、解析モデルの例を示す図である。
本発明の第2の実施の形態における解析モデルは、予測モデルと同様に、3つのニューラルネットワーク(Xネットワーク、Yネットワーク、Zネットワーク)により構成される。しかしながら、予測モデルとは異なり、解析モデルにおけるXネットワーク、及び、Yネットワークは、中間層を省いた、2層のニューラルネットワークである。
解析モデルのXベクトルとYベクトルには、予測モデルと同じデータ値の集合が、それぞれ設定される。また、Zネットワークの出力として、予測モデルと同様に、予測対象時刻における、予測対象種別のデータ値の予測値が出力される。
次に、本発明の第2の実施の形態の構成を説明する。
図8は、本発明の第2の実施の形態における、学習装置100の構成を示すブロック図である。図8を参照すると、本発明の第2の実施の形態における学習装置100は、本発明の第1の実施の形態の構成に加えて、重み解析部150、及び、解析モデル記憶部160を含む。また、学習部120は、予測モデル学習部121に加えて、解析モデル学習部122を含む。
解析モデル学習部122は、学習用データを基に、解析モデルの学習(生成、及び、最適化)を行う。
重み解析部150は、解析モデルに入力されるXベクトルとYベクトルの各要素の重みを算出する。
解析モデル記憶部160は、解析モデル学習部122により生成された解析モデルを記憶する。
次に、本発明の第2の実施の形態における学習装置100の動作について説明する。学習装置100の動作は、学習処理、予測処理、及び、解析処理に分かれる。
はじめに、本発明の第2の実施の形態における、学習処理を説明する。
図10は、本発明の第2の実施の形態における、学習処理を示すフローチャートである。
はじめに、学習部120は、処理受付部110を介して、ユーザから学習処理の要求を受け付ける。学習部120は、データ取得部111から、学習用データを取得する。
学習部120の予測モデル学習部121は、本発明の第1の実施の形態の学習処理(ステップS101〜S108)と同様に、学習用データをもとに予測モデルを生成し、予測モデル記憶部140に保存する(ステップS301〜S308)。
解析モデル学習部122も、本発明の第1の実施の形態の学習処理(ステップS101〜S108)と同様に、学習用データをもとに上述の解析モデルを生成し、解析モデル記憶部160に保存する(ステップS311〜S318)。
学習部120は、処理受付部110を介して、ユーザに処理結果(予測モデル、及び、解析モデルの学習完了)を返却する(ステップS321)。
次に本発明の第2の実施の形態における、予測処理を説明する。
本発明の第2の実施の形態における予測処理は、本発明の第1の実施の形態における予測処理(ステップS201〜S203)と同様となる。
次に本発明の第2の実施の形態における、解析処理を説明する。解析処理は、学習処理により解析モデルが生成された後に行われる。
図11は、本発明の第2の実施の形態における、解析処理を示すフローチャートである。
はじめに、重み解析部150は、処理受付部110を介して、ユーザから重み解析の要求を受け付ける。
重み解析部150は、解析モデル記憶部160から解析モデルを取得する(ステップS401)。
重み解析部150は、解析モデルを用いて、XベクトルとYベクトルとの間の各要素ペアについて、重みを算出する(ステップS402)。
図12は、本発明の第2の実施の形態における、重みの算出方法を示す図である。
図12の例では、Xベクトルは、3次元ベクトルX=(x、x、x)、Yベクトルは、2次元ベクトルY=(y、y)である。また、Xネットワークの出力(Pベクトル)は、4次元ベクトルP=(p、p、p、p)、Yネットワークの出力(Qベクトル)も4次元ベクトルQ=(q、q、q、q)である。
また、W、W、WはPベクトルに対する要素x、x、xの重みベクトルW=(w11、w12、w13、w14)、W=(w21、w22、w23、w24)、W=(w31、w32、w33、w34)である。V、VはQベクトルに対する要素y、yの重みベクトルV=(v11、v21、v31、v41)、V=(v12、v22、v32、v42)である。
Zネットワークへの入力は、PベクトルとQベクトルの内積として算出される。ここで、PベクトルとQベクトルの内積は、数1式のように行列変換できる。
Figure 0006384065
したがって、要素xとyのペアの重みd11は、WベクトルとVベクトルとの内積として算出できる。
すなわち、X=(x、x、…、x)、Y=(y、y、…、y)(m、nは、それぞれX、Yベクトルの次元数)とすると、Xベクトルの要素xとYベクトルの要素yのペアの重みdijは、数2式のように算出される。
Figure 0006384065
ここで、W=(wi1、wi2、…、wik)、V=(v1j、v2j、…、vkj)(kはP、Qベクトルの次元数)である。これをm×n回分繰り返すことにより、全要素ペアの重みが算出される。
重み解析部150は、ステップS402で算出された各要素ペアの重みをもとに、Xベクトルの各要素の重みを算出する(ステップS403)。
Xベクトルの要素xの重みdは、数3式のように算出される。
Figure 0006384065
これをm回分繰り返すことにより、Xベクトルの全要素の重みが算出される。
同様に、重み解析部150は、ステップS402で算出された各要素ペアの重みをもとに、Yベクトルの各要素の重みを算出する(ステップS404)。
Yベクトルの要素yの、Zネットワークへの入力に対する重みdは、数4式のように計算される。
Figure 0006384065
これをn回分繰り返すことにより、Yベクトルの全要素の重みが算出される。
重み解析部150は、ステップS403、S404で算出された各要素の重みを算出結果として、処理受付部110を介して、ユーザに返却する(ステップS405)。なお、重み解析部150は、各要素の重みを、記憶部(図示せず)や他の装置に出力してもよい。
本発明の第2の実施の形態における解析モデルは、SSIに従った予測モデルのXネットワーク、Yネットワークにおける中間層を省いたモデルである。一般的に多く用いられている3層ニューラルネットワークでは、中間層を省くと回帰分析と同等になる。しかしながら、SSIでは、複数の階層ニューラルネットワークを多段に組み合わせているため、Xネットワーク、Yネットワークにおける中間層を省いても、階層ニューラルネットワークは維持される。また、階層ニューラルネットワークでは、層が増えると1層の寄与は小さくなる。このため、解析モデルのように、予測モデルから層を1つ減らしたモデルであっても、予測モデルの特性を著しく損なわない。
したがって、解析モデルにおけるX、Yベクトルの各要素の重みは、予測モデルにおけるX、Yベクトルの各要素の重みとは同一でないものの、予測モデルにおける重みの傾向をある程度近似していると考えられる。
ユーザは、解析モデルにおける各要素の重みをもとに、予測モデルにおける各要素の重み(予測値への影響度)を推定できる。
図13は、本発明の第2の実施の形態における、各要素ペアの重みの算出例を示す図である。図13の重みは、図4の学習用データに対して算出されている。また、図14は、本発明の第2の実施の形態における、各要素の重みの算出例を示す図である。図14の重みは、図13の各要素ペアの重みをもとに算出されている。
図14の例では、重みが大きい、要素PWR、H、PWR−13が、予測値に対する影響が大きいことを示す。また、要素PWR−21、PWR−3は、重みが0に近く、予測値に対する影響がほとんど無いことを示す。
ユーザは、予測モデルの予測精度が高い場合、解析モデルにより算出された重みが大きい(重要な)要素を学習データに残し、重みが小さい(重要でない)要素を学習データから削除することができる。また、逆に、予測モデルによる予測精度が低い場合、重みが大きい(予測値に悪影響を与えている可能性がある)要素を学習データから削除することができる。
このように、解析モデルにより算出された重みをもとに、予測値への影響が大きい要素を選択し、学習用データに反映して再学習することで、予測モデルの精度を向上させることができる。
以上により、本発明の第2の実施の形態の動作が完了する。
なお、本発明の第2の実施の形態においては、予測モデルと解析モデルの学習において、それぞれ、データセットをランダムに抽出している(ステップS302、S312)。しかしながら、これに限らず、データセットの抽出処理を共通化し、予測モデルと解析モデルの学習に同一のデータセットを使用してもよい。
また、本発明の第2の実施の形態においては、予測モデルと解析モデルを同時に学習している。しかしながら、これに限らず、解析モデルの学習による各要素の重みの算出と要素の選択を繰り返し、解析モデルによる予測精度がある程度確保できた時点で、選択された要素を用いて、予測モデルを生成してもよい。
また、本発明の第2の実施の形態においては、ユーザが、解析モデルにより算出された各要素の重みをもとに、学習データの要素を選択している。しかしながら、これに限らず、重み解析部150が、解析モデルにより算出された各要素の重みをもとに、学習データの要素を選択し、予測モデル、及び、解析モデルの再学習を、学習部120に指示をしてもよい。
また、要素を選択する代わりに、解析モデルにより算出された各要素ペアの重みをもとに、学習データの要素ペアを選択してもよい。
次に、本発明の第2の実施の形態の効果を説明する。
通常の階層型ニューラルネットワークは、構成素子の非線形性のため、内部構成がブラックボックスであり、入力される各要素(パラメータ)の出力値への影響度(重み)を知ることができない。このため、入力要素を選択する基準となる指標が得られない。
本発明の第2の実施の形態によれば、予測モデルに入力される各要素の、出力値への影響度(重み)を提供できる。その理由は、解析モデル学習部122が、予測モデルのX、Yネットワークから中間層を省いた解析モデルの学習を行い、重み解析部150が、解析モデルのX、Yネットワークをもとに、各要素の重みを算出するためである。これにより、重みをもとに、予測モデルに入力する要素の選択を行い、予測モデルによる予測精度をさらに向上させることができる。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
100 学習装置
110 処理受付部
111 データ取得部
120 学習部
121 予測モデル学習部
122 解析モデル学習部
130 予測部
140 予測モデル記憶部
150 重み解析部
160 解析モデル記憶部

Claims (10)

  1. 予測対象種別、及び、前記予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得するデータ取得手段と、
    前記データ値の時系列を要素として含む集合が分割して入力される第1及び第2のニューラルネットワーク、及び、前記第1及び第2のニューラルネットワークの出力の内積を入力として、予測対象時刻における前記予測対象種別のデータ値の予測値を出力する第3のニューラルネットワーク、を含む予測モデルの学習を行う、予測モデル学習手段と、
    を備えた情報処理装置。
  2. さらに、
    入力層、及び、出力層から構成される、前記集合が分割して入力される第4及び第5のニューラルネットワーク、及び、前記第4及び第5のニューラルネットワークの出力の内積を入力として、前記予測対象時刻における前記予測対象種別のデータ値の予測値を出力する第6のニューラルネットワーク、を含む解析モデルの学習を行う、解析モデル学習手段と、
    前記第4及び第5のニューラルネットワークを基に、前記集合に含まれる各要素の重みを算出し、出力する、重み解析手段と、
    を備えた、請求項1に記載の情報処理装置。
  3. 前記重み解析手段は、前記解析モデルの学習により算出される、前記第4及び第5のニューラルネットワークの各々における、入力層の各要素と出力層の各要素間の重みをもとに、前記集合に含まれる各要素の重みを算出する、
    請求項2に記載の情報処理装置。
  4. 前記重み解析手段は、前記解析モデルの学習により算出される、前記第4及び第5のニューラルネットワークの各々における、入力層の各要素と出力層の各要素間の重みをもとに、前記集合に含まれる要素の内の、前記第4のニューラルネットワークに入力される各要素と前記第5のニューラルネットワークに入力される各要素とのペアの重みを算出し、当該ペアの重みをもとに、前記集合に含まれる各要素の重みを算出する、
    請求項3に記載の情報処理装置。
  5. 前記集合は、前記予測対象時刻を基準とした所定時刻におけるデータ値を要素として含む、
    請求項1乃至4のいずれかに記載の情報処理装置。
  6. 予測対象種別、及び、前記予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得し、
    前記データ値の時系列を要素として含む集合が分割して入力される第1及び第2のニューラルネットワーク、及び、前記第1及び第2のニューラルネットワークの出力の内積を入力として、測対象時刻における前記予測対象種別のデータ値の予測値を出力する第3のニューラルネットワーク、を含む予測モデルの学習を行う、
    学習方法。
  7. さらに、
    入力層、及び、出力層から構成される、前記集合が分割して入力される第4及び第5のニューラルネットワーク、及び、前記第4及び第5のニューラルネットワークの出力の内積を入力として、前記予測対象時刻における前記予測対象種別のデータ値の予測値を出力する第6のニューラルネットワーク、を含む解析モデルの学習を行い、
    前記第4及び第5のニューラルネットワークを基に、前記集合に含まれる各要素の重みを算出し、出力する、
    求項6に記載の学習方法。
  8. 前記集合に含まれる各要素の重みを算出する場合、前記解析モデルの学習により算出される、前記第4及び第5のニューラルネットワークの各々における、入力層の各要素と出力層の各要素間の重みをもとに、前記集合に含まれる各要素の重みを算出する、
    請求項7に記載の学習方法。
  9. コンピュータに、
    予測対象種別、及び、前記予測対象種別に影響する可能性がある他の種別の内の少なくとも一方のデータ値の時系列を取得し、
    前記データ値の時系列を要素として含む集合が分割して入力される第1及び第2のニューラルネットワーク、及び、前記第1及び第2のニューラルネットワークの出力の内積を入力として、測対象時刻における前記予測対象種別のデータ値の予測値を出力する第3のニューラルネットワーク、を含む予測モデルの学習を行う、
    処理を実行させるプログラム。
  10. さらに、
    入力層、及び、出力層から構成される、前記集合が分割して入力される第4及び第5のニューラルネットワーク、及び、前記第4及び第5のニューラルネットワークの出力の内積を入力として、前記予測対象時刻における前記予測対象種別のデータ値の予測値を出力する第6のニューラルネットワーク、を含む解析モデルの学習を行い、
    前記第4及び第5のニューラルネットワークを基に、前記集合に含まれる各要素の重みを算出し、出力する、
    処理を実行させる請求項9に記載のプログラム。
JP2014041228A 2014-03-04 2014-03-04 情報処理装置、学習方法、及び、プログラム Active JP6384065B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014041228A JP6384065B2 (ja) 2014-03-04 2014-03-04 情報処理装置、学習方法、及び、プログラム
US14/628,681 US20150254554A1 (en) 2014-03-04 2015-02-23 Information processing device and learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014041228A JP6384065B2 (ja) 2014-03-04 2014-03-04 情報処理装置、学習方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2015166962A JP2015166962A (ja) 2015-09-24
JP6384065B2 true JP6384065B2 (ja) 2018-09-05

Family

ID=54017684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014041228A Active JP6384065B2 (ja) 2014-03-04 2014-03-04 情報処理装置、学習方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20150254554A1 (ja)
JP (1) JP6384065B2 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6724436B2 (ja) 2016-03-11 2020-07-15 オムロン株式会社 ネットワークシステム、機能設定方法および機能設定プログラム
CN105844508B (zh) * 2016-03-22 2020-04-17 天津中科智能识别产业技术研究院有限公司 一种基于动态周期神经网络的商品推荐方法
JP6714690B2 (ja) * 2016-04-26 2020-06-24 株式会社日立製作所 情報処理システム、情報処理システムの運用方法、および機械学習演算器
KR101799037B1 (ko) * 2016-05-31 2017-11-17 주식회사 인코어드 테크놀로지스 가전 기기 사용 가이드 시스템 및 가전 기기 사용 가이드 방법
JP6823809B2 (ja) * 2016-08-09 2021-02-03 パナソニックIpマネジメント株式会社 対話行為推定方法、対話行為推定装置およびプログラム
CN106503792B (zh) * 2016-10-25 2018-12-18 西安科技大学 一种基于自适应模块化神经网络的瓦斯浓度预测方法
JP6867145B2 (ja) * 2016-11-28 2021-04-28 アイフォーコムホールディングス株式会社 エネルギ需要予測システム
JP6921526B2 (ja) * 2016-12-22 2021-08-18 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN106952181A (zh) * 2017-03-08 2017-07-14 深圳市景程信息科技有限公司 基于长短时记忆神经网络的电力负荷预测系统
US10489887B2 (en) 2017-04-10 2019-11-26 Samsung Electronics Co., Ltd. System and method for deep learning image super resolution
KR101774844B1 (ko) * 2017-04-18 2017-09-19 주식회사 더디엔에이시스템 뉴로블록체인 콤비네이션을 이용한 인공신경망 모델의 자가 학습 모듈
JP2020522798A (ja) * 2017-05-31 2020-07-30 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 運動データに基づいて運転挙動を認識するデバイスおよび方法
WO2019029802A1 (en) * 2017-08-09 2019-02-14 Telefonaktiebolaget Lm Ericsson (Publ) SYSTEM AND METHOD FOR SELECTING ANTENNA BEAM
JP7092186B2 (ja) * 2018-03-28 2022-06-28 日本電気株式会社 情報処理装置、情報処理方法、プログラム
CN110163380B (zh) * 2018-04-28 2023-07-07 腾讯科技(深圳)有限公司 数据分析方法、模型训练方法、装置、设备及存储介质
US20190385055A1 (en) * 2018-06-14 2019-12-19 Electronics And Telecommunications Research Institute Method and apparatus for artificial neural network learning for data prediction
CN109086930B (zh) * 2018-07-27 2021-01-22 广东电网有限责任公司 一种基于电力k线图及深度网络的用户用电行为分析方法
CN109685240B (zh) * 2018-10-24 2023-10-13 国网浙江省电力有限公司 一种基于lstm深度学习的95598话务工单预测与异动预警方法
US11922314B1 (en) * 2018-11-30 2024-03-05 Ansys, Inc. Systems and methods for building dynamic reduced order physical models
CN110083951B (zh) * 2019-04-30 2023-06-02 贵州电网有限责任公司 一种基于变压器相关运行数据的固体绝缘寿命预测方法
CN110222714B (zh) * 2019-05-05 2022-08-26 河海大学 一种基于arma与bp神经网络的太阳总辐照资源预测方法
CN112017252B (zh) * 2019-05-31 2024-06-11 华为技术有限公司 一种图像处理方法和相关设备
CN114080646A (zh) * 2019-07-26 2022-02-22 富士胶片株式会社 信息处理装置、程序、学习完毕模型、诊断支援装置、学习装置及预测模型的生成方法
CN110751264A (zh) * 2019-09-19 2020-02-04 清华大学 一种基于正交自编码神经网络的用电模式识别方法
CN110570048A (zh) * 2019-09-19 2019-12-13 深圳市物语智联科技有限公司 基于改进在线深度学习的用户需求预测方法
US11620493B2 (en) 2019-10-07 2023-04-04 International Business Machines Corporation Intelligent selection of time series models
CN110909862A (zh) * 2019-10-11 2020-03-24 平安科技(深圳)有限公司 基于卷积神经网络的注意力权重计算方法和装置
US20210174198A1 (en) * 2019-12-10 2021-06-10 GM Global Technology Operations LLC Compound neural network architecture for stress distribution prediction
CN111199270B (zh) * 2019-12-30 2023-04-18 福建省海洋预报台 一种基于深度学习的区域波高预报方法及终端
KR102122168B1 (ko) * 2020-01-08 2020-06-11 (주)유에스티21 해무 소산 예측 모델 학습 방법 선택 장치, 해무 소산 예측 모델 학습 방법 선택 방법, 해무 소산 예측 장치 및 해무 소산 예측 방법
US11314212B2 (en) * 2020-01-27 2022-04-26 Kyndryl, Inc. HTM-based predictions for system behavior management
WO2021214712A1 (en) * 2020-04-24 2021-10-28 Spectrum Optix Inc. Neural network supported camera image or video processing pipelines
CN113361189B (zh) * 2021-05-12 2022-04-19 电子科技大学 基于多步鲁棒预测学习机的芯片性能退化趋势预测方法
JP7041773B1 (ja) 2021-05-26 2022-03-24 Sppテクノロジーズ株式会社 基板処理装置のプロセス判定装置、基板処理システム、基板処理装置のプロセス判定方法、学習モデルの生成方法及びプログラム
CN113379005B (zh) * 2021-08-12 2021-10-29 新风光电子科技股份有限公司 一种电网电力设备能源智能管理系统及方法
WO2023027108A1 (ja) * 2021-08-25 2023-03-02 富士フイルム株式会社 複数のタスクの実行順序の決定装置、実行順序の決定装置の作動方法およびプログラム、並びに、複数の機械学習モデルの生成装置、学習装置および予測装置
CN116417992B (zh) * 2023-03-10 2024-03-19 华中科技大学 基于时空注意力机制的风机功率预测模型建立方法及应用

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1000220A (en) * 1908-11-25 1911-08-08 Louisa E Wheaton Combined mop head and wringer.
US5255342A (en) * 1988-12-20 1993-10-19 Kabushiki Kaisha Toshiba Pattern recognition system and method using neural network
JP3077883B2 (ja) * 1995-06-30 2000-08-21 日本電気株式会社 需要量予測装置
US6324532B1 (en) * 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
JP2002109150A (ja) * 2000-09-28 2002-04-12 Fuji Electric Co Ltd 時系列データの適応的予測方法
JP2007280031A (ja) * 2006-04-06 2007-10-25 Sony Corp 情報処理装置および方法、並びにプログラム
US8359282B2 (en) * 2009-01-12 2013-01-22 Nec Laboratories America, Inc. Supervised semantic indexing and its extensions
US20140181097A1 (en) * 2012-12-20 2014-06-26 Microsoft Corporation Providing organized content
US9639642B2 (en) * 2013-10-09 2017-05-02 Fujitsu Limited Time series forecasting ensemble

Also Published As

Publication number Publication date
JP2015166962A (ja) 2015-09-24
US20150254554A1 (en) 2015-09-10

Similar Documents

Publication Publication Date Title
JP6384065B2 (ja) 情報処理装置、学習方法、及び、プログラム
WO2019114423A1 (zh) 对模型预测值进行融合的方法、装置和设备
JP2022105263A (ja) グラフニューラルネットワークに基づくマルチソースタイミングデータ故障診断方法及び媒体
Georgopoulos et al. Distributed machine learning in networks by consensus
CN109120462A (zh) 机会网络链路的预测方法、装置及可读存储介质
US9299042B2 (en) Predicting edges in temporal network graphs described by near-bipartite data sets
Braakmann-Folgmann et al. Sea level anomaly prediction using recurrent neural networks
Deng et al. FedVision: Federated video analytics with edge computing
JP2017091278A (ja) 学習装置、予測装置、学習方法、予測方法、およびプログラム
Hong et al. Distributed online learning with multiple kernels
Nandanoori et al. Graph neural network and Koopman models for learning networked dynamics: A comparative study on power grid transients prediction
CN117215728B (zh) 一种基于代理模型的仿真模拟方法、装置及电子设备
Bhalaji Cloud load estimation with deep logarithmic network for workload and time series optimization
JP6199461B1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114881343A (zh) 基于特征选择的电力系统短期负荷预测方法及装置
JP2015148934A (ja) 発電量予測装置および発電量予測方法
Wang et al. A novel GBDT-BiLSTM hybrid model on improving day-ahead photovoltaic prediction
CN111079175B (zh) 数据处理方法、装置、计算机可读存储介质和计算机设备
Bosma et al. Estimating solar and wind power production using computer vision deep learning techniques on weather maps
Klinken et al. Process-based pest risk mapping using Bayesian networks and GIS.
CN109657907B (zh) 地理国情监测数据的质量控制方法、装置和终端设备
Shen et al. Long-term multivariate time series forecasting in data centers based on multi-factor separation evolutionary spatial–temporal graph neural networks
Borzemski et al. Client-perceived web performance knowledge discovery through turning bands method
CN113239272B (zh) 一种网络管控系统的意图预测方法和意图预测装置
Zafar et al. An Optimization Approach for Convolutional Neural Network Using Non-Dominated Sorted Genetic Algorithm-II.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180723

R150 Certificate of patent or registration of utility model

Ref document number: 6384065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150