記事をご覧いただきありがとうございます! 感想やご指摘があればコメントいただけると幸いです! (この記事は英語の発音記号(特にアクセント)を意識してカタカナを書いてあります。例としては アクセント → アクセント (ˈəksɛnt) コメント → コメント (ˈkɑmɛnt) などです。) 0. 問題設定 教師あり学習を考えます. つまり以下のような設定です: 『$D=(x,y)^{n}\in{(\mathbb{R}^{d_x}\times\mathbb{R}^{d_y})} ^n\in\mathbb{D}$が与えられた際, $x$から$y$を予測する学習機を作りたい.』 近年では,様々な学習機(モデル)があり, 勾配ブースティング木,深層学習,パラミターが小さめの統計モデルなどがあります. この記事ではそれらの詳細には触れませんが, 精度を上げるためのスタッキングという技術の精
社内向けに公開している記事「統計・機械学習の理論を学ぶ手順」の一部を公開します。中学数学がわからない状態からスタートして理論に触れるにはどう進めばいいのかを簡潔に書きました。僕が一緒に仕事をしやすい人を作るためのものなので、異論は多くあると思いますがあくまでも一例ですし、社員に強制するものではありません。あと項目の順番は説明のため便宜上こうなっているだけで、必ずしも上から下へ進めというわけでもありません。 (追記)これもあるといいのではないかというお声のあった書籍をいくつか追加しました。 数学 残念ながら、統計モデルを正しく用いようと思うと数学を避けることはできません。ニューラルネットワークのような表現力が高くて色々と勝手にやってくれるような統計モデルでも、何も知らずに使うのは危険です。必ず数学は学んでおきましょう。理想を言えば微分トポロジーや関数解析のような高度な理論を知っておくのがベス
Optuna™は、オープンソースのハイパーパラメーター自動最適化フレームワークです。「Optuna Meetup #1」では、Optunaのユーザー、導入を検討している方、また開発者を中心に、Optunaの様々な活用方法が共有されました。鈴木氏は、物質の結晶構造の解析におけるOptunaの活用について発表しました。全2回。後半は、Optunaを採用した理由と検証の結果について。前回はこちら 鈴木雄太氏(以下、鈴木):具体的なコードの一例を示したいと思います。ちなみにこのコードは公開しているので、もしよかったら見てみてください。Optuna Examplesからもリンクを貼ってもらっています。 このObjectiveの中ですが、マシンラーニングを見慣れない方は、マシンラーニングのハイパーパラメーターも見慣れない感じかと思います。 例えば、シグナルのバックグラウンドの下に、シグナルとは別に信号
相関係数が0.63の散布図が話題になっているようなので、相関係数が0.63の散布図を作成するPythonスクリプトを作ってみました。 以下のコードは Google Colaboratory 上での動作を確認しています。 乱数の散布図 まずは乱数を使った散布図の描きかたと、相関係数の計算の仕方です。 import numpy as np n_data = 20 X = np.random.rand(n_data) Y = np.random.rand(n_data) import matplotlib.pyplot as plt coeff = np.corrcoef(X, Y)[0, 1] plt.figure(figsize=(5,5)) plt.title("correlation coefficient = {0:.3f}".format(coeff)) plt.scatter(X,
はじめに 対戦ゲームのレーティングシステムとして多く採用されているElo Ratingですが, その計算式を見ると内部で行っていることはロジスティック回帰とほとんど一致することがわかります. この記事ではロジスティック回帰とElo Ratingについて簡単に説明し,それらの関係について見ていきます. また,ついでにこの事実を応用した格闘ゲームのキャラ相性解析のアイデアについて紹介したいと思います. ロジスティック回帰 ロジスティック回帰は2値分類問題の推論や分析に利用される一般化線形モデルの一つです. ロジスティック回帰ではロジット(対数オッズ)を線形モデルで予測します.*1 このことは予測確率を,線形モデルの出力を,ロジスティック回帰の重みベクトルを,バイアスを,入力ベクトルをとした時以下の式で表されます. 予測確率の計算 予測確率は以下の式で求まります.*2 更新式 ロジスティック回帰
はじめに 私はこれまで機械学習のパラメータチューニングに関し、様々な書籍やサイトで学習を進めてきました。 しかしどれもテクニックの解説が主体のものが多く、 「なぜチューニングが必要なのか?」 という目的に関する記載が非常に少なかったため、体系的な理解に苦労しました。 この経験を後世に役立てられるよう、「初心者でも体系的に理解できる丁寧さ!」をモットーに記事にまとめたいと思います。 具体的には、 1. パラメータチューニングの目的 2. チューニングの手順とアルゴリズム一覧 3. Pythonでの実装手順 (SVMでの分類を例に) の手順で解説を進めます。 独自解釈も含まれるため、間違っている点等ございましたら指摘頂けると有難いです。 なお、文中のコードはこちらのGitHubにもアップロードしております。 2021/9/6追記:LightGBMのチューニング実行例追加 以下の記事に、Ligh
こんにちは. DSOC 研究開発部の黒木裕鷹です. なんと,思いつきで始めたランニングが続いており,最初の1ヶ月は65kmほど走っていたようです! やはり,ばっちり形から入りかっこいいシューズとウェアを用意したのが効いたようです. フルマラソン目指して頑張りたいと思います🏃 さて,先日株式会社ホクソエムの高柳さんより,監修された本をご恵贈いただきました! ありがとうございます!!! いつもはネットワークの分析手法にまつわる連載をしていましたが,せっかくですので,今回は書籍のレビュー・紹介をしたいと思います. gihyo.jp 紹介・どんな本か 1章:機械学習実践のためのフレームワーク 2章:機械学習実践のための基礎技術 3章:Explicit Feedback を用いた推薦システムの構築の実践 4章:Implicit Feedback を用いたランキングシステム構築の実践 5章:因果効果
カーネルの機械学習への応用の原稿を共立出版に提出しました。誤植を直したり、まえがきや索引をつけるのに2ヶ月位かかるのが普通です。数学だけでは難しくてめげやすい分野です。今回もプログラムをたくさん入れました。Python版もまもなく出てくると思います。 機械学習の数理100 問シリーズ3 「カーネルの機械学習への応用100 問with R」鈴木 讓 第1章 正定値カーネル 1.1 行列の正定値性 1.2 カーネル 1.3 正定値カーネル 1.4 確率 1.5 Bochnerの定理 1.6 文字列、木、グラフのカーネル 第2章 Hilbert空間 2.1 距離空間と完備性 2.2 線形空間と内積空間 2.3 Hilbert 空間 2.4 射影定理 2.5 線形作用素 2.6 コンパクト作用素 第3章 再生核Hilbert空間 3.1 RKHS 3.2 Sobolev 空間 3.3 Mercer
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く