こんにちは。機械学習エンジニアをしている古賀です。 最近は愉快な上司@tereka114 のもと、精度の上がらないモデルに四苦八苦しています。 そんな私が普段データ分析をする際に難しいことの一つとして、特徴量エンジニアリングがあります。 特徴量エンジニアリングとは、元のデータに新たな特徴量を追加することでモデルの精度を向上させるプロセスのことです。 この結果によってモデルの精度が大きく変わりますが、正しく実行するにはデータへの深い理解やデータ分析力が必要になります。 私もあまり得意ではないのですが、これを簡単にする xfeat という便利なライブラリがあると上司が教えてくれたので、実際に使ってみて便利だったことをまとめました。 ※本記事は、Pythonその3 Advent Calendar 2020 の15日目の内容になります。 目次は以下です。 xfeat とは 準備 実行環境 xfea
「自分だけのキャラを作りたい」 AIで美少女を「無限生成」、若きオタクエンジニアの挑戦(1/4 ページ) 女の子の瞳、髪形、表情が変化し、何体ものキャラクターが生まれていく――Preferred Networksが深層学習を活用し、アニメキャラクターを自動生成するサービス「Crypko」(クリプコ)を提供している。開発したのは、中国出身の若きエンジニア。「自分の想像通りのキャラクターを形にできるサービスを作りたい」と意気込む2人に開発の舞台裏を聞いた。 女の子の瞳、髪形、表情が万華鏡のように目まぐるしく変化し、何体ものキャラクターが生まれていく――AI(人工知能)ベンチャーのPreferred Networks(PFN、東京都千代田区)が、アニメやゲームの制作会社向けにそんな技術の提供を始めた。深層学習(ディープラーニング)を活用してアニメキャラクターを自動生成するサービス「Crypko」
Home Blog Google Colaboratoryを用いた機械学習・深層学習の入門教材を無料公開(健康・医療向けデータを用いた実践編も含む) PFNのリサーチャの齋藤です。今年は色々な仕事に取り組みました。本記事では、日本メディカルAI学会が新しく始める公認資格へ向けたオンライン講義資料について書きます。 昨今、機械学習や深層学習といった技術はIT企業のみならず様々な分野で活用されるようになってきました。その一つに医療分野があります。しかし、忙しい臨床医・研究医・その他医療従事者の方々の中には機械学習や深層学習の可能性を知りつつも、なかなか自ら手を動かして学び、それを医学の研究や医療の現場へ生かしていく時間がとれない方もいらっしゃいます。その大きな理由の一部には、特に深層学習を実践的に用いる方法を学ぶ場合に必要となる計算機環境の用意および環境構築が難しいといった点があります。 そこ
5年以内にAIは社会に浸透する Preferred Networks社長 西川氏×村田機械社長 村田氏が語った、AIで変わる未来 【直前対談】Preferred Networks 西川徹×村田機械 村田大介 #1/2 飛躍的な進化を遂げるAI分野において、とくに研究が進むディープラーニング(深層学習)。ユニコーンと言われていた当時のメルカリの企業価値を超える株式会社Preferred Networksは、そのディープラーニングを主事業に据える、新進気鋭のスタートアップ企業。ディープラーニングが我々の生活や仕事を大きく変えていくなか、人間はどういった存在になっていくと考えているのでしょうか。 世界を代表するエレクトロニクス製造サプライチェーンの国際展示会「SEMICON Japan 2018」の開催に先駆けて行われた、株式会社Preferred Networks 代表取締役社長 最高経営責任
機械学習のハイパーパラメーターを自動最適化、Preferred Networksがライブラリを公開:機械学習の開発負荷を低減 Preferred Networksは、機械学習アルゴリズムの動作を制御する「ハイパーパラメーター」向けの自動最適化フレームワーク「Optuna」のβ版をオープンソースソフトウェアとして公開した。機械学習ライブラリとして「Chainer」だけでなく、「scikit-learn」や「XGBoost」「LightGBM」などを利用した場合でも、ハイパーパラメーターの自動最適化が可能。 Preferred Networksは2018年12月3日、ハイパーパラメーター自動最適化フレームワーク「Optuna(オプチュナ)」のβ版をオープンソースソフトウェアとして公開した。 Optunaは、ニューラルネットワークを実装する際に必要な、隠れ層の数やノード数、学習の際の繰り返し回数
Overview AI/基盤モデルが必要とする計算資源はこれまでのスーパーコンピュータの進化の速度を大幅に上回り、爆発的に増加しています。技術の社会実装に向けて、低コスト/低環境負荷な計算資源が求められています。 Preferred Networks(PFN)は、AI/基盤モデルに要する高速かつ莫大な計算能力を賄うため、深層学習を高速化するプロセッサー(アクセラレータ)MN-Core™シリーズを神戸大学と共同開発し、MN-Core™シリーズを用いた大規模コンピュータクラスター(スーパーコンピュータ)の構築を進めています。 MN-Core Series 莫大な計算量を必要とする深層学習において、計算の高速化は大きな課題のひとつです。 AI/基盤モデルの学習フェーズに最適化した専用チップは、汎用用途のチップに比べ、機能を限定することで高い処理性能を発揮することができます。 PFNが神戸大学と共
私が2012年にニューラルネットの逆襲(当時のコメント)というのをブログに書いてからちょうど5年が経ちました。当時はまだDeep Learningという言葉が広まっておらず、AIという言葉を使うのが憚られるような時代でした。私達が、Preferred Networks(PFN)を立ち上げIoT、AIにフォーカスするのはそれから1年半後のことです。 この5年を振り返る良いタイミングだと思うので考えてみたいと思います。 1. Deep Learning Tsunami 多くの分野がこの5年間でDeep Learningの大きな影響を受け、分野特化の手法がDeep Learningベースの手法に置き換わることになりました。NLP(自然言語処理)の重鎮であるChris Manning教授もNLPで起きた現象を「Deep Learning Tsunami」[link] とよびその衝撃の大きさを表して
人工知能(AI)の開発者が研究開発に当たって留意すべき原則「AI開発ガイドライン(仮称)」の素案を策定するため総務省が設置した産官学会議から、AIスタートアップのPreferred Networks(PFN)が離脱していたことが明らかになった。 Preferred Networksは深層学習(ディープラーニング)開発のスタートアップ企業で、深層学習フレームワーク「Chainer」の開発元としても知られる。 総務省 情報通信政策研究所は、同ガイドライン素案策定のための産官学会議「AIネットワーク社会推進会議」を主催している。2016年12月には、素案策定に向けた論点整理を公開した。 この素案は、日本政府がOECD(経済協力開発機構)などに提案することを目的に策定するもので、「日本の法制度に直接反映させることを想定したものではない」(同研究所)という。 だがこの方針に対し、2017年1月まで同
4月10日の日経ITproの記事「 AIベンチャーの雄が総務省の開発指針に反対する理由」で、総務省主導で推進されているAIネットワーク社会推進会議とその開発原則分科会からPFNが離脱したことを、取り上げていただきました。私とのとりとめのないインタビューを適切にまとめてくださった日経ITpro浅川記者に深く感謝いたします。また、その記事に対して、はてなブックマーク、NewsPicks、FacebookなどのSNSを通して多くのコメントを下さった方にも感謝の意を表します。ありがとうございます。離脱の理由は記事にある通りですが、総務省の方々も私達の立場を真摯に受け止めてくださっていて、実りのある議論を続けてくださっています。その上で、今後の議論を深めるために、いくつかの点について補足したいと思います。 汎用人工知能と特化型人工知能 現在、人工知能という言葉は大雑把には、 汎用人工知能(「強い」人
Chainerがアップデート Chainer 2.0の登場 分散処理対応のChainerMN ITpro記事 公式ブログ 強化学習対応のChainerRL クイックスタート 公式ブログ 最後に ライバルTensorFlow(Google開発のフレームワーク) Chainerがアップデート Chainer 2.0の登場 pypi.python.org 現在は pip install chainer -pre によってChainer 2.0.0αがインストールできます。(現在、私の環境でうまくいかないので不確かな情報かも) メジャーアップデートではありますが、なにか大きく機能変更があったというわけでもなさそうで、どちらかというと非機能的な面(使いやすさ)などが変更されていそうです。 分散処理対応のChainerMN Chainerは現在、マルチノードの学習には対応していません。 そこでマルチノ
PyConJP2016のトーク「週末サイエンティストのススメ」の資料を用意しました.リンク集: https://t.co/Bh5CqazhzJ スライド:https://t.co/gLUUSHVeLO 事例等: https://t.co/8MTEOxAI3T #PyConJP
Chainerを使った深層強化学習ライブラリChainerRLを公開しました. https://github.com/pfnet/chainerrl PFNエンジニアの藤田です.社内でChainerを使って実装していた深層強化学習アルゴリズムを”ChainerRL”というライブラリとしてまとめて公開しました.RLはReinforcement Learning(強化学習)の略です.以下のような最近の深層強化学習アルゴリズムを共通のインタフェースで使えるよう実装してまとめています. Deep Q-Network (Mnih et al., 2015) Double DQN (Hasselt et al., 2016) Normalized Advantage Function (Gu et al., 2016) (Persistent) Advantage Learning (Bellemar
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く