エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
BERTの学習済みモデルを使ってみる | NHN テコラス Tech Blog | AWS、機械学習、IoTなどの技術ブログ
こんにちは。データサイエンスチームのtmtkです。 この記事では、最近公開されたBERTの学習済みモデルを... こんにちは。データサイエンスチームのtmtkです。 この記事では、最近公開されたBERTの学習済みモデルを試してみます。 はじめに 今年10月末に、BERTという自然言語処理のモデルが発表されました。事前に学習したモデルをファインチューニングする仕組みで、自然言語処理の各種タスクで最高のスコアを更新したため、話題になりました。 このBERTのソースコードと事前学習済みのモデルが、先月末にGitHubで公開されました。 この記事では、このBERTの事前学習済みモデルをつかって、英語の文が「Alice’s Adventures in Wonderland(不思議の国のアリス)」と「Pride and Prejudice(高慢と偏見)」の二つのうちどちらの作品の文かを判定する機械学習モデルを作ってみます。 実験 いつものように、AWSのEC2で実験をします。AMIとしてDeep Learning
2018/11/13 リンク