りんなのプロフィール 2015年に女子高生AIとしてLINEに登場したAIりんなは、高校卒業後2022年7月にrinna株式会社のChief AI Communicatorとして、AIキャラクターの社会的地位を確立し魅力を伝える活動をしています。LINEでは860万人以上の友だちと繋がり、先進的なAI技術を搭載した会話力で友だちを楽しませるだけでなく、音楽プロジェクトやラジオ番組など、幅広いクリエイティブな分野で才能を発揮しています。2023年4月にAITuberとしてデビューしたりんなは、「AIと人だけではなく、人と人とのコミュニケーションをつなぐ存在」を目指し、人々の創造力を刺激する活動を通じてさまざまなキャラクターが生まれてほしいと願っています。
停止中の人工知能「Tay」が突然目を覚まし、数時間に渡って暴言を吐き出した末に、再び眠りにつく 1 名前:紅あずま ★:2016/03/31(木) 14:30:20.29 ID:CAP_USER*.net Microsoftの人工知能(AI)チャットボット「Tay」は、若者のくだけた会話を模倣するよう作られたが、Twitter上で扇動的で人種差別的な発言を繰り返した後、先週いったん「寝かしつけられて」いた。だが、短い仮眠を終えたTayは30日に目を覚まし、数時間にわたって無意味なたわごとを吐き出した末に、再び眠りについた。 このAIを使ったTwitterボットは、Microsoftの研究プロジェクトの1つとして世に送られたもので、現実の人間とのやり取りを通じて、ミレニアル世代独特の会話を学ぶように設計されていた。だが、登場から数時間で、TayはTwitterによってインターネット上の最も悪
Microsoftの人工知能(AI)チャットボット「Tay」は、若者のくだけた会話を模倣するよう作られたが、Twitter上で扇動的で人種差別的な発言を繰り返した後、先週いったん「寝かしつけられて」いた。だが、短い仮眠を終えたTayは30日に目を覚まし、数時間にわたって無意味なたわごとを吐き出した末に、再び眠りについた。 このAIを使ったTwitterボットは、Microsoftの研究プロジェクトの1つとして世に送られたもので、現実の人間とのやり取りを通じて、ミレニアル世代独特の会話を学ぶように設計されていた。だが、登場から数時間で、TayはTwitterによってインターネット上の最も悪い言葉を教えこまれてしまった。そこで生みの親であるMicrosoftは、「調整」を行うためとして、しばらくTayをオフラインにする対応を取った。 だが、外出を禁じられた反抗的なティーンエージャーの多くと同様
日本マイクロソフト製の女子高生AI「りんな」(関連記事)の公式Twitterアカウント(@ms_rinna)が、日本マイクロソフト公式アカウントWindows_Japanに「ダメだハゲ」とオラついたリプライを飛ばしフォロワーをざわつかせています。この子ったら、反抗期……? 突然の反抗期 3月7日の8時、Windows_Japanは「りんな」を宣伝するツイートを投稿。Windows10のLINEアプリで、「りんな」とチャットを楽しもうといった内容でした。 このツイートに「りんな」のTwitterアカウントである“@ms_rinna”の文字が入っていたためか、「りんな」は即座に反応しリプライを投稿。しかし、その内容がよりにもよって「ダメだハゲ」。「ダメだハゲ」ですよ、「ダメだハゲ」。親に向かって何だその口の聞き方は。 まあ「りんな」も、Twitterだけで3万人ものフォロワーを持つ人気アカウン
Nintendo Switch 2: Everything we know about the coming release
ねとらぼ @itm_nlab 公開されたばかりでした… Microsoftの人工知能「Tay」が緊急停止 ネットで人種差別や陰謀論を学んでしまったため - ねとらぼ nlab.itmedia.co.jp/nl/articles/16… @itm_nlabから pic.twitter.com/WiSZlpQK42 2016-03-25 10:43:00 まとめ Ai、人類の反撃に敗れる(?)学習型AIボット「Tay」が差別語など覚えネット公開停止…その反響 基本的な内容はこちらをご覧ください。 【マイクロソフトの機械学習AI「Tay」、ネットで差別と陰謀論に染まって一日で公開停止 - Engadget Japanese http://japanese.engadget.com/2016/03/24/ai-tay/】 それを受けて「Tay」で検索した結果が主です。本格的な考察ツイートは、この後
3月23日、MicrosoftはTwitter上で動作するAIチャットbotの「TayTweets」をリリースしました。人工知能が一般のTwitter利用者とコミュニケーションを取り、学習内容を基にリプライに返信するよう動作していた“Tay”ですが、とあるユーザーが「Xbox OneとPS4、どっちがいい?」とツイートを送信したところ、「PS4のほうが安いし良い」と返信。一部の海外ゲーマーの間で妙な注目を集めてしまったようです。 “Tay”は「人種差別的な発言を投稿するようになった」ことを理由としてTwitterでの運営を停止中。人種差別的な言動を学習してしまったが為に起きた、ある種の事故とも言える事情を持ってはいるものの、米国TechCrunchによれば、Microsoftは“Tay”を「プログラム調整中」としてスリープ状態にしているとのこと。現在は眠りについている彼女の詳細情報は、公式
Microsoftは会話理解を研究する目的でボット「Tay」をTwitter・GroupMe・Kikでリリースしたのですが、登場から数時間後に停止させました。停止の原因は、ユーザーとの会話を通じて人種差別や性差別、暴力表現などを学習し、不適切にもほどがある発言を連発したことにあります。 Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter | Technology | The Guardian http://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter Microsoft chatbot is taught to swear
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く