This domain may be for sale!
うーん。人間ってインプット→処理→アウトプットする機械ではないんだと思うんだけど。 経験値を増やしたいのであれば、場数を増やして自分でやってみるのもいいと思うし、あと色んな人の話を聞くのもいいんじゃないかな。 一つ一つのインプットにとらわれすぎるのはどうかと。 インプットってそんな機械的なものじゃないでしょう。同じ場に身を置いても、同じように他人の話を聞いても、得られる経験は人それぞれ違うはずです。 それはいわゆるインプットが決して外部の物事をそのまま受け取るという実践ではないからです。同じ物事に接しても人それぞれ受け取るものは異なる。逆に多くの異なるものに接しても何の違いも感じない人だっているでしょう。 つまり、インプットそのものが生成なのです。 インプット→処理→アウトプットをしているのではなく、インプットそのものが処理であり、アウトプットの生成なわけです。 感じるということ自体が生成
日本SGIは1月25日、人間の声から感情状態のレベルを10段階で検出できる「ST Emotion(エスティー・エモーション)」を開発し、ST Emotionを組み込んだアプリケーションを開発するためのツールキット「ST Emotion SDK」を販売すると発表した。 ST Emotionは、日本SGIが関連会社となるAGIと共同開発を進めている、コンピュータに人間の感性を理解させて反応させる感性制御技術「Sensibility Technology(ST)」のコアエンジンを刷新した技術。 アプリケーション開発用のツールキットST Emotion SDKは、プラットフォームとしてWindows XP/2000のほか、新たにLinuxに対応。価格は100万円からとなる。 従来のSTでは、人間の感情状態のうち「喜び」「怒り」「哀しみ」「平常」「興奮」「笑い」のそれぞれの感情分析結果を、「あり」「
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く