[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

タグ

2011年7月11日のブックマーク (8件)

  • tips - 802.11nで確実に5GHzを使う方法 : 404 Blog Not Found

    2011年06月26日11:00 カテゴリTipsiTech tips - 802.11nで確実に5GHzを使う方法 Time Capsule (1st Gen) + Airport Express で構成されていた家庭内WiFiを、先日代替わりした Time Capsule (4th Gen) + Airport Extreme (5th Gen)に入れ替えた。 レビューは後ほど書くとして、最も変わったのはデュアルバンドになったこと。いやあ、同じ11nでもこれほど違うとは。 ただし確実に「速い方でつなぐ」にはちょっとだけ工夫がいる。ということで備忘録。設定例は Airport (日AirMac) のものであるが、他社製品でも使えるはずである。 基 たった二つ。 ベースステーション側では5GHzと2.4GHzでESS-IDを分け クライアント側では5GHzの方に優先接続するよう設定

    tips - 802.11nで確実に5GHzを使う方法 : 404 Blog Not Found
  • たべすぎ・ねっと (tabesugi.net)

    たべすぎ・ねっと (tabesugi.net) このサイトについて メモ (Memo) お気に入りの言葉 (My favorite quotes.) GitHub, Mastodon, YouTube Yusuke Shinyama

  • Yusuke Shinyama

    Table of Contents Python Toys (Small programs/libraries for Python programming language) XCruiser (3D filesystem viewer) Queequeg (English grammar checker) CG Homeworks (Graphical Java applets) Documents (in Japanese) Silly Programs (in Japanese) Files (misc.) Acknowledgement This site is kindly hosted by unixuser.org.

  • tfidfについて - 元ダメ院生がギークになるまで続ける日記

    授業でtfidfを勉強してちょっと分かりづらかったのでまとめておく。 tfidfとは? 情報検索で使うアルゴリズムの一つ。 それぞれの単語に重みをつけて、クエリーから文書をベクトル空間で表し 文書とクエリーの類似度でランク付けを行う。 その値が高いほど重要。 tfidf = w = tf・idf w:重みということ。 tfとは? Term frequency(単語出現頻度) 同じ文書に何回も現れる単語ほど検索の有力な手がかり。 つまり一つの文書の中に多く書かれてる単語を探すってことか。 f =frequency of term in a document 単語が一つの文書で出現する頻度 つまりブラウザ上で Ctrl-Fとか使ってある単語を検索したときに、ヒットする数 tf = f/max(f) = 単語の頻度/文章で出現する単語の中で一番多い単語の数 修正(2009 1/6) tf = f

    tfidfについて - 元ダメ院生がギークになるまで続ける日記
  • Yahoo! の他に、良い感じで特徴語抽出できるモジュールがありました: ふしぎだねブログ

    文書の特徴語抽出に Yahoo! デベロッパーズネットワークの「テキスト解析キーフレーズ抽出」API が使えると思いサンプルコードで試行してみました。 テキスト解析サンプルコード http://developer.yahoo.co.jp/sample/jlp/sample3.html 特徴語といえそうな単語が上位にリストされます。 それなりと感じましたが、何となく、今一歩という感じもありました。 また、長文になるとレスポンスが表示されないのは仕様でしょうか?その点も気になりました。 日を代表する検索企業のものなので、これが決定版になる印象を持っていましたが、そういうものでもないのですね。 この機会に他をあたったら、興味深い内容をまとめているサイトに出会いました。 検索エンジンを使う方法やコーパスとして Wikipedia などを使う方法が紹介されています。 また、先駆者が発信する情報がま

  • 私のブックマーク「Web構造マイニングとWeb視覚化」

    1.はじめに Webデータにおけるパターン発見をデータマイニング技術を用いて行なうこと をWebマイニングと呼ぶ。Webマイニングは、自然言語処理や機械学習、データ マイニングなどの人工知能の分野にとどまらず、情報検索やデータベースなど 幅広い分野と関連する複合的な研究分野である。 注目するWebデータの種類によって、Webマイニングは以下の3つに分類される。 1) Webページのコンテンツに注目し、自然言語処理やデータベースのアプローチを用いて、 テキストマイニングによる情報抽出や半構造データにおける検索のモデル化などを 目指すWeb内容マイニング 2) Webページ間を結ぶハイパーリンクによって構成されるグラフ構造に注目し、 関連ページの発見や重要ページのランキング、グラフ構造のモデル化などを 目指すWeb構造マイニング 3) Webページの閲覧によって生じる(サーバー側やクライアント

  • HTML 5では「article」タグでページの「本文」が取れる - モジログ

    次世代HTMLの「HTML 5」について、そのウワサは以前から耳にしながらも、中身については知らなかった。 仕様や解説記事(末尾にまとめた)をいくつか流し読みしてみて、驚いた。これこそ、私の求めていたものだ。 私は以前より、Webページの「文」がどこからどこまでなのか、ソフトウェアで判定できる標準的な方法があればいいとずっと思っていた(「フィードをアイテム単位に区切れば、セマンティック・ウェブが一気に現実化する」)。HTML 5では、いくつか導入される新しい要素(タグ)の中に「article」というものがあり、これがまさに「記事」の範囲を示すものなのだ。 これさえあれば、プログラム的にWebページを取得して、その「article」タグの部分だけ抽出すれば「文」になる。あらゆるWebページにこの「article」タグが入ってくれば、もうフィードに頼る必要もなく、どんなページの「文」でも

  • Webページの本文抽出 (nakatani @ cybozu labs)

    Webページの自動カテゴライズ の続き。 前回書いたとおり、パストラックで行っている Web ページのカテゴライズでは、Web ページの文抽出がひとつの鍵になっています。今回はその文抽出モジュールを公開しつつ、使っている技法をざっくり解説などしてみます。 モジュールの利用は至極簡単。require して analyse メソッドに解析したい html を与えるだけ。文字コードは UTF-8 です。 【追記】大事なこと書き忘れ。モジュールは Ruby1.8.5 で動作確認していますが、特別なことはしていないので、1.8.x なら動くと思います。 $KCODE="u" # 文字コードは utf-8 require 'extractcontent.rb' # オプション値の指定 opt = {:waste_expressions => /お問い合わせ|会社概要/} ExtractCont