[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

タグ

画像処理に関するxmx3のブックマーク (54)

  • フーリエ変換と画像圧縮の仕組み

    2. 自己紹介 • Yuichi Takeda / @ginrou799 • 今 • ミクシィでiPhoneアプリの開発 • iOSの社内研修なども • になりました http://goo.gl/OaLUDc • オープンな勉強会として研修をやってます (無料、Androidと隔週) • 昔 • 大学、大学院の専攻は画像処理 今日は昔取った杵柄についてお話します

    フーリエ変換と画像圧縮の仕組み
  • 写真を絵のように見せる写真加工技術「PhotoDramatica」トップ - あやえも研究所

    (公開日:2010年10月) 「綺麗な背景画像を簡単に作りたい!」 そんな思いから、この写真加工技術「PhotoDramatica(フォト・ドラマティカ)」は生まれました。 この技術は、以下のような特徴があります。

  • 数独を解く(画像解析) - cuspy diary

    画像として与えられた数独を解きます。 新聞に掲載されていたこの問題をOpenCVを使って画像解析する。(画像が斜めなのはワザとです) グレースケール変換画像解析の前処理として、まずグレースケールに変換し、ガウシアンフィルタをかけてぼかします。ガウシアンフィルタをかける事で、安定した二値化画像が得られます。 二値化次に二値化を行います。 二値化には、普通の方法、大津さんの手法、適応的二値化、などさまざまな手法が在ります。いろいろ試した所、適応的二値化(Adaptive Threshold)が最も数独の認識に適していることが解りました。 適応的二値化(Adaptive Threshold)であれば、影になってしまった部分も上手く処理できます。 膨張処理次に、数独の盤面の外枠を認識を行います。 二値化の影響で枠線が途切れてしまう可能性がありますので、膨張処理(dilate)を行います。 (膨張処

  • algorithm - JPEGminiの仕組みを推理する : 404 Blog Not Found

    2012年01月23日19:30 カテゴリアルゴリズム百選iTech algorithm - JPEGminiの仕組みを推理する なぜコンピュータの画像は リアルに見えるのか 梅津信幸 JPEGの仕組みをおぼろげに知っている人ほど、むしろこれみて「ありえない」と思ったのではないのでしょうか。 JPEGmini - Your Photos on a Diet! でもよーく考えてみると、これでいけるという方法を発見というか再発見したので。 なぜJPEGminiがありえなさそうに見えるかは、以下に集約されます。 「なぜコンピュータの画像はリアルに見えるのか」 P.131 たとえば「ここは文字」「ここは背景の空」などと、ユーザーが自由に品質を設定できれば、さらによい画像になるはずです(できれば、それもコンピュータが自動で決めてくれるとうれしいのですが)。 同書も指摘しているように、JPEG 200

    algorithm - JPEGminiの仕組みを推理する : 404 Blog Not Found
  • OpenCV.jp : OpenCV逆引きリファレンス — OpenCV-CookBook

    OpenCV.jp : OpenCV逆引きリファレンス¶ 基的に OpenCV (と依存ライブラリ),および標準ライブラリ以外は使用しません. OpenCVはEigenなしでも利用できますが,このサンプルの中にはEigen必須のものもあります. また,2.4.0以降に導入された書式には一部対応しておらず,古い書き方で書かれているサンプルもあります. 指摘や訂正,リクエストなどは OpenCV.jp か, @idojun (Twitter) まで. OpenCV 2.4.0 対応:

  • Randomized Trees

    Randomized TreesのWebページは下記に移動しました. http://www.vision.cs.chubu.ac.jp/CVTutorial/index.html 2秒後に自動的に移動します.

  • サルでもわかる顔検出の原理 - 科学信仰

    顔検出機能はここ数年で急激に普及してデジカメとかケータイとかにフツーに入るようになったり、Google画像検索のオプションに入ってたりして、すっかりコモディティ化しちゃってるけど、ちょっと前まではすごい困難で実用化に手を出すなんてとてもとてもな技術だったんだよね。 2001年のViola & Johnsの論文*1で超高速&超正確な検出アルゴリズムが発表されるまでは。 これの画期的だった点は非力なパソコン(とか現在のケータイ内蔵CPUとか)で画像中からリアルタイムに顔を検出できたことなんだ。 キモは3点。 Integral-ImageによるHaar-like検出器の高速演算 AdaBoostによる検出能力の強化 多段フィルタ(cascade)による非顔領域の高速排除 具体的にどれがViolaらのオリジナルの仕事なのかはよく知らないけれど。 少なくとも一個目と三個目はそうな気がする。 Inte

    サルでもわかる顔検出の原理 - 科学信仰
  • はてなブログ | 無料ブログを作成しよう

    近所の造船所の進水作業を見に行く 近所の造船所の、進水作業の一般公開を見に行く。 式典はないので、「進水式」ではなくて「進水作業」。 福岡に引越して直後に、近所を散歩した時、海まで歩いていけるだけでなく、造船所まであるのか!て感動した。まさにその造船所で進水作業が見られるということで…

    はてなブログ | 無料ブログを作成しよう
  • 融けるような視点移動効果を実現する三次元再構築手法 Ambient Point Clouds - A Successful Failure

    いよいよ今年もSIGGRAPHが始まる時期となった。エントリでは、ダルムシュタット工科大学 (TUD) とマイクロソフトの合同チームによる、"Ambient Point Clouds for View Interpolation"と題されたtechnical paperから魔法のような視点補間技術を紹介したい。 まず、デモビデオをご覧いただくのが良いだろう。最初の方は既存手法の説明となっているが、目的は複数の写真をシームレスにつないで、破綻なく別視点に移動できる3次元モデルを再構築することである。02:44あたりから手法の適用結果が示されているので、まずそこを御覧頂きたい。これは、たとえばFlickrから集めてきた写真(当然カメラ位置も不明)から一切人の手を経ず全自動で生成されるのだ。 以下、論文*1に従って手法の概要について説明を行う。エントリで扱う図表は論文からの引用である。例に

    融けるような視点移動効果を実現する三次元再構築手法 Ambient Point Clouds - A Successful Failure
  • パターン認識に詳しい方に質問です。 1ページのマンガの白黒画像が与えられたとき、 そのコマ割りを自動的に判別するプログラムを作れたらと考えています。…

    パターン認識に詳しい方に質問です。 1ページのマンガの白黒画像が与えられたとき、 そのコマ割りを自動的に判別するプログラムを作れたらと考えています。 たとえば右上の図のような感じです。 マンガは、同じ大きさの四角が4つ並ぶ単純な4コママンガではなく、 この質問に示した図のように、コマごとの大きさが異なる、枠線がナナメになっている等、 ある程度、複雑なコマも含まれると思ってください。 そのとき、 [1] どんな方法でコマ割りが実現可能か(必ずしも成功率100%でなくてOKです。支援できればいいので) [2] すでにそのような研究があるか(ゼロからコマ割りができるマンガ・ワープロの研究は未踏にあるようです) [3] あなたの考えるところ、有望そうなテクニック(できれば簡単な理由つきで) のいずれかを、教えていただければと思います。 また、[1]~[3]に関連する、[4] 良さそうな参考文献 も

    パターン認識に詳しい方に質問です。 1ページのマンガの白黒画像が与えられたとき、 そのコマ割りを自動的に判別するプログラムを作れたらと考えています。…
  • 本物と見違えるような画像補間を実現するパスフレームワーク手法 - A Successful Failure

    SIGGRAPH2009で発表された"Moving Gradients: A Path-Based Method for Plausible Image Interpolation"という論文*1では、2枚の連続する入力画像を与えると、その間のフレームを極めて自然に補間生成する新たな手法を提案している。 図1 図1は両端の入力画像A, Bから間の3フレームを生成した例を示している。生成する補間フレーム数は任意で何枚でも生成可能であり、極めて自然な補間が実現できている。この例の驚くべきところは、制約条件を有する複雑で柔らかな局所変形を含む自然な補間画像が、全自動で生成されている点である。モーフィング処理では対応点を一点一点指定する必要があるが、ここで必要なのは2つの画像を選択するだけだ。 生成される補間画像の品質は素晴らしく、またアイデアもシンプルで興味深いので、原論文を参照して手法の概要

    本物と見違えるような画像補間を実現するパスフレームワーク手法 - A Successful Failure
  • Visual Wordsを用いた類似画像検索 - 人工知能に関する断創録

    類似画像検索システムを作ろう(2009/10/3) 3日で作る高速特定物体認識システム(2009/10/18) に続くOpenCVプロジェクト第三弾です。今回は、上の二つをふまえてカラーヒストグラムではなく、局所特徴量(SIFTやSURF)を用いた類似画像検索を試してみます。局所特徴量はグレースケール画像から抽出するため、カラーヒストグラムと違って色は見ていません。画像の模様(テクスチャ)で類似性を判定します。 実験環境は、Windows 7、MinGW C++コンパイラ、OpenCV2.0、Python 2.5です。EclipseでMinGWを使う方法はEclipseでOpenCV(2009/10/16)を参照してください。Visual C++にはないディレクトリスキャン関数を一部使っているのでVisual C++を使う場合は、少しだけ修正が必要です。 Bag-of-Visual Wor

    Visual Wordsを用いた類似画像検索 - 人工知能に関する断創録
  • Web上の膨大な写真からローマを1日で構築する方法 - A Successful Failure

    前回、『写真に基づく3D空間構築手法の到達点』としてバラバラの写真から3D空間を構築する手法について取り上げた。コメントで言及された人もおられたが、MicrosoftはPhotosynthとして、同様にStructure-from-Motion (SfM)を用いて写真をつなぎ合わせ、インタラクティブにブラウズできるPhotosynthを公開している。 Photosynth Overhead View on Vimeo Photosynth + Bing Maps on Vimeo 現在、研究レベルではWeb上にアップされた不特定多数のユーザによる膨大な写真から街一つを再現するプロジェクトが推進されている。その名も"Building Rome in a Day"(ローマを一日にして成す)だ。下の動画はFlickr検索された画像から生成された3Dモデルを示している。エントリでは、論文*1に基

    Web上の膨大な写真からローマを1日で構築する方法 - A Successful Failure
  • 写真に基づく3D空間構築手法の到達点 - A Successful Failure

    一昔前は実世界の建築物を元にウォークスルー可能な3D空間を構築しようと思ったら、まず各部屋の形状を計測器を用いて計測し、その計測結果に基づいて人手でモデル化し、領域ごとにテクスチャを貼り、照明を設定して……と気の遠くなるような作業が必要だった。3D空間の構築は極めてコストの高い作業だったが、近年では2次元画像(実写写真)に基づいた3D空間の構築手法が長足の進歩を遂げており、以前に比べれば極めて低コストに3D空間を構築する事が可能となっている。 【告知】Twitterはじめました。@LunarModule7です。 興味のあるかたはフォローくださいとしばらく宣伝。 今ではバラバラに撮影した写真から、全自動で3D空間を構築し、内部を自由にウォークスルーできるようになっている。ワシントン大学とMicrosoft Reseachが2009年に発表した研究*1は現時点における集大成とも言えるものとなっ

    写真に基づく3D空間構築手法の到達点 - A Successful Failure
  • Web上の膨大な画像に基づく自動画像補完技術の威力 - A Successful Failure

    画像内に映り込んだ所望のオブジェクトを排除し、違和感の無い画像を生成するシーン補完技術に関しては近年複数の研究成果が発表されている。しかし中でも2007年のSIGGRAPHにて米カーネギメロン大のJames HaysとAlexei A. Efrosが発表した手法*1はブレークスルーとなりうる画期的なものだ。 論より証拠、早速適用例を見てみよう。エントリで利用する画像はPresentationからの引用である。元画像の中から邪魔なオブジェクト等の隠蔽すべき領域を指定すると、その領域が補完された画像が自動的に生成される。 アルゴリズム 効果は抜群だがアイデア自体は単純なものだ。Web上には莫大な数量の画像がアップされており、今や対象となる画像の類似画像を一瞬にして大量に検索することができる。そこで、検索された類似画像で隠蔽領域を完全に置き換えてしまうことで違和感の無い補完画像を生成するのだ。

    Web上の膨大な画像に基づく自動画像補完技術の威力 - A Successful Failure
  • Flickrの数万枚の写真から都市の3Dモデルを一日で作る技術 | 秋元@サイボウズラボ・プログラマー・ブログ

    3年前と2年前にMicrosoftが開発しているPhotosynthという技術を紹介しました。複数の写真から共通した部分を発見し、つなぎあわせることでパノラマ写真を作り上げるというものでした。 Photosynthのベースとなっていた研究から、さらに多くの画像を高速に処理できるようになっている様子が、New Scientistでレポートされていました。 上の動画では、ウェブから – 「ローマのコロッセオ」で検索した2000枚の写真をつなげ合わせ、数百台のコンピューターでコロッセオの3Dモデルを作る様子 – 6万枚の写真を22時間で処理して、クロアチアの美しい古都ドブロヴニクのモデルを作成 – 65時間かけてベネチアの3Dモデルを構築 したと報告されています。 Flickrから持ってきた実際のローマの観光地の写真と、その同じ場所のモデルを何枚か並べているページがあるので、ローマの写真をFli

  • JPEGを捨てて街に出よう! RAW画像のススメ

    デジカメユーザーに声を大にして伝えたい! 私はデジタル一眼レフカメラを2005年から使っていて、生まれたばかりの子供とユタ州の渓谷への旅行は全部JPEGフォーマットで写真をとりました。たいがいはJPEGで十分なんですが、今ではRAWで撮らなかったことを激しく後悔してます。 詳しくは続きを読むからどうぞ! まずRAW画像はJPEGの約3倍ファイルサイズが大きく、さらに後処理を施さなければなりません。その代わりにさらなる高画質とフレキシビリティがあり、一長一短です。ところがここ昨今画像処理ソフトウェアの性能向上が著しく、RAW画像の長所は際立ってきましたよ。 そこで最近は友人RAW画像で撮ることをオススメしてます。特に写真が好きで重要なイベント、例えば友人結婚式の写真を撮る人には。 この後にISO 25600で撮影した比較画像をおいておきます。これだけみてもRAW画像の優位性が示せるかちょ

    JPEGを捨てて街に出よう! RAW画像のススメ
  • (前回〜11/07) - デー

    超気合を入れた日記を書いたところ投稿寸前でマウスのもどるボタンを押してしまい、消滅したため箇条書きでテキトウに書きます。 前々回でいう6の部分の話。 作戦 先に進むには視点(正面とか、右斜め上とか)の違いに強い髪型類似検索が必要 人が似ていると感じる基準→視点の変更に影響を受けない、画素の並びとしての画像→視点の変更に非常に影響を受ける イラストは意識的に視点が変えられていることが多いので「正面のみ」と言って逃れる事ができないのでやるしかない この条件はImager::AnimeFace(アニメ顔検出器)のときにもあった 一般画像認識でも様々な視点の違う画像も分類できている←教師ありだからできる SimHash(参照 lsh p-stable) 同じ髪型なら視点が異なっても似たHash値かつ髪形が違うと似てないHash値になるような変換を求めたい(存在する全ての髪型において!) 教師データ

    (前回〜11/07) - デー
  • lsh p-stable

    2. ï ï É»¾ Ù±±¹´» ²»©­ ¿¹®·¹¿¬·±²ÅïÃ î ¹±± ² î í Ñø² ÷ ì ïòï ÔÍØøÔ±½¿´·¬§ Í»²­·¬·ª» Ø¿­¸·²¹÷ ÔÍØ ÔÍØ ïòïæ ï æ î ¸¬¬°æññ©©©ò¿¬³¿®µ·¬ò½±ò¶°ñ²»©­ñîððèïîñðïñ®¿µ«¬»²ò¸¬³´ í ì ÐÔÍ× ÔÜß ï 3. ÔÍØ ×²¼§µ Þ·¬ Í¿³°´·²¹ Ø¿³³·²¹ ÔÍØ Åîà ޮ±¼»® Ó·²ó©·­» ײ¼»°»²¼»²¬ л®³«¬¿ó ¬·±²øÖ¿½½¿®¼ ÔÍØ÷Åíà ݸ¿®·µ¿® ο²¼±³ Ю±¶»½¬·±²ø½±­·²» ÔÍØ÷Åìà ײ¼§µ °ó­¬¿¾´»øÔ° ÔÍØ÷Åëà ë ÉÛÞ ÔÍØ °ó­¬¿¾´» ÔÍØ °ó­¬¿¾´»øÛ«½´·¼ ÷ ο¼±³ Ю±¶

    lsh p-stable
  • ベクトル量子化 - デー

    はてブのコメントを見たのと、僕もbag of keypoints関係の論文を見たときに一瞬で分かったつもりになってそれを信じ続けていたけど不安になったのでググったところ別に間違ってもいなさそうだったので、ここでたまに書いてるベクトル量子化とは何かという話とそれをなぜ使っているのかという話を。(僕なりに) 僕がベクトル量子化と言ったときには、単純には 入力ベクトル→クラスラベル(スカラ) への変換を指している。あらかじめ、K個のクラス(グループ)を定義しておいて、入力ベクトルがどのクラスに属するか推定を行って、属するクラスの番号に変換してしまう。これによって、どんな入力ベクトルも(int)1〜Kのスカラ値に変換できる、というかかなり大雑把だけどそういうことにしてしまう。 具体的な例としては、 まず入力ベクトルとして想定されるデータを適当に集めてそれをk-meansでクラスタリングする。データ

    ベクトル量子化 - デー