[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

nvidiaに関するmofoologのブックマーク (2)

  • CUDAとOpenCLどっちがいいの? - Qiita

    TL;DR: そもそも単純に比べんな。ナイフとノコギリがどっちがいいかなんて一概には言えないだろう? Twitterに書いたら思ったより反応されてるので、もうちょっと解説も兼ねて書いておきます。 なお、この話はtweetにもある通り某所で発表したやつの公開版です。前にも観たって方は内緒にしておいてください。 あと、若干、個人的な偏見を含んでいるかもしれませんが、そのあたりは頑張ってフィルターかけてください。 GeForceやTeslaといった、NVIDIA社のGPUでGPGPUしたい人がまず使うプログラミング環境。実質的にGPGPU界の頂点であり最強であることは否定できません。 ただし、NVIDIAがベンダーロックしていて、標準化はされていません(一応、CUDAのモデルはロイヤリティーフリーで使っても良い)。 CUDA Cという独自拡張されたC言語で、デバイスとホストを同じ.cuファイルに

    CUDAとOpenCLどっちがいいの? - Qiita
  • なぜcuDNNのConvolutionは高速なのか | 射撃しつつ前転

    cuDNNはNVIDIAが公開しているDeep Learning用のライブラリである。このライブラリを使うとCaffeやChainerなどのDeep Learning用のソフトウェアの速度が向上する。 この速度向上に寄与している最も大きな部分がConvolutionの高速化である。 個人的には、CPUでどこまで高速にConvolutionが実現できるのかに興味がある。記事は、その準備段階として、どういう高速化戦略がありえるのかを調べたものである。 ConvolutionとはConvolutionは、日語では畳み込みと呼ばれる操作である。畳み込み操作自体は何次元のデータ構造に対しても定義できるが、以下では、画像処理でよく使われる、二次元のConvolutionのみを考える。 何も考えずに普通にConvolutionを実装すると、以下の擬似コードのようになるだろう。ただし、簡単のため、境界

  • 1