Tweet
|
NVIDIA® GPU Deep Learning (深層学習) 開発環境 構築情報 |
GPU ハードウェア要件 Turing Architecture GPUs |
プロセッサ | ドライバー | CUDA Toolkit | DIGITS | cuDNN |
---|---|---|---|---|---|
Frameworks | |||||
Caffe | theano | torch | BIDMach | Keras |
Another Frameworks |
株式会社アークブレインでは、Deep Learning(深層学習)を研究するための カスタム・オーダーメイドの ワークステーション(GPU × 1~4)や、サーバー(GPU × 1~4)を販売しております。
Intel® Xeon® Scalable Processor 搭載 Arcbrain オリジナル サーバー、ワークステーション製品 最新ラインナップ GPUを使用せず、Intel® Xeon® / Core™ Processor、インテル® Parallel Studio、インテル® MKL(Math Kernel Library) の DNN(Deep Neural Network) プリミティブ、インテル® Distribution for Python® による Deep Learning(深層学習)の開発環境を構築することも可能です。 お気軽に弊社までお見積り依頼をお願いいたします。 ご希望の仕様に合った構成のカスタマイズに、ご対応させていただきます。 |
NVIDIA® Accelerated Computing Developer Program | |||
---|---|---|---|
NVIDIA® Deep Learning の開発環境(NVIDIA® CUDA、NVIDIA® DIGITS™、cuDNN等)を入手するためには、まず、Accelerated Computing Developer Program に登録する必要があります。 https://developer.nvidia.com/accelerated-computing-developer
|
GPU バードウェア要件 - Hardware Requirements | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
NVIDIA® GPU Compute Capability |
NVIDIA® GPU(Graphics Processing Unit) のハードウェア要件としまして、Deep Learningに必要な、DIGITS、cuDNN や Caffe を動作させるためには、CUDA のバージョンは 7.0 以上、 Kepler microarchitecture 以降のアーキテクチャの GPU で、Compute Capability が 3.0 以上である必要があります。 Fermi アーキテクチャー の GPU は、Compute Capability が 2.0 / 2.1 であるため、残念ながら Deep Learning 用には使用することができません。 Tesla GPU である C2075 / C2070 / C2050 は、Fermi アーキテクチャー であり、Compute Capability が 2.0 であるため、同様に Deep Learning 用には使用することができません。 GeForce GPUs with Kepler or higher アーキテクチャー (CUDA 7.5 Installation Guide) CUDA 7.0 and a GPU of compute capability 3.0 or higher are required. (cudnn_install.txt) Kepler は 3.0 ~ 3.5、Maxwell は、5.0 以上となりますので、勿論 Deep Learning 開発様に使用することが可能です。 Pascal アーキテクチャー は、Compute Capability が 6.0 以上となります。 Turing アーキテクチャー は、Compute Capability が 7.0 以上となります。 https://developer.nvidia.com/cuda-gpus
http://docs.nvidia.com/cuda/cuda-c-programming-guide/#compute-capability
http://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#compute-capabilities
※NVIDIA® Deep Learning (深層学習) 開発環境に対応したGPUの例 Tesla K20 (3.5) / K40 (3.5) / K80 (3.7) / M40 (5.2) Quadro 410 (3.0) / K420 (3.0) / K600 (3.0) Quadro K2000 (3.0) / K4000 (3.0) / K4200 (3.0) / K5000 (3.0) / K5200 (3.2) / K6000 (3.5) Quadro K620 (5.0) / K1200 (5.0) / K2200 (5.0) Quadro M2000 (5.2) / M4000 (5.2) / M5000 (5.2) / M6000 (5.2) Quadro NVS 510 (3.0) / 810 (5.0) Jetson TK1 (3.2) / Tegra K1 (3.2) / Tegra X1 (5.2) GT 640 [GDDR5] (3.5) / GTX 650 (3.0) / GTX 660 (3.0) / GTX 670 (3.0) GeForce GTX 750 (5.0) / GTX 760 (5.0) / GTX 770 (5.0) / GTX 780 (5.0) GeForce GTX 950 (5.2) / GTX 960 (5.2) / GTX 970 (5.2) / GTX 980 (5.2) GeForce GTX TITAN (3.5) / GTX TITAN Black (3.5) / GTX TITAN Z (3.5) / GTX TITAN X (5.2) NVIDIA Quadro M6000 24GB (5.2, 24GB GDDR5, 3072 Core, 384bit, 317GB/s, 250W, ECC対応, DVI-Ix1, DP1.4x4)
● NVIDIA® Turing™ Microarchitecture RTX GPU 性能比較一覧表
RTX GPU Specification Comparison List(2019年7月22日現在) 【Turing Microarchitecture 詳細情報】
● NVIDIA® Volta™ アーキテクチャー GPU TITAN V (7.0, 12GB HBM2, CUDA 5120 Core, Tensor 640 Core, 1200 - 1455 MHz, 3072 bit, 652.8 GB/s, TDP 250W) ● NVIDIA® Pascal™ アーキテクチャー GPU ・NVIDIA® GeForce® GPU http://www.nvidia.co.jp/object/geforce_family_jp.html CUDA を高速化、最適化するためは、Pascal Architecture に対応した最新の CUDA + ドライバー が理想的 GeForce GTX 1050 (6.1, 4,2GB GDDR5, 768,640 Core, 1354 - 1445 MHz, TDP 75W~) GeForce GTX 1060 (6.1, 6,3,2GB GDDR5, 1280,1152,1024Core, 1506 - 1708 MHz, TDP 120W~) (GTX の付いた GTX TITAN X は、Pascal ではなく、Maxwell アーキテクチャー となりますので、ご注意ください) GeForce TITAN Xp (6.1, 12GB GDDR5x, 3840 Core, 1,582 MHz, 384bit, 547.7GB/s, 12TFLOPS, 7680x4320@60Hz, TDP 250W) GeForce GTX 1080 Ti (6.1, 11GB GDDR5, 3584 Core, 1480 - 1582 MHz, 352bit, 484GB/s, TDP 250W) GeForce GTX 1050 Ti (6.1, 4GB GDDR5, 768 Core, 1290 - 1390 MHz, 128bit, TDP 75W) ・NVIDIA® Quadro® GPU http://www.nvidia.co.jp/object/quadro-jp.html NVIDIA Quadro GV100 (6.0, 32GB HMB2, 5120 Core, 4096bit, 870GB/s, 250W, ECC対応, DP 1.4x4) NVIDIA Quadro GP100 (6.0, 16GB HMB2, 3584 Core, 4096bit, 732GB/s, 235W, ECC対応, DVI-Ix1, DP 1.4x4) NVIDIA Quadro P6000 (6.1, 24GB GDDR5X, 3840 Core, 384bit, 433GB/s, 250W, ECC対応, DVI-Ix1, DP 1.4x4) NVIDIA Quadro P5000 (6.1, 16GB GDDR5X, 2560 Core, 256bit, 288GB/s, 180W, ECC対応, DVI-Ix1, DP 1.4x4) NVIDIA Quadro P4000 (6.1, 16GB GDDR5, 1792 Core, 256bit, 243GB/s, 105W, ECC対応, DP 1.4x4) NVIDIA Quadro P2000 (6.1, 5GB GDDR5, 1024 Core, 160bit, 140GB/s, 75W, ECC対応, DP 1.4x4) NVIDIA Quadro P1000 (6.1, 4GB GDDR5, 640 Core, 128bit, 80GB/s, 47W, ECC対応, Mini DP 1.4x4) NVIDIA Quadro P400 (6.1, 2GB GDDR5, 256 Core, 64bit, 32GB/s, 30W, ECC対応, Mini DP 1.4x3) ・NVIDIA® Tesla™ GPU http://www.nvidia.co.jp/object/quadro-jp.html Tesla V100 (7.0, 5120 Core, 7TFLOPS(DP), 14TFLOPS(SP), 18.7TFLOPS(HP), 112TFLOPS(DL), 32GB CoWoS HBM2 with ECC, 4096 bit, 1230-1380MHz, 900 GB/s) Tesla P40 (6.1, 12TFLOPS(SP), 47TOPS(INT8), 24GB, 346GB/s, 250W, ECC対応) Tesla P4 (6.1, 5.5TFLOPS(SP), 22TOPS(INT8), 8GB, 192GB/s, 50/75W, ECC対応) (SP:Single Precision 単精度, DP:Double Precision 倍精度, HP:Half Precision 半精度) ※NVIDIA® Deep Learning (深層学習) 開発環境に非対応なGPUの例 Tesla C2050 (2.0) / C2070 (2.0) / C2075 (2.0) / M20xx (2.0) Qudro Plex 7000 (2.0) Qudro NVS 310 (2.0) / NVS 315 (2.0) / NVS 4200M (2.1) / NSV 5200M (2.1) GeForce GT 430 (2.1) / GT 430 (2.1) / GT 440 (2.1) / GTS 450 (2.1) / GTX 460 (2.1) GeForce GT 550 Ti (2.1) / GT 560 Ti (2.1) / GTx 570 (2.0) / GTx 580 (2.0) / GTX 590x (2.0) GeForce GT 610 (2.1) / GT 620 (2.1) / GT 630 (2.1) / GT 640 [GDDR3] (2.1) (GeForce GT 640 GDDR3 は、 NVIDIA® のサイトでは 2.1 となっていましたが、 ELSA GeForce GT 640 LP 2GB GD640-2GERGL は、CUDA 「Device Query」 でチックしたところ 3.0 でした) GeForce GT 730 [DDR3,128bit] (2.1) |
搭載してあるNVIDIA®製GPUの種類は、以下のコマンドにより確認ができますので、もし、NVIDIA®製GPUを搭載されている場合は、確認してみてください。
|
CPU Central Processing Unit |
■ プロセッサのCore数、Thread数 プロセッサの能力は、勿論、高性能であることが理想的ですが、重たい計算の殆どは GPU で処理されるため、そこそこの性能があれば、問題ありません。 マルチGPUシステムの場合でも、1 GPU 当たり、1 Thread でも何とか動作してくれ、2 Thread あれば、問題ないと思われます。 開発環境を構築するときに、ソースをマルチコアを使って高速にコンパイルすることもありますので、できれば インテル@ Core™ i7 クラスのプロセッサがあれば、理想的だと思われます。決して、インテル@ Core™ i5 クラスのプロセッサでは全く使えないというわけではありませんが、Thread数が8から4に減少してしまいますので、コンパイル時間は、最大2倍の時間がかかってしまう恐れがあります。 インテル@ Core™ i7 プロセッサには、通常のデスクトップ用の 第6世代 Core™ i7-6600 番台(Skylake) と、ハイエンド・デスクトップ用の Core™ i7 6000 番台(Broadwell-E) があります。 デスクトップ・サーバー用に、Intel® Xeon® Processor E3 v5 Family (Skylake、E3-12xx v5) というプロセッサがありますが、デスクトップ用の第6世代 Core™ i7-6600 番台(Skylake)と比較した場合、メモリがECC UDIMM(Error Check and Correct Unbuffered Dual Inline Memory Module) に対応しており、メモリの信頼性が高いというのが、大きな特徴ですが、プロセッサとしての性能はほとんど変わりありません。 ■ プロセッサの「PCI Express レーンの最大数」 注意点としまして、通常のデスクトップ用のプロセッサは、「PCI Express レーンの最大数」が、16しかない点です。 GPUを2本から、最大4本搭載可能なマザーボードがありますが、4本搭載した場合は PCI Express x4 での動作となってしまいます。( x4 * 4 GPU = x16) 尚、PCI Express Gen.(Generation)3.0 は、1レーンあたり 1GB/sec.(一方向あたり) の転送帯域がありますので、x16 の場合は、16GB/sec. という転送帯域となります。 マザーボードに、PCI Express Gen.3.0 x16 のスロットが、2本以上あったとしても、2本のGPUを刺したり、GPU以外の PCI Express カードを取り付けた場合、x8 にレーン数が減ってしまいます。(PC起動時に、マザーボードが自動設定)。また、スロットによっては、形状は x16 ですが、x8 でしか動作しない場合があり、取付時には x16 にGPUが搭載されたかどうかを確認する必要があります。 x8 の動作となりますと、プロセッサとGPU間のデータ転送速度が半分に落ちてしまいます。 一方、ハイエンド・デスクトップ用の インテル® Core™ i7 プロセッサ は、最下位のクラスのものを除いて、インテル@ Xeon@ プロセッサと同様に、「PCI Express レーンの最大数」は40もあります。(Broadwell-E / EPの場合) また、メモリは Quad Channel (メモリは4枚単位で増設) に対応しており、デスクトップ用プロセッサの Dual Channel (メモリは2枚単位で増設) の倍のメモリ転送速度があります。 そのため、2本のGPU迄であれば、各GPUは x16 の速度で動作させることが可能です。 ここで注意していただきたいのですが、一番下位のクラスの Core™ i7- 6800K プロセッサ は、「PCI Express レーンの最大数」が28しかありませんので、2本目のGPUは、PCI Express x8 でしか動作できません。 NVIDIA DIGITS DEVBOX (Deep Learning 開発用のリファレンスPC)で採用されているような、ASUS X99-E WS というマザーボードには、4本の PCI Express 3.0 x16 スロットがありますが、もし、4本のGPUを搭載した場合は、x16 モードでは動作せず、x8 モードで動作することになります。(40 - (8 * 4) = 残り 8 Lane) ●ハイエンド・デスクトップ用の インテル@ Core™ i7 プロセッサの比較 http://ark.intel.com/ja/compare/94456,94196,94188,94189
http://ark.intel.com/ja/products/codename/80341/Broadwell-E
Intel® Xeon® Processor E5 v4 Family の場合は、一番最下位のクラスの「E5-1620 v4」や「E5-2603 v4」でも、「PCI Express レーンの最大数」は40あります。 http://ark.intel.com/ja/products/family/91287/Intel-Xeon-Processor-E5-v4-Family#@Server
DP(Dual Processor)対応のワークステーション、サーバーであれば、40×2=80Lane になりますので、4本のGPUを全て、PCI Express x16 モードで動作させることが可能となります。(80 - (16 * 4) = 16 Lane) また、Intel® Xeon® Processor E5 v4 Family は、ECCに対応した RDIMM(Registered DIMM) に対応しており、1プロセッサあたり、何と 1536GB ものメモリ(128GB 3DS LRDIMM: 128GB × 12枚) を搭載することが可能です。 2CPUであれば、最大3072GBものメモリを搭載することができます。 ■ プロセッサのキャッシュ容量 CPUとGPU間のデータ転送を考慮しますと、プロセッサのキャッシュ容量は、なるべく多い方が理想的です。 一言にキャッシュと言っても、キャッシュには、1次キャッシュ(32KB程度)、2次キャッシュ(256KB程度)、3次キャッシュ(8~55MB程度)がありますが、通常は容量の一番多い3次キャッシュのことを言います。 通常のデスクトップ用の 第6世代 Core™ i7-6600 番台(Skylake)のプロセッサのキャッシュは、僅か 8MB しかありません。 Intel® Xeon® Processor E3 v5 Family (Skylake、E3-12xx v5) も同様です。 ハイエンド・デスクトップ用の Core™ i7 6000 番台(Broadwell-E) の場合は、最下位の i7-6800K でも 15MB あります。(i7-6850K も同じ 15MB) 上位クラスの i7-6900K は 20MB、非常に高価ですが、最上位の i7-6950X は 20MB もあります。 インテル® Xeon® プロセッサ(Broadwell-EP) の場合、UP(Uni Processor)対応の Xeon® E5-1620 v4 / E5-1630 v4 は、僅か 10MB しかありません。 できれば、15MBある E5-1650 v4 や、20MB ある E5-1660 v4 以上を選択したいところです。 DP(Dual Processor)対応の Xeon® E5-26xx v4 プロセッサの場合は、一番最下位の E5-2603 v4 でも 15MB のキャッシュがあります。中には、E5-2623 v4 のように 10MB しかないものもかありますが、E5-2630 v4 以上のプロセッサは、キャッシュが 25MB (最大55MB)もあり、CPU~GPU間の速度は向上するものと考えられます。 ■ プロセッサの動作周波数 プロセッサの動作周波数のことが、一番最後になってしまいましたが、勿論速ければ速い方が理想的です。 しかしながら、深層学習の計算は、プロセッサに処理時間のかかる浮動小数点演算を大量に行わせる訳ではありませんので、あまり大きな問題ではありません。 それよりも、GPUとの間で高速にデータをやりとりすることが重要となりますので、Thread数とか、キャッシュ容量の方を優先してください。 ■ まとめ(プロセッサ) GPUの場合は、Compute Capability は 3.0 以上という条件がありますが、プロセッサの方は厳密な規定はありません。
https://developer.nvidia.com/deep-learning-getting-started 開発環境を構築するのに少々時間はかかってしまい、決して快適な環境とは言えませんが、極端な話、インテル® Core™ i3 プロセッサや、これ以下の仕様の Pentium®、Celeron® プロセッサでも、Deep Learning 開発マシンを構築することは可能です。 そのため、第6世代 Core™ i7-6600 番台(Skylake)や、Intel® Xeon® Processor E3 v5 Family (Skylake、E3-12xx v5)でも、GPUは一枚しか搭載しないという条件であれば、全く問題なく Deep Learning 用のPCとして使うことが可能です。 しかしながら、最初から GPU を 2枚は搭載したいという場合や、将来、2枚に増設するかもしれないという場合は、[PCI Express レーンの最大数]が40レーンある ハイエンド・デスクトップ用プロセッサ(Core™ i7-6800K、5820K を除く) や、 Intel® Xeon® Processor E5-2600 v4 Product Family を選択してください。 GPU を 3枚、4枚 搭載したいという場合は、 Intel® Xeon® Processor E5-2600 v4 Product Family を2基搭載した DP(Dual Processor)サーバーや、100万円を軽く超えてしまう かなり高価なサーバーとなりますが、 Intel® Xeon® Processor E5-4600 v4 Product Family を4基搭載した MP(Multi Processor )サーバーが必要となります。 ※ 参考ページ A Full Hardware Guide to Deep Learning (Tim Dettmers) ※ GPUを搭載していないけど、何とか CPUだけで Deep Learning を体験してみたいという方は、こちらを参考にしてみてください。 GPUなしのNVIDIA DIGITS3で始めるDeepLearning ソースからのコンパイルが必要ですが、DIGITS 4.0 も、GPU無しで動作するはずです。 代表的な Deep Learning の Frameworks である Caffe も、デフォルトでは、GPU無しで動作する設定になっています。 ※ インテル® Xeon® プロセッサや、Xeon® Phi™ x200 プロセッサ(Knights Landing)を使用した場合の Deep Learning 開発に関しての情報はこちらをご覧ください。 |
---|
NVIDIA® CUDA GPU driver | |||||
---|---|---|---|---|---|
最新 CUDA GPU ドライバーのインストール |
NVIDIA® CUDA をインストールする前に、必ず NVIDIA® のドライバーのバージョンを確認してください。 最新のアーキテクチャーである Pascal Architecture を採用した GPU を使用した場合、 このアーキテクチャーに対応した最新のドライバーをインストールしませんと、ディープラーニングを高速化、並びに最適化することができないことがあります。 また、Pascal Architecture の GTX 1080 のような 最新のGPU を Linux® や Microsoft® Windows® をインストールした直後は、GPUのドライバーが自動的には入らず、文字入力も操作が重たくなってしまい、満足にできないようなことになってしまうことがあります。 NVIDIA® CUDA をインストールしますと、CUDAに付属の少し古いドライバーに戻ってしまいますが、OSのアップデートが一通り終わりましたら、画面がサクサク動いてくれるように、まず、最新のGPUドライバーをインストールすることをお勧めいたします。 $ cat /proc/driver/nvidia/version
NVRM version: NVIDIA UNIX x86_64 Kernel Module 367.35 Mon Jul 11 23:14:21 PDT 2016GCC version: gcc version 4.8.4 (Ubuntu 4.8.4-2ubuntu1~14.04.3) 各GPU用の最新の Long Lived Driver は以下より、ダウンロードすることができます。 http://www.nvidia.co.jp/Download/index.aspx?lang=jp
Warning: Use of undefined constant php - assumed 'php' (this will throw an Error in a future version of PHP) in /virtual/htdocs/public_html/support/NVIDIA/Deep_Learning/Driver/NVIDIA_Deep_Learning_common_Driver.php on line 29 ●GeForce / Quadro 用 Version 384.69 2017.8.22 Linux 64-bit Japanese 77.06 MB NVIDIA-Linux-x86_64-384.69.run 2017.8.22
http://www.nvidia.co.jp/download/driverResults.aspx/123199/jp
•Added support for the following GPU(s):Quadro P4000 with Max-Q Design •Fixed an intermittent hang when using Vulkan to present directly to display with the VK_KHR_display extension. SteamVR was particularly affected by that hang. •Disabled G-SYNC in desktop environments, such as Budgie, that use libmutter-0.so. An existing rule to disable G-SYNC for libmutter.so no longer applied after the library was renamed to libmutter-0.so. •Updated nvidia-installer to label kernel modules with SELinux file type 'modules_object_t'. Some system SELinux policies only permit loading of kernel modules with this SELinux file type. •Removed support for checking for and downloading updated driver packages and precompiled kernel interfaces from nvidia-installer. This functionality was limited to unencrypted ftp and http, and was implemented using code that is no longer actively maintained. ●GeForce / Quadro 用 Version 375.39 2017.2.14 Linux 64-bit Japanese 73.68 MB NVIDIA-Linux-x86_64-375.39.run 2017.2.14
http://www.nvidia.co.jp/download/driverResults.aspx/114941/jp
•Added support for the following GPU(s):Quadro GP100 Quadro P4000 Quadro P2000 Quadro P1000 Quadro P600 Quadro P400 Quadro M1200 Quadro M2200 •Fixed a bug that caused system hangs when resuming from suspend with some GPUs. •Fixed a regression that could cause corruption when hot-plugging displays. •Fixed a regression that prevented systems with multiple DisplayPort monitors from resuming correctly from suspend. NVIDIA-Linux-x86_64-367.44.run 2016.8.23
http://www.nvidia.co.jp/download/driverResults.aspx/106804/jp
•Added support for the following GPUs:TITAN X (Pascal) GeForce GTX 1060 6GB GeForce GTX 1060 3GB •Fixed a regression that caused applications using indirect GLX to crash. •Fixed a regression introduced in 367.35 that caused the first modeset of the X server to display blank if the features requested in the X configuration file enabled the X driver's composition pipeline. This would be triggered, e.g., by MetaMode tokens such as ForceCompositionPipeline, ForceFullCompositionPipeline, Rotation, Reflection, and Transform. NVIDIA-Linux-x86_64-352.99.run 2016.8.1
http://www.nvidia.co.jp/download/driverResults.aspx/105667/jp
『NVIDIA® DIGITS™』をインストルする前提条件として以下のように、NVIDAドライバーのバージョンは、346またはそれ以降である必要があると規定されています。 NVIDIA driver version 346 or later. If you need a driver go to http://www.nvidia.com/Download/index.aspx
Linux x86_64/AMD64/EM64T ドライバー ●最新(2017/09/02時点)のLong Lived Branch バージョン: 384.69 2017.8.22 •Added support for the following GPU: Quadro P4000 with Max-Q Design ●最新(2017/04/08時点)のLong Lived Branch バージョン: 375.39 2017.2.14 •Added support for the following GPU(s): Quadro GP100, P4000, P2000, P1000, P600, P400, M1200, M2200 ●最新の Short Lived Branch バージョン: 378.13 2017.2.3 •Added support for the following GPU(s): Quadro P3000 Quadro GP100 Quadro P4000 Quadro P2000 Quadro P1000 Quadro P600 Quadro P400 Quadro M1200 Quadro M2200 Linux AMD64 Display Driver Archive http://www.nvidia.co.jp/object/linux-amd64-display-archive-jp.html 384.59 2017/07/24 375.82 2017/07/24 Ubunt に nvidia の 最新のGraphics Driver をインストール場合、必ず PPA(Personal Package Archives) repository を使用して、最新のドライバーをインストールしてください。 Linux の kernel には、標準で nouveau という NVIDIA の互換ドライバー(3Dのアクセラレーション無し) が組み込まれてあり、これが使用されています。 Runlevel 3 にて、 NVIDIA-Linux-x86_64-375.39.run
(GeForce Linux 64bit 用ドライバー) のようなドライバーを直接インストールしないでください。nouveau が影響して、X-Window が正常に起動しなくなってしまいます。 また、ubuntu の場合、〔System Tools〕 → 〔システム設定(System Settings)〕 → 〔Additional Drivers〕 で、グラフィックス・ドライバーのバージョン管理をしていますが、直接インストールしてしまいますと、矛盾が生じてしまいます。 こちらのサイトに解説されているように、Repositoty を使ってインストールしますと、Ubuntu に正しく NVIDIA® のドライバーをインストールすることができます。 http://ubuntuhandbook.org/index.php/2016/07/nvidia-367-35-how-to-install/
確認のため、インストールされた NVIDIA のドライバーのバージョンを確認してください。
|
NVIDIA® CUDA Toolkit https://developer.nvidia.com/cuda-toolkit |
|||
---|---|---|---|
CUDA Toolkit |
GPU(Graphics Processing Unit)は、本来、Microsoft® DirectX® や OpenGL® といったグラフィックス・ライブラリーによる描画を高速化するための、数百Coreからなる描画専用のプロセッサでしたが、それではもったいないということで、通常のプロセッサと同じように、汎用計算をさせることをできるようにしたものが CUDA(Compute Unified Device Architecture)です。 CUDA 1.0 は、2007年6月のリリースとなります。(CUDA Toolkit Archive) CUDA は、NVIDIA®が提供する並列コンピューティング アーキテクチャ、統合開発環境です。 nvcc(NVIDIA CUDA Compiler)というコンパイラや、ライブラリなどから構成されています。 |
||
CUDA Toolkit 7.5 (Does not support for Pascal based GeForce GTX 1080) https://developer.nvidia.com/cuda-downloads
NVIDIA CUDA Installation Guide for Linux http://docs.nvidia.com/cuda/cuda-installation-guide-linux/
|
CUDA Toolkit 8.0 https://developer.nvidia.com/cuda-downloads
(support for Pascal Architecture GPU like GTX 1080)•Pascal Architecture Support •Out of box performance improvements on Tesla P100, supports GeForce GTX 1080 ベータ版、RC(Release Candidate)をダウンロードする場合。 https://developer.nvidia.com/cuda-release-candidate-download
(要 NVIDIA® Accelerated Computing Developer Program にメンバー登録)CUDA QUICK START GUIDE (PDF) DU-05347-301_v8.0 | September 2016 NVIDIA CUDA TOOLKIT 8.0 (PDF) RN-06722-001_v8.0 | May 2016 Release Notes for Windows, Linux, and Mac OS |
CUDA Toolkit 9.0 (2017年9月) https://developer.nvidia.com/cuda-downloads 最適化とヒューリスティクス(体験学習)により、最大5倍に高速化されたライブラリ。 Volta GPU、NVLinkおよびHBM2では、HPCアプリケーションを最大1.5倍高速化 CUDA Toolkit 9.0 Release Notes NInstalling the CUDA Toolkit (Youtube) Introduction to CUDA Getting Started with CUDA Discover CUDA 9 Capabilities |
|
CUDA Toolkit 対応 OS |
RHEL 7 / 6 CentOS 7 / 6 Ubuntu 14.04 LTS Ubuntu 15.04 |
RHEL 7 / 6 CentOS 7 / 6 Ubuntu 14.04 LTS (~2019/04) Ubuntu 16.04 LTS (~2021/04) 14.04 の最新バージョンは、14.04.4 LTS、kernel のバージョンは、4.2.0-42-generic です。(14.04 の 初期 kernel は 3.13) 16.04 の最新バージョンは、16.04.1 LTS、kernel のバージョンは、4.4.0-36-generic です。 |
RHEL 7 / 6 CentOS 7 / 6 Ubuntu 16.04 LTS (~2021/04) 16.04 の最新バージョンは、16.04.1 LTS、kernel のバージョンは、4.4.0-36-generic です。 Ubuntu 17.04 LTS (~2018/07) 17.04 のサポート期間は、16.04よりも短くなります。 |
CUDA をインストールしますと、たとえ CUDA 9.0 であっても、GPUのドライバーは少し古いバージョンに戻ってしまうことがあります。 $ cat /proc/driver/nvidia/version 上記のコマンドにより、GPUのドライバーのバージョンを確認し、もし、最新のGPUドライバーではない場合は、下記のように、最新のGPUドライバーを再インストールしてから、PCを再起動してください。 (Ubuntu の場合) $ sudo apt-get install nvidia-384 --reinstall (384は、2017年10月7日時点での、最新ドライバーのバージョンです) $ sudo reboot もし、何かの理由により、上書き再インストールで、動作がおかしい場合は、一度、NVIDIAのドライバーを完全にアンインストールしてから、新規にインストールしなおしてください。 $ sudo apt-get --purge remove nvidia-* |
NVIDIA® DIGITS™ The NVIDIA® Deep Learning GPU Training System |
|||
---|---|---|---|
NVIDIA® DIGITS™ |
NVIDIA® が作成、公開した、ディープラーニングのモデルをトレーニングするためのWebアプリ(オープンソース) https://developer.nvidia.com/digits
Interactively manage data and train deep learning models for image classification without the need to write code.Download https://developer.nvidia.com/rdp/digits-download
DDIGITS™ に対応している Deep Learning Frameworks は、2016年9月現在、NVCaffe(本家のBVLC/caffeからフォーク) に加えて、touch 等に対応しています。 尚、DIGITS™ をインストールするためには、Caffe のインストールが必須条件となります。(torch のインストールは、任意となりますが、インストールしないと不具合が発生することが多く、基本的に同時インストールをお勧めします) 基本的には、GPUが必須ですが、Caffe も含めて、一応、GPU無しでも開発環境は構築可能です。(無しだと、実用的な速度が出ません)(参考ページ) |
||
DIGITS™ 2 (2015/09/08) DIGITS™ v2.0.0 for Ubuntu 14.04 LTS NVIDIA driver version 346 or later. https://github.com/NVIDIA/DIGITS/releases/tag/v2.0.0
Getting Started https://github.com/NVIDIA/DIGITS/blob/digits-2.0/docs/GettingStarted.md
Installation Instructions https://github.com/NVIDIA/DIGITS/blob/digits-2.0/docs/WebInstall.md
DIGITS™ 1 2015/06/26
DIGITS™ v1.1.2 for Ubuntu 14.04 LTS |
DIGITS 3 (2016/02/10) DIGITS v3.0.0 for Ubuntu 14.04 LTS https://developer.nvidia.com/rdp/digits-download
Getting Started https://github.com/NVIDIA/DIGITS/blob/digits-3.0/docs/GettingStarted.md
Installation Instructions https://github.com/NVIDIA/DIGITS/blob/digits-3.0/docs/UbuntuInstall.md
https://github.com/NVIDIA/DIGITS/blob/master/docs/UbuntuInstall.md
DIGITS 2.0までは、インストーラーにより インストールしましたが、DIGITS 3.0 からは、NVIDIA CUDA 7.5 リポジトリ と Machine Learning リポジトリ を登録して、インストールする方法に変更となりました。https://github.com/NVIDIA/DIGITS/blob/digits-3.0/docs/UbuntuInstall.md#repository-access
https://github.com/NVIDIA/DIGITS/releases/tag/v3.0.0
|
||
DIGITS™ 4 (2016/08/10) DIGITS™ v4.0.0 for Ubuntu 14.04 LTS (~2019/04) DIGITS v4.0.0 は、2016年8月10日にリリースされました。 NVIDIA CUDA Repository for Linux http://developer.download.nvidia.com/compute/cuda/repos/
※まだ、Ubuntu 15.04 迄の対応で、Ubuntu 16.04 には未対応です。※また、CUDA 7.5 には対応していますが、CUDA 8.0 にも未対応です。 Building DIGITS from source https://github.com/NVIDIA/DIGITS/blob/digits-4.0/docs/GettingStarted.md
DIGITS™ v4.0.0 for Ubuntu 14.04 LTS – Repository Access https://github.com/NVIDIA/DIGITS/blob/digits-4.0/docs/UbuntuInstall.md#repository-access
Release Notes https://github.com/NVIDIA/DIGITS/releases/tag/v4.0.0
Bugfixes•Made device_query compatible with CUDA 8.0 (#890) Digits and Ubuntu 16.04 LTS Source code (zip) Source code (tar.gz) Building DIGITS from source code Download source form Git # example location - can be customized
Build Caffe from source (required) build torch7 from source (suggested) (インストールしないと、DIGITSがエラーで止まること多々あり) ※ ソースからコンパイルするすれば、Ubuntu系のLinuxである、Linux Mint 18 でも、DIGIT、Caffe、tourch は動作することを確認しました。しかしながら、一部 環境変数 $DISTRO により utuntu かどうかをチェックする箇所があり、修正が必要です。 ==> Only Ubuntu, elementary OS, Fedora, Archlinux and CentOS distributions are supported. CentOS 7.2-1511 でも、Ubuntu 16.04 と同様に、ソースから yum を使ってインストールすることが可能ですが、Linux Mint 18 以上に、各種のスクリプトが途中で止まってしまいます。時には、ヘッダー・ファイルが不足しているというようなエラーが出で止まってしまうこともあります。 標準でサポートされていないディストリビューションにインストールする場合は、そのままでは動作しないことを前提に、自己責任でお願いします。 |
DIGITS™ 5 (2017/01/01) DIGITS™ v5 for Ubuntu 14.04 LTS (~2019/04) Ubuntu 16.04 LTS (~2021/04) 2017年2月1日に、最新版の DIGITS v5 がリリースされました。 NVIDIA CUDA Repository for Linux http://developer.download.nvidia.com/compute/cuda/repos/
※Ubuntu 16.04 に対応した最初のバージョンです。※また、CUDA 8.0 にも対応した最初のバージョンです。 Building DIGITS from source https://github.com/NVIDIA/DIGITS/blob/digits-5.0/docs/GettingStarted.md
DIGITS™ v5 for Ubuntu 14.04 LTS – Repository Access https://github.com/NVIDIA/DIGITS/blob/digits-5.0/docs/UbuntuInstall.md#repository-access
Release Notes https://github.com/NVIDIA/DIGITS/releases/tag/v5.0.0
Bugfixes•Made device_query compatible with CUDA 8.0 (#890) Digits and Ubuntu 16.04 LTS Source code (zip) Source code (tar.gz) Building DIGITS from source code Download source form Git # example location - can be customized
Build Caffe from source (required) build torch7 from source (suggested) |
||
■ DIGITS Server の起動 Development mode
Production mode
|
|||
DIGITS user group |
https://groups.google.com/forum/#!forum/digits-users
|
NVIDIA® cuDNN CUDA Deep Learning Neural Network library |
|||
---|---|---|---|
cuDNN |
「cuDDN」は、Deep Neural Network(DNN)開発用のライブラリです。 Deep Learning for Computer Vision with Caffe and cuDNN Accelerate Machine Learning with the cuDNN Deep Neural Network Library https://devblogs.nvidia.com/parallelforall/accelerate-machine-learning-cudnn-deep-neural-network-library/
Deep Learning for Computer Vision with Caffe and cuDNN https://devblogs.nvidia.com/parallelforall/deep-learning-computer-vision-caffe-cudnn/
|
||
cuDNN Download |
cuDNN の各バージョンのライブラリ、「cuDNN User Guide」、「cuDNN Install Guide」等をダウンロードするためには、まず 『NVIDIA® Accelerated Computing Developer Program』 に登録する必要があります。Download cuDNN https://developer.nvidia.com/rdp/cudnn-download
|
||
Download cuDNN v7.0.3 (Sept. 28, 2017), for CUDA 9.0 Download cuDNN v7.0.3 (Sept. 28, 2017), for CUDA 8.0 Download(要ログイン) cuDNN v7.0.3 Library for Linux cuDNN v7.0.3 Library for Windows 7 cuDNN v7.0.3 Library for Windows 10 cuDNN v7.0.3 Library for OSX |
|||
|
Download cuDNN v5 (May 27, 2016), for CUDA 8.0 |
||
Download cuDNN v4 (Feb 10, 2016), for CUDA 7.0 and later. |
Download cuDNN v5 (May 12, 2016), for CUDA 7.5 |
||
Download cuDNN v5.1 (August 10, 2016), for CUDA 8.0 ■ cuDNN インストールの手順
|
Download cuDNN v6.0 (March 23, 2017), for CUDA 8.0 ------------------------------------------------------- 用意されてある、ドキュメント、ライブラリ 一覧 ------------------------------------------------------- 1,363 cudnn_install.txt 2,164,585 CUDNN_Library_User_Guide.pdf 201,237,786 cudnn-8.0-linux-ppc64le-v6.0.tgz 201,123,192 cudnn-8.0-linux-x64-v6.0.tgz 199,371,991 cudnn-8.0-osx-x64-v6.0.tgz 106,498,131 cudnn-8.0-windows10-x64-v6.0.zip 106,498,663 cudnn-8.0-windows7-x64-v6.0.zip 59,878,988 libcudnn6-dev_6.0.20-1+cuda8.0_amd64.deb 59,822,252 libcudnn6-dev_6.0.20-1+cuda8.0_ppc64el.deb 4,577,756 libcudnn6-doc_6.0.20-1+cuda8.0_amd64.deb 6,566,942 libcudnn6-doc_6.0.20-1+cuda8.0_ppc64el.deb 68,493,506 libcudnn6_6.0.20-1+cuda8.0_amd64.deb 68,447,948 libcudnn6_6.0.20-1+cuda8.0_ppc64el.deb ------------------------------------------------------- ■ cuDNN インストールの手順
|
||
Download cuDNN v5.1 (August 10, 2016), for CUDA 7.5 |
Download cuDNN v6.0 (March 23, 2017), for CUDA 7.5 |
Deep Learning Frameworks 深層学習フレームワーク https://developer.nvidia.com/deep-learning-frameworks
|
|||
---|---|---|---|
|
Deep learning framework by the BVLC (Berkeley Vision and Lerning Center) http://caffe.berkeleyvision.org/
NVIDIA® Caffe https://developer.nvidia.com/taxonomy/term/690
http://caffe.berkeleyvision.org/installation.html
Caffe is a deep learning framework made with expression, speed, and modularity in mind. Caffe is developed by the Berkeley Vision and Learning Center (BVLC), as well as community contributors and is popular for computer vision. Caffe supports cuDNN v5 for GPU acceleration. (まだ、CuDNN v6 は、正式サポートされていません) Supported interfaces: C, C++, Python(インストール時に Version 2 / 3 を要選択), MATLAB, Command line interface Learning Resources •Deep learning course: Getting Started with the Caffe Framework •Blog: Deep Learning for Computer Vision with Caffe and cuDNN http://caffe.berkeleyvision.org/installation.html
■ Ubuntu 12.04 の場合 Download ZIP https://github.com/BVLC/caffe/
Install git $ cd $ sudo apt-get install git Install caffe $ git clone https://github.com/BVLC/caffe.git Compilation with Make $ cd caffe $ cp Makefile.config.example Makefile.config cnDNN を使用して高速化をする場合は、Makefile.config の Line 5 の 冒頭の#を取ってください。 # USE_CUDNN := 1 ↓ USE_CUDNN := 1 ●Compilation Make コマンドにより、コンパイルしてください。 $ make all 6-Core/12-Thread 対応のハイエンド・デスクトップ用の Intel@ Core™ i7 processor (i7-6980K、i7-6985K等)の場合、-j12 と指定しますと、プロセッサの全ての Thread を使用して最大の能力を使って、高速にコンパイルができます。 $ make -j12 all $ make -j12 test $ make -j12 runtest 以上のテストが全てOKとなれば、 Caffe の環境構築は終了となります。 Ubunt 16.04 の場合は、NVIDIA DIGITS 4.0 / 5.0 を ソースからビルドするときに、こちらのページの指示に従って、Caffe をビルドしておく必要があります。 Build Caffe from source using Git 最新版の ubuntu 16.04.3 日本語版では、何とか コンパイルは通過しても、リンカー ld が異常終了して、Core Dump してしまいます。(BLVC、NVIDIA版の両方とも) どちらかというと、NVIDIA版の方が、警告の表示が少なく、お勧めです。 どうしても、日本語の環境で ld が異常終了してしまう場合、英語版を試してみてください。 |
||
Caffe2 is a deep learning framework enabling simple and flexible deep learning. Built on the original Caffe, Caffe2 is designed with expression, speed, and modularity in mind, allowing for a more flexible way to organize computation. Caffe2 supports cuDNN v5.1 for GPU acceleration. Supported interfaces: C++, Python Learning ResourcesDownload Caffe2   Download cuDNN |
|||
https://docs.microsoft.com/en-us/cognitive-toolkit/Setup-CNTK-on-your-machine
Microsoft® The Computational Network Toolkitunified deep-learning toolkit from Microsoft Research that makes it easy to train and combine popular model types across multiple GPUs and servers. The Microsoft Cognitive Toolkit —previously known as CNTK— is a unified deep-learning toolkit from Microsoft Research that makes it easy to train and combine popular model types across multiple GPUs and servers. Microsoft Cognitive Toolkit implements highly efficient CNN and RNN training for speech, image and text data. Microsoft Cognitive Toolkit supports cuDNN v5.1 for GPU acceleration. Supported interfaces: Python, C++, C# and Command line interface Download CNTK   Download cuDNN |
|||
Googleが開発した データフローグラフを用いた DeepLearning、人工知能、多層ニューラルネットワーク、数値計算のためのソフトウェアライブラリ。2015年11月、オープンソース公開されました。 https://www.tensorflow.org/install/#download-and-setup
Software library for numerical computation using data flow graphs, developed by Google’s Machine Intelligence research organization.
TensorFlow is a software library for numerical computation using data flow graphs, developed by Google’s Machine Intelligence research organization. TensorFlow supports cuDNN v5.1 for GPU acceleration. Supported interfaces: C++, Python Download TensorFlow   Download cuDNN |
|||
|
http://deeplearning.net/software/theano/
Theano is a math expression compiler that efficiently defines, optimizes, and evaluates mathematical expressions involving multi-dimensional arrays. Theano supports cuDNN v5 for GPU acceleration. Supported interfaces: Python Learning resources •Deep learning course: Getting Started with the Theano Framework https://pypi.python.org/pypi/Theano
Download Theano-0.8.2.tar.gz
Download Theano-0.9.0.tar.gz
Optimizing compiler for evaluating mathematical expressions on CPUs and GPUs. Theano is a Python library that allows you to define, optimize, and efficiently evaluate mathematical expressions involving multi-dimensional arrays. It is built on top of NumPy. |
||
|
http://torch.ch/
Torch is a scientific computing framework that offers wide support for machine learning algorithms. Torch supports cuDNN v5 for GPU acceleration. Supported interfaces: C, C++, Lua Learning resources •Deep learning course: Getting Started with the Torch Framework •Blog: Understanding Natural Language with Deep Neural Networks Using Torch https://github.com/soumith/cudnn.torch
■ Ubuntu 12.04 の場合 Download ZIP https://github.com/torch/torch7
torch7-nv は、0.9.92 から 0.9.98-1+cuda7.5 にアップデート Ubunt 16.04 の場合は、NVIDIA DIGITS 4.0 / 5.0 を ソースからビルドするときに、こちらのページの指示に従って、torch7 をビルドしておくおくことが、推奨されています。(インストールしませんと、DIGITS がエラーとなることが多々ありますので、基本的には必ずインストール) Build torch from source using Git |
||
http://mxnet.readthedocs.io/en/latest/how_to/build.html
Deep learning framework designed for both efficiency and flexibility that allows you to mix the flavors of symbolic programming and imperative programming to maximize efficiency and productivity.
MXnet is a deep learning framework designed for both efficiency and flexibility that allows you to mix the flavors of symbolic programming and imperative programming to maximize efficiency and productivity.
MXnet supports cuDNN v5 for GPU acceleration. Supported Interfaces: Python, R, C++, Julia Download MXnet   Download cuDNN |
|||
Preferred Networks/Preferred Infrastructure が開発した日本製の深層学習フレームワーク。 、ニューラルネットワークを実装するためのライブラリ define-by-runの原則の上に設計されており、ランタイムでのネットワーク修正が可能で、任意の制御フローステートメントを使えるようになります http://chainer.org/
A Powerful, Flexible, and Intuitive Framework of Neural NetworksPythonで動作し、実行にはCUDAが必須となります。 https://github.com/pfnet/chainer
Deep learning framework that’s designed on the principle of define-by-run.$ sudo pip install chainer Chainer is a deep learning framework that’s designed on the principle of define-by-run. Unlike frameworks that use the define-and-run approach, Chainer lets you modify networks during runtime, allowing you to use arbitrary control flow statements. Chainer supports cuDNN v5.1 for GPU acceleration. Supported Interfaces: Python Download Chainer   Download cuDNN |
|||
BIDMach |
Welcome to the BID Data Project! Here you will find resources for the fastest Big Data tools on the Web. See our Benchmarks on github. BIDMach running on a single GPU-equipped host holds the records for many common machine learning problems, on single nodes or clusters. Try It! BIDMach is an interactive environment designed to make it extremely easy to build and use machine learning models. BIDMach runs on Linux, Windows 7&8, and Mac OS X, and we have a pre-loaded Amazon EC2 instance. See the instructions in the Download Section. Develop with it. BIDMach includes core classes that take care of managing data sources, optimization and distributing data over CPUs or GPUs. It’s very easy to write your own models by generalizing from the models already included in the Toolkit. Download http://bid2.berkeley.edu/bid-data-project/download/
Download Source https://github.com/BIDData/BIDMach
The BID Data Suite is freely available under a BSD-style license. Complete bundles for Linux, Windows and Mac are available here. BIDMat is a self-contained matrix toolkit. BIDMach uses BIDMat as a library but includes it in the bundle, so you dont need to download BIDMat as well. The basic bundles require Java 1.7, and for GPU use, CUDA 7.0. If you want to use the IScala notebooks, you need a recent version of IPython installed. The current release is Version 1.0.3. •BIDMach 1.0.3 for 64-bit Linux •BIDMach 1.0.3 for 64-bit windows •BIDMach 1.0.3 for 64-bit Mac OSX •BIDMat 1.0.3 for 64-bit Linux •BIDMat 1.0.3 for 64-bit windows •BIDMat 1.0.3 for 64-bit Mac OSX Full bundles which include the CUDA 7.0 runtime. •BIDMach 1.0.3 for 64-bit Linux •BIDMat 1.0.3 for 64-bit Linux CUDA 7.5、8.0 を使用する場合は、Github よりソースを入手し、コンパするする必要あり。 Source code is available on Github here: https://github.com/BIDData/BIDMach
•BIDMat•BIDMach |
||
Keras |
Keras は,Python で書かれた、TensorFlow または Theano 上で実行可能な高水準のニューラルネットワークライブラリです。 Keras は,迅速な実験を可能にすることに重点を置いて開発されました。 Keras は 次のような深層学習ライブラリが必要な場合に適しています。: ・簡単で早くプロトタイプ作成が可能 (全体的なモジュール性,ミニマリズム,および拡張性による) ・CNNとRNNの両方,およびこれらの2つの組み合わせをサポート ・任意の接続方式 (複数入力および複数出力の学習を含む) をサポート ・CPUとGPUでシームレスな実行 Keras は Python 2.7-3.5 と互換性があります. https://keras.io/ (English)
https://keras.io/ja/ (日本語)
GitHub fcholet Keras https://github.com/fchollet/keras
Download Source from GitHub https://github.com/fchollet/keras/archive/master.zip
|
Another Frameworks |
以上の 深層学習用のフレームワークの他にも、一例としまして、以下のようなものがあります。
|
||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Self-Paced Courses for Deep Learning |
https://developer.nvidia.com/deep-learning-courses
Introduction to Deep Learning Getting Started with DIGITS for Image Classification Getting Started with the Caffe Framework Getting Started with the Theano Framework Getting Started with the Torch Framework |
||
---|---|---|---|
株式会社アークブレインでは、Deep Learning(深層学習)を研究するための カスタム・オーダーメイドの ワークステーション(GPU × 1~4)や、サーバー(GPU × 1~4)を販売しております。
Intel® Xeon® Scalable Processor 搭載 Arcbrain オリジナル サーバー、ワークステーション製品 最新ラインナップ GPUを使用せず、Intel® Xeon® / Core™ Processor、インテル® Parallel Studio、インテル® MKL(Math Kernel Library) の DNN(Deep Neural Network) プリミティブ、インテル® Distribution for Python® による Deep Learning(深層学習)の開発環境を構築することも可能です。 お気軽に弊社までお見積り依頼をお願いいたします。 ご希望の仕様に合った構成のカスタマイズに、ご対応させていただきます。 |
GPU ハードウェア要件 Turing Architecture GPUs |
プロセッサ | ドライバー | CUDA Toolkit | DIGITS | cuDNN |
---|---|---|---|---|---|
Frameworks | |||||
Caffe | theano | torch | BIDMach | Keras |
Another Frameworks |
|
---|
|
||
Intel®、インテル®、Intel® ロゴ、Atom™、Core™、Xeon®、Phi™、Pentinum®は、米国およびその他の国におけるIntel® Corporation の商標です。 NVIDIA®、NVIDIA®ロゴ、GeForce、Quadroは、米国NVIDIA® corporationの登録商標です。 AMD®, AMD® Arrowロゴ、ならびにその組み合わせは、Advanced Micro Devices, Inc.の商標です。 Microsoft®(その他商標・登録商標名)は、米国 Microsoft® Corporation の米国およびその他の国における登録商標または商標です。 Windows®の正式名称は、Microsoft® Windows® Operating Systemです。 Linux® は、Linus Torvalds 氏の米国およびその他の国における登録商標です。 RED HATとShadowman logoは米国およびそのほかの国において登録されたRed Hat, Inc. の商標です。 CentOSの名称およびそのロゴは、CentOS ltdの商標または登録商標です。 Ubuntu は Canonical Ltd. の登録商標です。 Linux Mint は Linux Mark Institute の商標です。 IMSL® は、米国およびその他の国における Rouge Wave Software, Inc. の商標です。 Avast™ は、Avast Software の商標です。 AVG® は AVG Technologies の登録商標です。 Python® はPSFの登録商標です。 その他、記載されている会社名、製品名は、各社の登録商標または商標です。 | ||
|