ニュース
NVIDIA,「CUDA 6」を発表。アプリケーションがCPUとGPUのメモリを自由にアクセス可能となって,プログラム開発が容易に
開発者向けのツールキットは,2014年初めに提供が始まる予定という。
NVIDIA CUDA公式Webサイト(英語)
統合メモリ、ドロップイン・ライブラリなどのプログラミング機能により、
次世代のGPU開発者を支援
2013年11月14日 ― カリフォルニア州サンタクララ ―NVIDIA(本社:米国カリフォルニア州サンタクララ、社長兼CEO:ジェンスン・フアン(Jen-Hsun Huang)、Nasdaq:NVDA)は本日、世界で最も普及している並列コンピューティングのプラットフォームおよびプログラミングモデルの最新バージョン、NVIDIA CUDA 6を発表しました。
CUDA 6プラットフォームでは並列プログラミングがいままで以上にやりやすくなり、科学や工学、エンタープライズのアプリケーションをGPUで高速化するために必要な時間と労力が大幅に削減されます。
いままで使っていたCPUベースのライブラリを置き換えるだけで実行速度を最大8倍に高められるパフォーマンスの拡張機能も用意されています。CUDA 6の主な機能は、以下のとおりです。
・統合メモリ―CPUとGPUのメモリへアプリケーションが自由にアクセスできるため、プログラミングがシンプルになります。両者の間でデータをいちいちコピーする必要がなくなるのです。また、いままで以上に幅広いプログラミング言語でGPUアクセラレーションがサポートしやすくなります。
・ドロップイン・ライブラリ―既存のCPUライブラリをGPUで高速化できるライブラリに差し替えるだけで、アプリケーションのBLAS計算とFFTW計算を最大8倍まで自動的に高速化することができます。
・マルチGPUスケーリング―BLASとFFTのGPUライブラリが再設計されており、ひとつのノードで最大8個のGPUをカバーする形でパフォーマンスを自動的にスケーリングしてくれます。この結果、ノードあたりの倍精度演算パフォーマンスは9テラフロップス以上となり、従来以上に大きな作業負荷に耐えることができます(最大512GB)。FFTWとBLASの新しいドロップイン・ライブラリとマルチGPUスケーリングを組み合わせて使うこともできます。
サンディア国立研究所スケーラブル・アルゴリズム部のマネジャー、ロブ・フックストラ(Rob Hoekstra)氏は、次のように述べています。
「統合メモリではデータ管理が自動的に処理されますから、GPUで走るカーネルのプロトタイプをすばやく作成することができますし、コードも複雑度を引き下げることができます。その結果、開発時間は最大で50%も短くなります。今後、プログラミングモデルを選び、もっと高度で大規模なコードをGPUへポーティングする際、この機能はとても有益だと言えます」
Fabric Engine社CEOのポール・ドイル(Paul Doyle)氏は、次のように述べています。
「当社のテクノロジは大手のスタジオやゲーム開発者、アニメータなどに利用していただき、目を見はるほどの3Dアニメーションやエフェクトを生みだしています。NVIDIA GPUを使った高速化をサポートしてほしいという要望はだいぶ前から強くあったのですが、制作のユースケースは複雑で、メモリ管理がうまくできずにいました。今回の統合メモリではメモリ管理が自動的に処理されるため、FabricコンパイラでNVIDIA GPUをターゲットにすることが可能となり、顧客のみなさんには、アプリケーションを従来の最大で10倍という高速で動かしていただけることになりました」
このような新機能のほかに、CUDA 6プラットフォームには、フルスイートのプログラミング・ツール、GPUアクセラレーテッド数学ライブラリ、各種文書、プログラミング・ガイドなども用意されています。
CUDA Toolkitのバージョン6は、2014年の初めに提供する予定です。CUDA/GPUコンピューティング登録開発者プログラムのメンバーには、ダウンロードが可能となった時点でお知らせします。プログラムへの登録はこちらから行えます。
CUDA 6プラットフォームについての詳細は、11月18日から21日までデンバーで開催されるSC13のNVIDIAブース(ブース番号613)を訪問するか、NVIDIA CUDA websiteをご覧ください。
- 関連タイトル:
CUDA
- この記事のURL: