2009年12月12日
GeForce GTX 380/360の仕様
NVIDIAの次期ハイエンドGPUとなるGeForce GTX 380/GTX 360の仕様がリークされています。
・ Finale GTX 360 und GTX 380-Spezifikationen? - Hardware-Infos [英訳]
現在のGeForce最速シングルGPU GTX 285と上位機種のGTX 380を比較すると、SP数は2倍以上、メモリ・ROPs・TMUsは約1.5倍と大幅なスペックアップとなっており、このスペック通りならば相当のパフォーマンスアップが期待できそうです。またNVIDIAのハイエンドでは初のGDDR5を採用したGPUとなります。
下位機種のGTX 360ではGTX380と比較するとSP数とTMUsが3/4に削減されていますが、それでもGTX 285のスペックを余裕で凌駕しており、コストパフォーマンスを考えるとこちらも人気がでるかもしれませんね。
●GeForce GTX 300シリーズ ラインアップ (40nm、GDDR5)
◎GTX 380:512sp(1700MHz)、650/4200MHz、1536MB(384-bit)、R 48、T 128
◎GTX 360:384sp(1500MHz)、650/4200MHz、1280MB(320-bit)、R 40、T 96
--------------------------------------------------------------------
●GeForce GTX 200シリーズ ラインアップ (55nm、GDDR3)
- GTX 285:240sp(1476MHz)、648/2484MHz、1024MB(512-bit)、R 32、T 80
- GTX 275:240sp(1404MHz)、633/2268MHz、896MB(448-bit)、R 28、T 80
--------------------------------------------------------------------
* RはROPs、TはTMUsの略です。
通販情報
[HD 5700] SOFMAP、クレバリー、ドスパラ、FAITH、TWOTOP
[HD 5800] SOFMAP、クレバリー、ドスパラ、FAITH
[Corei7-8xx/i5-750] SOFMAP、ドスパラ、TSUKUMO、クレバリー、FAITH、T-ZONE
Posted by nueda at 2009年12月12日 12:33 JST | トラックバック | ホームに戻る
GPGPUとしては比較にならないんでしょうけど、3D性能はGTX285と比較してGTX360はせいぜい3割程度アップすればいいかなというレベルに留まりそうな性能カットに見えますね。
価格に期待という感じでしょうか。
GTX380とはMAX1.5倍くらい性能差がありそうで、下位の商品をオーバークロックして上位並にすることが不可能な大きな差だと思います。
GTX285とGTX380を全項目比較するとメモリ帯域が1.26倍にしか増えてないのがネックになりそうです・・・。
でもGTX380はHD5870のメモリ帯域153.6GB/sに対して初の200GB/s超えですか?
凄まじいメモリ帯域ですね。
PS3の8倍近くに、、、。
メモリ帯域は384bitになってしまったので、伸びがあまりないですね。
3DとしてはROPsは1.5倍となっているので、バランス調整されたのかもしれませんが。
L2キャッシュが追加されているので、まだなんとも言えないですが対HD58xx比でせいぜい1.5倍程度しか早くならない可能性は大きそうです。
RSXはnv社製だよ~
演算能力は2.5倍になりました。
帯域が25%しか上がらなくてもPS3より8倍速いから大丈夫サ
Radeon HD58xxの1.25倍以上の性能であってほしいが、値段はその1.3倍以下であってほしい。
でないと、ATIが価格設定で強気になり始める上、実質ハイエンドは入手困難か価格困難のいずれかで導入しづらくなり、市場全体にも後々悪影響を及ぼす可能性が生じると思う。
「1.23GHzのTesla C2070は225Wで$3999」ですけど「1.7GHzのGTX380は何Wでお幾ら」なんでしょうかね?
めちゃくちゃ熱いのか、相当高いのか、CUDA性能に制限が掛かる(QuadroのためにOpenGL性能に制限が掛かっているように)のか、それともTesla C2070の方がダレも買わないような商品になったりするのか?
海外でウソベンチがUPされてましたが、こちらの動作クロックの信用度は…
Posted by: 通りすがり at 2009年12月13日 01:15そういえば、SPのクロックが1.23GHzと低ければ1741 Gflopsあたりになりますね。
1700MHzは間違いのような感じがします。なんとなく。
あとコアクロックがGTX360とGTX380が同じなのも、ちょっと違和感がありますね。
650MHzより下げれば、よりイールドが安定しそうですし、まだまだ決定クロックではなさそうに思います。
> そういえば、SPのクロックが1.23GHzと低ければ1741 Gflopsあたりになりますね。
単精度だとFermiの場合は「SP数×2×シェーダークロック」なので1.23GHzだと1.26TFLOPSですよ。
Tesla C2070の倍精度が0.63TFLOPSと公式発表されているのでその2倍という計算方法でもよいですね。
ちなみにGTX285の単精度が1.08TFLOPSなので、1.23GHzだと1.2倍弱しかなくDX性能は期待できなくなってしまいますね。
(HD5870のちょっと上くらいかな?0.95~1GHzのHD5890とかが出るといい勝負になっちゃいそう)
せめてGTX285と同じ1.5GHzくらい出るといいのですが、アーキテクチャが変わるときは
7900GTX(Core:650)→8800GTX(Core:575)
9800GTX+(Core:738/SP:1836)→GTX280(Core:602/SP:1296)
と下がるのが最近のパターンだけに、A2の不調の噂とかも含めると…
ちなみに、512SPで1700MHzであれば、240SPで1300MHzのとき900GFlpsはあったGTX280のことを考えると低すぎると思っう人もいるんじゃない?
その理由は、GT200は240のSPの他にSFUと共有の乗算ユニットのパイプもあり、その部分の性能が上乗せされるから。
1296MHzでSP部分が622GFlops、SFU共有部分が311GFlops
全体で933GFlopsというわけです。
FermiはSFUと共有構造のパイプラインは無くなったので、単純にSP部分のみの数字がチップ全体の理論値。
そんなこと言われなくてもわかってる!って人は横槍で失礼しました~
Posted by: Nice boat at 2009年12月13日 02:53GeForce GTX 300は実在します。
Posted by: nv at 2009年12月13日 03:13>1296MHzでSP部分が622GFlops、SFU共有部分が311GFlops
全体で933GFlopsというわけです。
解説ありがとうございます。
なるほど、SFU共有部分がなくなってますね。
そこで全体の3分の1をしめてましたか。
SP部のみとなったのは3D用ユニットだけで十分な演算性能が得られるからでしょうけど、ずいぶん単精度のスピードは重んじてない設計のようですね。
>1700MHzは間違いのような感じがします。なんとなく。
1700MHzであってるようですね。
自己否定です。
SPのクロックが1700MHzなら3D性能は期待できると思いますよ。
R2EじゃGTX380 3way厳しいから
2ヵ月後に出るらしいGTX395?に期待、2枚買いたい。
何かここんところFlopsFlopsと演算性能の数字に踊らされすぎな気がしてならない
結局何にも使われて無いじゃん
実働に結びつかない数字なんて絵に描いた餅と一緒
結局活かされる事も無く世代交代するんだからね
それよりもちゃんと物を出して欲しいね
新製品の無いNVに、やっと潤沢になりつつあるAMDも
確かに新製品を必要とされない方も多いでしょうけど・・・ね。
まあよりよくなるのはいいことでしょ。
GPUでの演算は一部で実用化されてますけど、
汎用演算には使いづらいから、
所謂PC用途じゃほとんどお目にかからないですね。
所詮、ただのベンチマークなのであまりお気になさらずに~。
Posted by: mii at 2009年12月14日 00:47その演算能力は少なくとも3Dグラフィック処理には使われるだから何も問題ないと思うけど。
それ以外の演算については、(一般向けには)
nVIDIAの方は僅かながらとは言えPhysX対応ゲームが既にリリースされているし、
cuda対応の製品版エンコーダーも存在しているわけだから、まだマシ。
ATIStreamには対応ソフト無いかのような言い草だな^^;
知ったか乙。
だから何?
ハイエンドGPU記事にわざわざ演算能力が無意味みたいな書き込みがあるから、
それに対してポストしたんだけど。nVIDIA vs AMDみたいに捉えちゃったのか(苦笑)
Cudaが先行しているのは変わらないし、ハードウェア処理でPhysXが既にゲームで使われ初めているのも事実。
だから"マシ"と言ったんだけど。そんなに理解するの難しかった?
>nVIDIA vs AMDみたいに捉えちゃったのか(苦笑)
>Cudaが先行しているのは変わらないし、
2行内で破綻もの凄い〇〇w
そもそも先に自分が19:41で
>まだマシ
って比較しちゃってるけどもw
お、おちつけ。
Havokのことも思い出してあげて下さい・・・
詰まらない対決は止めろ。
GPUの汎用演算はやっと標準apiが出来て、これからドライバや環境が整い始める段階でしかない。
とはいえ構造上CPUより得意な処理は限られるから、それほど一般的に広まるとは思えないけどね。
標準apiは、既にリリースされていてOpenCLあります。
ですがapiの名前は違うとしても全てcudaベースであり、
事実上cudaの古いバージョンがOpenCLとして使えるイメージ
です。つまり最新のGPUパワーが欲しい人はcudaで書いた方がよいです。
もちろんOpenCLだと、intelCPUでも作れるし、Radeonでも
CellでもGPU汎用計算が書けますよ。
ただCell版のOpenCLはまだリリースされてない。
CUDAとOpenCLの関連性はどうでもよく、特定のハードウェアに依存しない標準APIとして存在していることが重要。
今後はそれにあわせてハード開発が進みますからね、今がどうとかに意味は無い。
まあCUDAはC++の拡張だから、参考にしやすかったからで、もちろんGeforce依存な部分は省かれているでしょう。
もちろんGPUのピーク性能を引出そうと思うならCUDAやBrook+等の専用APIを使ったほうがいいのは当然ですがね。
機能的にはOpenCLの方がちょっと上のところもあるみたい。
でもやってることは一緒っぽい。ただライブラリーとかサンプルコードがまだないって言ってたね。
それと、OpenCLで書いてAMDに持っていっても動くだろうけど性能出るとは限らない。APIを透かしてハードを見るようなコーディングしないとすぐに性能が落ちちゃう。コンパイル結果もチェックが必要だったりかなりシビア。
OpenCLにあわせてハードを作るという事はありえないね。ハードはGPGPUアプリの要求に合わせてる段階だからハードにあわせてOpenCLをリファインしていくことになる。DirectXと同じ。既にnVIDIAはOpenCLに収まってない。
(書込時に「、」か「。」が必要です。内容によっては削除しますので、ご了承ください)