特集1 サーバーの新常識〜GPU同士がCPU介さず通信
日経コンピュータ 第1106号 2023.10.26
掲載誌 | 日経コンピュータ 第1106号(2023.10.26) |
---|---|
ページ数 | 1ページ (全1178字) |
形式 | PDFファイル形式 (198kb) |
雑誌掲載位置 | 25ページ目 |
新常識10 LLM用のGPUサーバーには、巨大な機械学習モデルを記憶できる大容量・高速のGPUメモリーが必要だ。H100は1個につき80ギガバイト(GB)のGPUメモリーを搭載し、DGX H100全体でのGPUメモリーの容量は640GBに達する。 DGX H100の内部では、各GPUはCPUを介さずに、900ギガバイト/秒の超高速インターフェースである「NVLink」で接続されている。NVLink…
記事の購入(ダウンロード)
購入には会員登録が必要です 会員登録はこちら
価格 330円(税込)
他のIDで購入する
G-Search ミッケ!は雑誌を記事ごとに販売するサービスです。
この記事は「1ページ(全1178字)」です。ご購入の前に記事の内容と文字数をお確かめください。
(注)特集のトビラ、タイトルページなど、図案が中心のページもございます。