特集1 生成AIの新潮流 ローカルLLM(大規模言語モデル)入門〜深層学習モデルの軽量化、三つの手法
日経ソフトウェア 第295号 2024.9.1
掲載誌 | 日経ソフトウェア 第295号(2024.9.1) |
---|---|
ページ数 | 3ページ (全2398字) |
形式 | PDFファイル形式 (730kb) |
雑誌掲載位置 | 30〜32ページ目 |
Column LLMには、パラメータ数を増やせば増やすほど性能が向上する「スケーリング則」があると考えられています。この法則の有効性が認められたことで、LLMのパラメータ数は、従来の深層学習モデル(ディープニューラルネットワークモデル)と比較して、大幅に増加することになりました。これは、モデルのサイズが巨大化していることを意味します。しかし、モデルが巨大だと、大量のVRAMを持つ高性能なコンピュー…
記事の購入(ダウンロード)
購入には会員登録が必要です 会員登録はこちら
価格 550円(税込)
他のIDで購入する
G-Search ミッケ!は雑誌を記事ごとに販売するサービスです。
この記事は「3ページ(全2398字)」です。ご購入の前に記事の内容と文字数をお確かめください。
(注)特集のトビラ、タイトルページなど、図案が中心のページもございます。