特集1 ネットワーク技術者が知っておきたいChatGPT〜LLMはなぜ幻覚を見せるのか 回答生成の仕組みを掘り下げる
日経NETWORK 第279号 2023.7.1
掲載誌 | 日経NETWORK 第279号(2023.7.1) |
---|---|
ページ数 | 2ページ (全2645字) |
形式 | PDFファイル形式 (730kb) |
雑誌掲載位置 | 30〜31ページ目 |
Part3 LLMは誤った情報をまことしやかに提示し、幻覚(ハルシネーション)を見せることがある。LLMに基づく生成AIは「嘘をつく」と言われるゆえんであり、「検証が必須」とされる理由でもある。なぜ幻覚を見せるのか。それはLLMの仕組みを理解するとよく分かる。 LLMは言葉と言葉のつながりを学習したものである。そのつながりの学習結果に基づき、ある単語に続く単語はどれであるかを確率として算出し、その…
記事の購入(ダウンロード)
購入には会員登録が必要です 会員登録はこちら
価格 330円(税込)
他のIDで購入する
G-Search ミッケ!は雑誌を記事ごとに販売するサービスです。
この記事は「2ページ(全2645字)」です。ご購入の前に記事の内容と文字数をお確かめください。
(注)特集のトビラ、タイトルページなど、図案が中心のページもございます。