大規模言語モデル入門―Introduction to Large Language Models

個数:

大規模言語モデル入門―Introduction to Large Language Models

  • 提携先に7冊在庫がございます。(2024年05月14日 20時59分現在)
    通常、5~7日程度で出荷されます。
    ※納期遅延や、在庫切れで解約させていただく場合もございます。
    ※1回のご注文は10冊までとなります
  • 出荷予定日とご注意事項
    ※上記を必ずご確認ください

    【出荷予定日】
    通常、5~7日程度で出荷されます。

    【ご注意事項】 ※必ずお読みください
    ◆在庫数は刻々と変動しており、ご注文手続き中に減ることもございます。
    ◆在庫数以上の数量をご注文の場合には、超過した分はお取り寄せとなり日数がかかります。入手できないこともございます。
    ◆事情により出荷が遅れる場合がございます。
    ◆お届け日のご指定は承っておりません。
    ◆「帯」はお付けできない場合がございます。
    ◆画像の表紙や帯等は実物とは異なる場合があります。
    ◆特に表記のない限り特典はありません。
    ◆別冊解答などの付属品はお付けできない場合がございます。
  • ●店舗受取サービス(送料無料)もご利用いただけます。
    ご注文ステップ「お届け先情報設定」にてお受け取り店をご指定ください。尚、受取店舗限定の特典はお付けできません。詳細はこちら
  • サイズ B5判/ページ数 336p/高さ 23cm
  • 商品コード 9784297136338
  • NDC分類 007.1
  • Cコード C3055

出版社内容情報

ChatGPTに代表される大規模言語モデルが自然言語処理の幅広いタスクで高い性能を獲得し、大きな話題となっています。大規模言語モデルは、大規模なテキストデータで訓練された大規模なパラメータで構成されるニューラルネットワークです。2020年以降、自然言語処理や機械学習の知見をもとに、パラメータ数とテキストデータの拡大により、性能が飛躍的に向上しました。

Hugging Face社の"transformers"というPythonライブラリを利用することで、プログラミングの経験があれば、モデルの操作やデータからの学習がかんたんにできます。モデルを訓練するための日本語もしくは日本語を含む多言語のデータセットも充実してきており、すぐに業務に使える実用的なモデルを作ることが可能な時代がやってきました。

本書は、大規模言語モデルの理論と実装の両方を解説した入門書です。大規模言語モデルの技術や自然言語処理の課題について理解し、実際の問題に対処できるようになることを目指しています。以下のような構成によって、理論とプログラミングの双方の側面から、大規模言語モデルに関する情報を提供します。

第1章 はじめに
第2章 Transformer
第3章 大規模言語モデルの基礎
第4章 大規模言語モデルの進展
第5章 大規模言語モデルのファインチューニング
第6章 固有表現認識
第7章 要約生成
第8章 文埋め込み
第9章 質問応答システム

内容説明

コンピュータが言語を理解するしくみ。

目次

第1章 はじめに
第2章 Transformer
第3章 大規模言語モデルの基礎
第4章 大規模言語モデルの進展
第5章 大規模言語モデルのファインチューニング
第6章 固有表現認識
第7章 要約生成
第8章 文埋め込み
第9章 質問応答

著者等紹介

山田育矢[ヤマダイクヤ]
株式会社Studio Ousia代表取締役チーフサイエンティスト・理化学研究所革新知能統合研究センター客員研究員。2007年にStudio Ousiaを創業し、自然言語処理の技術開発に従事。2016年3月に慶應義塾大学大学院政策・メディア研究科博士後期課程を修了し、博士(学術)を取得。大規模言語モデルLUKEの開発者

鈴木正敏[スズキマサトシ]
株式会社Studio Ousiaソフトウェアエンジニア・東北大学データ駆動科学・AI教育研究センター学術研究員。2021年3月に東北大学大学院情報科学研究科博士後期課程を修了し、博士(情報科学)を取得。博士課程では質問応答の研究に従事。日本語質問応答のコンペティション「AI王」の実行委員。東北大学が公開している日本語BERTの開発者

山田康輔[ヤマダコウスケ]
株式会社Studio Ousiaリサーチエンジニア・名古屋大学大学院情報学研究科博士後期課程3年。2021年3月名古屋大学大学院情報学研究科博士前期課程修了。2022年4月より日本学術振興会特別研究員(DC2)。自然言語処理、特にフレーム意味論に関する研究に従事

李凌寒[リリョウカン]
LINE株式会社(2023年10月よりLINEヤフー株式会社)自然言語処理エンジニア。2023年3月に東京大学大学院情報理工学系研究科博士後期課程を修了し、博士(情報理工学)を取得。博士課程では言語モデルの解析や多言語応用の研究に従事。大規模言語モデルmLUKEの開発者(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。

感想・レビュー

※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。

mim42

6
最近話題のLLMを作れるようになる本です。2023年8月時点で、リサーチャー/エンジニア向けの書籍としては最も新しくて詳しいと思います。「入門」の範囲を超えるという意見もありそうですが、少なくともpythonや機械学習を用いた自然言語処理についての経験を少しでもお持ちの方ならスラスラ読めると思います。ソースコードって何?という人は読まない方が良いと思います。2023/09/02

mft

5
一応読んだ。前半は理論編、後半はレシピ編。タイトルからは大規模化すると創発的能力が現れるということに関してもっと説明があるのかと思っていたが、性能が上がるんだからガンガン使っていきましょうということでしかなかった。内容は多分すぐ忘れる(覚えていても陳腐化する)2024/02/09

Q

3
ChatGPTなど今年に入って利便性が広く知られたAI製品の基礎となる技術「大規模言語モデル(LLM)」入門本。少しの数式とPythonコードで実例を示してくれるのでテーマの割に読みやすい。本書のコードのほとんどはGoogle Colab上で実行する。この環境のお手軽さと中規模なアプリケーションにも適用できる利便さを実感。後半理解が追い付かなかったのだがGPUを酷使する学習の説明はない気がする。本書のPythonコードはライブラリの成長の過程で古くなり動かなくなるケースがある気がする。鮮度維持されると良い2023/12/10

長留裕平

3
非常に難しかったがCHATGPTの仕組みの一部は理解できてきた2023/08/13

ONE_shoT_

2
最近の自然言語処理まわりのキャッチアップのために読んだ一冊。モデルはTransformerからGPT, BERT, RoBERTa, T5, ChatGPTまで。文書分類(感情分析)・自然言語推論・意味的類似度計算・固有表現認識・要約生成・文埋め込み・質問応答の簡単な実装例も載っていて雰囲気は理解できた。2023/11/11

外部のウェブサイトに移動します

よろしければ下記URLをクリックしてください。

https://bookmeter.com/books/21378385
  • ご注意事項

    ご注意
    リンク先のウェブサイトは、株式会社ブックウォーカーの提供する「読書メーター」のページで、紀伊國屋書店のウェブサイトではなく、紀伊國屋書店の管理下にはないものです。
    この告知で掲載しているウェブサイトのアドレスについては、当ページ作成時点のものです。ウェブサイトのアドレスについては廃止や変更されることがあります。
    最新のアドレスについては、お客様ご自身でご確認ください。
    リンク先のウェブサイトについては、「株式会社ブックウォーカー」にご確認ください。