図解即戦力シリーズ図解即戦力
ChatGPTのしくみと技術がこれ1冊でしっかりわかる教科書

書籍の概要

この本の概要

ChatGPTの登場によってAIが身近に感じられるようになりました。AIを使いこなすことによって生活が豊かになる,そんな未来がすぐそこまできています。本書では,「大規模言語モデル」の基本から「トランスフォーマー」や「APIを使ったAI開発」まで,ChatGPTを支える技術を図を交えながら詳しく解説しています。

こんな方におすすめ

  • ChatGPTや大規模言語処理について知りたい人

本書のサンプル

本書の一部ページを,PDFで確認することができます。

目次

1章 ChatGPT

  • 01 ChatGPTとは
    • ChatGPTの始め方
    • ChatGPTの利用例
  • 02 ChatGPTの便利な機能
    • チャットコメントの編集と操作
    • チャット履歴と共有
  • 03 プロンプトエンジニアリング
    • プロンプトとコンテキスト
    • プロンプトエンジニアリング
  • 04 ChatGPTのエンジン(大規模言語モデル)
    • GPT-4とGPT-3.5
    • Web検索連携機能
    • マルチモーダル機能(画像を用いたチャット)
    • Code Interpreter(プログラムの自動実行)
  • 05 GPTs(AIのカスタマイズ機能)
    • GPTs
    • GPTビルダー
  • 06 ChatGPT以外のAIチャットサービス
    • Google Gemini
    • Microsoft Copilot
    • Anthropic Claude
  • 07 AIチャットの利用における注意点
    • ランダム性がある
    • 間違いを含む可能性がある
    • 禁止行為
    • 入力データの扱い
    • GPTsの利用における注意点

2章 人工知能

  • 08 AI(人工知能)
    • 人工知能とは
  • 09 AIの歴史
    • AI研究の歴史
  • 10 生成AIと汎用人工知能
    • 生成AI
    • 汎用人工知能(AGI)

3章 機械学習と深層学習

  • 11 機械学習
    • 機械学習≠機械が学習
    • 機械学習の種類
    • 推論と学習
    • 最適化
    • 汎化と過適合
  • 12 ニューラルネットワーク
    • ニューラルネットワークとは
    • ニューラルネットワークの仕組み
  • 13 ニューラルネットワークの学習
    • 勾配法による学習
    • 誤差逆伝播法
  • 14 正則化
    • ドロップアウト
    • バッチ正規化
    • ResNet(残差ネットワーク)
  • 15 コンピュータで数値を扱う方法
    • 2進数による整数と小数の表現
    • 浮動小数点数
    • 浮動小数点数の代表的なフォーマット
    • 浮動小数点数の精度とダイナミックレンジ
  • 16 量子化
    • モデルサイズとGPUのVRAMの関係
    • 量子化
  • 17 GPUを使った深層学習
    • 計算を速くする方法
    • GPU vs CPU
    • GPUの成り立ちと汎用計算
    • 深層学習への特化が進むGPUとNPU
    • GPU/NPUのソフトウェアサポート

4章 自然言語処理

  • 18 自然言語処理
    • 深層学習以前の自然言語処理
    • 自然言語処理と深層学習
  • 19 文字と文字コード
    • 文字コード
    • Unicode
  • 20 単語とトークン
    • 文をコンピュータに扱えるように分割する
    • 単語や文字による分割
    • サブワード
  • 21 トークナイザー
    • トークナイザーの学習
    • 語彙数とトークン数のトレードオフ
  • 22 Word2Vec
    • 「概念」を扱う方法
    • Word2Vecによる単語のベクトル表現
    • Word2Vecが意味を獲得する仕組み
  • 23 埋め込みベクトル
    • トークンのベクトルは「意味」を表さない
    • 埋め込みベクトル
    • さまざまな埋め込みベクトル

5章 大規模言語モデル

  • 24 言語モデル
    • モデルとは
    • 言語モデルとは
  • 25 大規模言語モデル
    • 大規模言語モデルと「普通の言語能力」
  • 26 ニューラルネットワークの汎用性と基盤モデル
    • ニューラルネットワークによる特徴抽出
    • 基盤モデル
    • 基盤モデルで精度が上がる仕組み
  • 27 スケーリング則と創発性
    • スケーリング則と創発性
    • 大規模言語モデルのパラメータ数
  • 28 言語モデルによるテキスト生成の仕組み
    • 言語モデルによるテキスト生成
    • 自己回帰言語モデル
    • 貪欲法
  • 29 テキスト生成の戦略
    • ランダムサンプリングとソフトマックス関数
    • 「温度」の働き
    • 単語生成の樹形図
    • ビームサーチ
  • 30 言語モデルによるAIチャット
    • 文生成によるAIチャット
    • 大規模言語モデルによるAIチャットの問題点
  • 31 ローカルLLM
    • ローカルLLMとは
    • ローカルLLMの環境
    • ローカルLLMによる推論のプロセス
  • 32 大規模言語モデルのライセンス
    • ローカルLLMのエコシステム
    • ソフトウェアライセンス
    • 大規模言語モデルのライセンスの種類
  • 33 大規模言語モデルの評価
    • 大規模言語モデルの評価方法
    • リーダーボード
  • 34 大規模言語モデルの学習〜事前学習〜
    • 事前学習と基盤モデル
    • 自己教師あり学習
    • 基盤モデルの追加学習
    • 事前学習の訓練データ
  • 35 大規模言語モデルの学習〜ファインチューニング〜
    • ファインチューニング
    • ファインチューニングの方法
    • RLHF(Reinforcement Learning from Human Feedback)
    • LoRA(Low-Rank Adaptation)
  • 36 コンテキスト内学習
    • コンテキスト内学習(In-Context Learning)

6章 トランスフォーマー

  • 37 回帰型ニューラルネットワーク(RNN)
    • ベクトルの次元
    • 回帰型ニューラルネットワーク
    • 言語モデルとしてのRNN
    • 長距離依存性とLSTM
    • エンコーダー・デコーダー
  • 38 注意機構(Attention)
    • 人間の認知と注意機構
    • 注意機構の基本
    • エンコーダー・デコーダーと注意機構
  • 39 注意機構の計算
    • 注意機構の計算
    • 注意機構がうまく動く理由
  • 40 トランスフォーマー(Transformer)
    • トランスフォーマーの基本構成
    • 位置エンコーディング
    • マルチヘッド注意機構
  • 41 BERT
    • BERT(バート)の特徴
    • BERTの事前学習
  • 42 GPT(Generative Pretrained Transformer)
    • GPTモデルの基本構造
    • Mixture of Experts

7章 APIを使ったAI開発

  • 43 OpenAI APIの利用
    • OpenAI API
    • OpenAI API利用上の注意
  • 44 テキスト生成API(Completion API等)
    • テキスト生成APIの種類
  • 45 OpenAI APIの料金
    • OpenAI APIのトークン
    • テキスト生成モデルの種類と料金
    • OpenAIトークナイザーライブラリtiktoken
    • 言語ごとのトークン数の違い
  • 46 テキスト生成APIに指定するパラメータ
    • テキスト生成APIのパラメータ
  • 47 テキスト生成APIと外部ツールの連携〜Function Calling〜
    • Function Calling
    • LangChainライブラリ
    • 機械可読化ツールとしてのFunction Calling
  • 48 埋め込みベクトル生成APIと規約違反チェックAPI
    • 埋め込みベクトル生成(Embeddings)API
    • 埋め込みベクトル生成APIのモデルの種類
    • 規約違反チェック(Moderation)API
  • 49 OpenAI以外の大規模言語モデルAPIサービス
    • Microsoft Azure OpenAI API
    • Google Vertex AI
    • Amazon Bedrock
  • 50 Retrieval Augmented Generation(RAG)
    • 外部知識を使ったAIアプリケーションの開発
    • RAG(Retrieval Augmented Generation)

8章 大規模言語モデルの影響

  • 51 生成AIのリスクとセキュリティ
    • 生成AIによる悪影響
    • 生成AIの悪用
    • 生成AIが不適切な出力を行うリスク
    • 生成AIを使ったサービスへの攻撃
    • 対策とガイドライン
  • 52 AIの偏りとアライメント
    • 学習データの偏りがAIに与える影響
    • AIの偏りを制御する方法
  • 53 ハルシネーション(幻覚)
    • AIは間違える
    • ハルシネーションの正体
    • ハルシネーションの対策
    • ハルシネーションをなくせるか?
  • 54 AIの民主化
    • AI利用の民主化
    • AI開発の民主化
    • ビッグテックの計算資源
  • 55 大規模言語モデルの多言語対応
    • ChatGPTは何ヵ国語で使える?
    • 大規模言語モデルの言語間格差
    • 大規模言語モデルと認知・文化との関係
  • 56 AIと哲学
    • 知能とは? 言語とは?
    • 中国語の部屋

著者プロフィール

中谷秀洋(なかたにしゅうよう)

サイボウズ・ラボ(株)所属。子供のころからプログラムと小説を書き,現在は機械学習や自然言語処理,LLMを中心とした研究開発に携わる。著書に『[プログラミング体感まんが]ぺたスクリプト ── もしもプログラミングできるシールがあったなら』『わけがわかる機械学習 ── 現実の問題を解くために,しくみを理解する』(ともに技術評論社)がある。