Ⅰ.AI・機械学習の基礎
1. ノーフリーランチ定理
- 万能なAIアルゴリズムは存在しない
- 問題ごとに最適な手法は異なる
- 比喩:料理に合う調味料を選ぶ
2. VAE(変分自己符号化器)
- データを圧縮(エンコード)→ 特徴(潜在変数)→ 復元(デコード)
- 潜在変数にノイズ(揺らぎ)を加える
- 似ているが少し違う新しいデータを生成できる
3. 第一次AIブーム
- コンピュータに「考えさせる」試み
- 中心技術
– 探索(総当たり)
– 推論(記号と論理)
- 比喩:迷路の全ルートを試す
4. 過学習(オーバーフィッティング)
- 訓練データを覚えすぎる状態
- 未知データに弱くなる(汎化性能低下)
- 比喩:練習問題は解けるが本番に弱い
5. RNN(回帰型ニューラルネットワーク)
- 過去の情報を記憶できる
- 文章・音声などの時系列データが得意
- 文脈理解に強い
6. Transformer
- 2017年登場、自然言語処理に革命
- Attention(どこに注目すべきか)機構
- 離れた単語同士の関係も捉えられる
7. BERT
- 文脈を双方向に読むモデル
- 穴埋め問題(MLM)で学習
- 意味理解・検索精度向上に強い
8. InstructGPT / GPT-3.5
- GPT-3を人間向けに改良
- RLHF(人間の評価による強化学習)
- ChatGPT初期モデルの基盤
9. データ拡張
- 回転・反転・明るさ変更などでデータを水増し
- 汎化性能向上、過学習防止
- 少ないデータを有効活用
10. データポイズニング
- 悪意あるデータを学習データに混入する攻撃
- フェイクニュース注入など
- AIの信頼性を根本から損なう
Ⅱ.生成AIの社会実装・リスク・運用
11. 広島AIプロセス
- 日本主導でG7が立ち上げた国際枠組み
- 生成AIの国際的ルールづくり
- 開発者だけでなく利用者も対象
12. モデル崩壊(Model Collapse)
- AI生成データをAIが学習し続けることで起こる劣化
- データの平均化・品質低下・多様性喪失
- 人間由来の良質データ枯渇が懸念
13. レッドチーミング
- 攻撃者(レッドチーム)視点でAIを意図的に攻撃
- 防御策や安全対策の弱点を発見
- ガイドラインでも推奨される手法
14. シャドーAI
- 会社が許可していないAIを業務利用
- 無料Web AIへの機密情報入力など
- 情報漏えい・ガバナンス上の重大問題
15. AI利用者の責務
- 一般企業・個人も責任主体
- 主な責務
– 入力データの権利確認
– 適切な利用
– 生成物のファクトチェック
16. PoC(概念実証)
- 本格導入前の小規模試行
- 実現可能性・課題を検証
- 生成AI導入失敗を防ぐ定石
17. RAG(Retrieval-Augmented Generation)
- 社内データ等を検索し、その結果を基に回答生成
- 再学習不要、常に最新情報を反映
- 企業向け生成AIの標準手法
18. グラウンディング(Grounding)
- AIの回答を事実・情報源に接地(根拠付け)
- もっともらしい嘘(ハルシネーション)を抑制
- RAGは代表的な実装例
19. SGE(Search Generative Experience)
- 検索結果トップにAI要約を表示
- ゼロクリック検索が可能
- SEOやWeb流入への影響が注目
20. スケーリング則(Scaling Laws)
- モデル規模を拡大すると性能も向上
- データ量・計算量・パラメータ数が鍵
- LLM開発競争の理論的根拠
全体の核心
生成AIは
「賢く作る」だけでなく
「正しく使い、責任を持ち、現実につなぐ」
ことで初めて社会実装できる
