Ⅰ.AI・機械学習の基礎

1. ノーフリーランチ定理

  • 万能なAIアルゴリズムは存在しない  
  • 問題ごとに最適な手法は異なる  
  • 比喩:料理に合う調味料を選ぶ

2. VAE(変分自己符号化器)

  • データを圧縮(エンコード)→ 特徴(潜在変数)→ 復元(デコード)
  • 潜在変数にノイズ(揺らぎ)を加える
  • 似ているが少し違う新しいデータを生成できる

3. 第一次AIブーム

  • コンピュータに「考えさせる」試み
  • 中心技術  

  – 探索(総当たり)  

  – 推論(記号と論理)

  • 比喩:迷路の全ルートを試す

4. 過学習(オーバーフィッティング)

  • 訓練データを覚えすぎる状態
  • 未知データに弱くなる(汎化性能低下)
  • 比喩:練習問題は解けるが本番に弱い

5. RNN(回帰型ニューラルネットワーク)

  • 過去の情報を記憶できる
  • 文章・音声などの時系列データが得意
  • 文脈理解に強い

6. Transformer

  • 2017年登場、自然言語処理に革命
  • Attention(どこに注目すべきか)機構
  • 離れた単語同士の関係も捉えられる

7. BERT

  • 文脈を双方向に読むモデル
  • 穴埋め問題(MLM)で学習
  • 意味理解・検索精度向上に強い

8. InstructGPT / GPT-3.5

  • GPT-3を人間向けに改良
  • RLHF(人間の評価による強化学習)
  • ChatGPT初期モデルの基盤

9. データ拡張

  • 回転・反転・明るさ変更などでデータを水増し
  • 汎化性能向上、過学習防止
  • 少ないデータを有効活用

10. データポイズニング

  • 悪意あるデータを学習データに混入する攻撃
  • フェイクニュース注入など
  • AIの信頼性を根本から損なう

Ⅱ.生成AIの社会実装・リスク・運用

11. 広島AIプロセス

  • 日本主導でG7が立ち上げた国際枠組み
  • 生成AIの国際的ルールづくり
  • 開発者だけでなく利用者も対象

12. モデル崩壊(Model Collapse)

  • AI生成データをAIが学習し続けることで起こる劣化
  • データの平均化・品質低下・多様性喪失
  • 人間由来の良質データ枯渇が懸念

13. レッドチーミング

  • 攻撃者(レッドチーム)視点でAIを意図的に攻撃
  • 防御策や安全対策の弱点を発見
  • ガイドラインでも推奨される手法

14. シャドーAI

  • 会社が許可していないAIを業務利用
  • 無料Web AIへの機密情報入力など
  • 情報漏えい・ガバナンス上の重大問題

15. AI利用者の責務

  • 一般企業・個人も責任主体
  • 主な責務  

  – 入力データの権利確認  

  – 適切な利用  

  – 生成物のファクトチェック


16. PoC(概念実証)

  • 本格導入前の小規模試行
  • 実現可能性・課題を検証
  • 生成AI導入失敗を防ぐ定石

17. RAG(Retrieval-Augmented Generation)

  • 社内データ等を検索し、その結果を基に回答生成
  • 再学習不要、常に最新情報を反映
  • 企業向け生成AIの標準手法

18. グラウンディング(Grounding)

  • AIの回答を事実・情報源に接地(根拠付け)
  • もっともらしい嘘(ハルシネーション)を抑制
  • RAGは代表的な実装例

19. SGE(Search Generative Experience)

  • 検索結果トップにAI要約を表示
  • ゼロクリック検索が可能
  • SEOやWeb流入への影響が注目

20. スケーリング則(Scaling Laws)

  • モデル規模を拡大すると性能も向上
  • データ量・計算量・パラメータ数が鍵
  • LLM開発競争の理論的根拠

全体の核心

生成AIは  

「賢く作る」だけでなく  

「正しく使い、責任を持ち、現実につなぐ」  

ことで初めて社会実装できる