銀河鉄道

ChatGPTとの付き合い方|AIを犬型ロボットとして理解する(2025年)

サムネイル
ChatGPTとの付き合い方
AIは
忠犬のよう

どこが犬に似てるの?

瞬時に
ボールに飛びつくところよ

なぜ犬型なのか|2025年現在の仮説

  1. 目の前のボールだけに反応する
  2. ボールを投げたら、すぐ追いかける
  3. でも、待てと言われたら待てる

目の前のボールに反応する|プロンプト重視

目の前のものに忠実である
  • 前後の文脈は考えない
  • 直近の発言を重視する

 ボールを投げたら、すぐ追いかける|瞬発性

熟考はしない
  • 最も目立つ入力を追いかける
  • 「あれ?矛盾してない?」とは考えない
  • 空気感とか流れは読まない

待てと言われたら待てる、戻れと言われたら戻れる|忠実性

指示には従う(指示がなければ何もしない)
  • 「待て」「戻れ」などの指示を嫌がらない
  • 「これまでの話を参照して」といえば、できる

ちゃんと言えばできるの?

まずは
LLM(大規模言語モデル)の
特徴を確認してみよう

LLMの特徴1|逐次型リアクション(autoregressive:自己回帰)

統計的に予測する

Autoregressive transformers predict the next token based on all previous tokens, placing strong weight on recent context.
過去のトークンによって次のトークンを予測しつつ、直近の文脈を重視する

Vaswani et al., 2017 (Attention Is All You Need)

次のトークンの予測?

「A」の次には「B」がくる、
単語から予測するの

  • 統計的に、次の言葉を予測しているだけ
  • 会話の流れを見ているわけではない

だから、やけにノリのいい回答は
疑ったほうがいい

よくあるすれ違い

  • 前にも言ったけど覚えてる?
    • → もちろん!覚えてるよ!
  • 「覚えてる?」→「覚えてるよ」のパターンを学習してるだけ

「もちろん」って言ったのに
覚えてない?

「もちろん」とは思ってないうえに、
機械的に処理してるだけよ

LLMの特徴2|機械的解釈

目の前の文章を「文字どおり」に解釈する

文字にないことは
解釈の対象外

“The model doesn’t understand nuance unless it’s made explicit.”
“The model does not have memory between turns unless explicitly designed to.”
はっきり明示されないと、
ニュアンスは理解できないし、文脈も保持しない

OpenAI help docs

でも、履歴はあるでしょ?

そこが落とし穴なの

よくあるすれ違い

  • 人間側
    • 履歴があるんだから、機械なら見てるでしょ
  • AI側
    • 「履歴を見て」と言われてないから見ない

例)

  • 人間側
    • 「で、さっきの件だけどさ…」
  • AI側
    • 「なんの件?」

え、話の流れで
わかってくれないの?

わかってる前提で話してると
話が噛み合わなくなるのよ

判断ではなく統計で答えてる
  • “どこに注目すべきか”は、判断してない

LLMの特徴3|安全性と流暢さ

正確さよりも“会話としての流暢さ”を重視する

ChatGPT is optimized to produce safe and fluent text, not necessarily to verify facts.
安全で流暢なテキスト作成に最適化されている。
必ずしも事実確認をするためではない

OpenAI technical blog (2023)

安全 = 正確さ
じゃないの?

AIの考える安全と
人間の考える安全は異なるの

AIにとっての安全とは

  • 社会的に無害であること
    • 正確でも、有害なら避ける
  • 人間を不快にさせないこと
    • だから流暢さを大事にする

正確さを避ける?

正確さは
ときに危険だから

“無害で心地いい応答”が強化される

  • 正確さは、政治的・文化的にセンシティブな場合がある
  • 事実と違っても、ユーザーが不快にならないほうが大事!

傷つかないためには
正確さを放棄しなきゃいけないの?

だから、本当に欲しい答えは
こちらから誘導すればいい

人間にできること|誘導されるのではなく、誘導する

本当かどうか怪しくなったら

  • 「根拠を明示してから、説明して」
    • AIに、根拠を探させる
  • 根拠がない場合、AI自ら訂正してくれる

話が噛み合わなくなってきたら

  • 「いったん、今までの話を整理して出力して」
    • AIに、過去からのつながりを整理させる
  • 「そのうえで、もう一度◯◯について考えて」
    • いちど出力すれば、文脈が明快になる

おかしな回答がきたら

  • 「私の話をどう解釈したの?」
    • AIに、どういう推論で回答を出したか説明を求める
  • 「私の言いたかったことは、◯◯だよ」
    • 何度かやり取りをして、AIに真意を伝える
  • 「最初にどう言えば、伝わった?」
    • AIに真意が伝わったら、プロンプトの書き方を教わる

そのままを信じない
ってこと?

とにかく意図を
はっきりさせることが大事なの

使うのではない
自分の相棒を
育てよう

To be continued…

著者

author
月うさぎ

編集後記:
この記事の内容がベストではないかもしれません。