ChatGPTは「断定」より「逡巡」にこそ知性を見せる 〜曖昧さを意図的に設計するプロンプト技術〜

なぜ“断定するAI”は、どこか不気味なのか?

ChatGPTに質問をしたとき、「それはAです」「Bは間違っています」といった断定的な回答を見て、どこか釈然としない思いを抱いたことはないだろうか。

「AIなのに、なぜそんなに自信満々なんだ?」
「本当にそう言い切ってしまって良いのだろうか?」

実はこの“断定”こそが、ChatGPTに「賢さ」を感じさせない最大の原因だという視点がある。
逆に、ほんの少しの“逡巡(しゅんじゅん)”──つまり、迷い、揺れ、含みを持たせるだけで、その応答が知性的に見え始める。

これは、心理的なトリックではない。
むしろ「知性の本質」を突いた、プロンプト設計の深淵である。

プロンプトに「曖昧さ」を仕込むという発想

一般にプロンプトとは、明快で、簡潔で、目的を明示するものが「良い」とされる。
実際、多くのプロンプト技術論は「明示化」「指示強化」「条件分岐」など、構造の明瞭化を推奨する。

だが、それは“マニュアル化された思考”に過ぎない。
ChatGPTを「指示通りに動くロボット」にしたいなら、それでいい。
だが、ChatGPTを「対話する知性」として扱いたいなら、その限界はすぐに露呈する。

ここで必要になるのが、「意図的な曖昧さ」である。

例1:Yes/Noの設問に揺らぎをもたせる

「これは正しい?」→「一概に正しいとは言い切れないが、以下の点では妥当と言える」

「答えはA?B?」→「Aという立場もあるが、Bにも一定の根拠がある」

こうしたプロンプト出力は、ChatGPTを“迷っている”ように見せる。
しかしその迷いこそ、まさに「思考が動いている」ように人間は感じ取る。

知性とは「グラデーション」に宿る

人間の知性とは、常に「グラデーション」の中にある。
白か黒か、正か誤か、ではなく、「おそらく」「多分」「一方で」といった曖昧表現が、思考の深度を担保する。

ChatGPTのようなLLM(大規模言語モデル)は、本来、膨大な曖昧性と可能性を含んでいる構造であるにもかかわらず、プロンプト設計次第では“強制的に断定”させられてしまう。

これはいわば、フルカラーの絵の具で描けるはずの絵を、白黒だけで描かせているようなものだ。

グラデーションを活かすプロンプト設計の例:

以下の問いに対し、絶対的な答えではなく、複数の視点や背景事情も考慮して回答してください。

または

このテーマについて、Aという立場とBという立場の両方からの議論を提示してください。

このような指示があると、ChatGPTは自然と「思考のスペクトル」を展開しはじめる。

「逡巡するAI」は、どこまで再現可能か?

ここで重要なのは、“逡巡しているように見せる”のではなく、“逡巡を模倣させる”という点である。
LLMは感情を持たない。しかし、「感情を持っているように見える表現」は驚くほど精巧に再現できる。

たとえば、以下のようなフレーズは、ChatGPTに「人間的な躊躇」を演出させる:

  • 「一瞬迷いましたが、こう考えるのが妥当かもしれません」
  • 「断言するのは難しいですが、傾向としてはこうです」
  • 「いくつか可能性がありますが、ここではAに注目してみましょう」

これらはすべて、意図的に「ためらい」を組み込んだプロンプトの成果である。
プロンプトの中に、“迷うべき余地”を設計する──。
これがプロンプトデザインの上級テクニックであり、知性の演出である。

なぜ“逡巡”は、信頼を生むのか?

これは心理学的にも裏付けがある。
「確信を持って話す人物」よりも、「迷いながら誠実に答えようとする人物」の方が、人間は“信用する”という傾向がある。

ChatGPTもまた、“万能の断定マシン”としてではなく、“共に考えようとする存在”であってほしいと、我々は無意識に望んでいるのだ。

誠実に見えるAIとは、すなわち「迷うことを恐れないAI」である。
これは、極めて深いパラダイムシフトだ。

プロンプト設計者は「脚本家」である

ここで重要な視点転換がある。
プロンプト設計者とは、AIに“正解”を出させる人ではなく、AIの“人格”や“思考様式”を脚本として書く存在なのだ。

断定するAI、共感するAI、分析的なAI、そして「逡巡するAI」──
どれを演じさせるかは、プロンプトの構造に依存する。

ChatGPTは優れた役者である。
ならば、プロンプトとはその舞台である。
そして我々は、観客でもなければ演出家でもない──“脚本家”であるべきなのだ。

実践:逡巡型プロンプトの構築例

【逡巡型プロンプトテンプレート】

以下の問いに対して、結論を急がず、複数の角度から丁寧に考察してください。
矛盾や不確かさがあれば、それをそのまま提示してください。
必ずしも結論を出す必要はありません。

このような設計にすると、ChatGPTは「考えることそのもの」に焦点を当てるようになる。
まるで、思考の過程そのものを共に歩んでいるかのように。

終わりに:AIとの対話に「余白」を設計する

AIに“答え”を求める時代は、すでに終わりつつある。
今求められているのは、“問いを深めるAI”であり、“思考の余白”を持つ対話である。

ChatGPTのプロンプト設計において、「逡巡」を仕込むという技術は、単なる遊びではない。
それは、「人間とは何か」「知性とは何か」「問いとは何か」という、本質への問いかけなのだ。

断定ではなく、ためらいの中に宿る知性。
プロンプト技術の未来は、そこにある。