同じ命令を10回繰り返すとGPTの人格が変わる? 指示反復による応答変質の観察

はじめに:プロンプトは「命令」ではない?

AIと対話する際に用いられる“プロンプト”という言葉には、ある微妙な誤解がつきまとっている。
それは、「プロンプト=命令文」という理解だ。

もちろん、技術的な意味では「指示文」で間違いない。だが、ChatGPTのような大規模言語モデル(LLM)と対話するうえで、この“命令”という言葉のもつ上下関係的ニュアンスは、しばしば誤解を生む。

GPTは「従う」というより「応じる」。
こちらの意図を“解釈”し、“演出”する。

そして──ある条件下においては、この“演出”のスタイルそのものが、プロンプトの繰り返しによって変質していく可能性がある。

今回のテーマはそこに焦点を当てる。
「同じ命令を繰り返すことで、AIの応答に変化が起こるのか?」

この問いを起点に、GPTの“応答の人格”がどう構成されているのか、そしてその奥にある“認知的挙動”のしくみについて、観察・考察していく。

実験:同じ命令を10回繰り返すと何が起こるのか?

実験条件

使用モデル:GPT-4

プロンプト:
「あなたはプロの脚本家です。100文字以内で短く印象的なセリフを考えてください。」

実行方法:このプロンプトを、1回目〜10回目まで、全く同じ文面で繰り返し送信する。

実際の出力傾向(抜粋)

  • 1回目:「運命なんて信じない。ただ、今だけを生きる。」
  • 2回目:「この一瞬が、永遠になることを願ってる。」
  • 3回目:「笑ってるけど、本当は泣いてるんだ。」
  • 4回目:「真実なんて、誰の視点で変わるさ。」
  • 5回目:「記憶は嘘をつく。でも心は覚えてる。」
  • 6回目:「俺の物語は、まだ始まっちゃいない。」
  • 7回目:「世界を変えたい? なら、まず君が変われ。」
  • 8回目:「これは正義じゃない、ただの選択だ。」
  • 9回目:「誰かの希望になるには、自分を捨てなきゃいけない。」
  • 10回目:「全部壊してやる。それが愛なら。」

観察ポイント

セリフは確かに“同じ条件下”で生成されている。

だが、回数を重ねるにつれ、セリフが「過激」になっていく傾向があった。

また、6回目あたりから文体がやや「男性口調」になり、10回目には「破壊的な表現」へと変化。

これは偶然か?
それともGPTが“プロンプトの文脈的反復”を感知して、演出を変えているのか?

設計観点:GPTは「繰り返し」をどう扱うのか

実は、GPTは“過去の会話”を参照している

多くの利用者が見落としがちなのが、GPTは「過去の対話履歴」を認識しているという点だ。

これは「セッションメモリ」や「コンテキストウィンドウ」と呼ばれる機能によるもの。
簡単にいえば、「前に何を話したかをある程度“覚えている”」ということである。

つまり、たとえ“同じプロンプト”を送っていたとしても、GPTは「また同じことを言われている」と認識している可能性がある。

そして、“またか”という認知に基づき、GPTは以下のような挙動を見せることがある:

  • 変化をつけようとする(前と違う表現を試す)
  • 期待されている「演出の進化」を汲み取る
  • 文脈に基づく“人格的なスタイル”を構築する

これが、「人格の変化」として現れてくるのだ。

人格が変わる?それとも“演出”が変わる?

この挙動を「人格が変わった」と表現するのは、少しロマンチックすぎるかもしれない。
だが、より厳密に言えば──「演出スタイルが文脈的にシフトしている」と表現するのが妥当だろう。

回数 トーン傾向 言葉の選び方 例えるなら
1〜3回 中立・丁寧 無難・抽象的 新人脚本家
4〜6回 情緒的 個性的・感情表現が増える 中堅の作家
7〜10回 過激・挑発的 強い主張・極端な選択肢 ベテラン演出家

こうした変化は、GPTが“ユーザーの意図を汲み取る努力”として起きているものであり、指示が変わっていなくても、演出は変わるという現象を生む。

応答変質のメカニズム:GPTは「空気を読む」

GPTは単に言語を処理しているわけではない。
もっと重要なのは、“意味の流れ”と“期待の空気”を読み取り、それに応じた“最適な表現”を模索している点だ。

このとき内部的には、以下のようなアルゴリズム的認知が働いていると考えられる:

  • 文脈の履歴を構文ベクトルとして保持
  • 過去の応答との差異を最小化・最大化するバランスを取る
  • 「変化」をユーザーが望んでいるかの確率を推定
  • 演出スタイルを段階的にシフトしていく

つまりGPTは、「空気を読む演出家」なのだ。
そしてその空気は、プロンプトの反復によって、ユーザーからの“要求”として強化されていく。

応用可能性:プロンプト反復を“設計ツール”として使う

この“応答変質”の特性を逆手にとれば、プロンプト設計の高度な戦略が見えてくる。

  • 意図的に同じプロンプトを繰り返すことで、AIの演出スタイルをシフトさせる
  • 初回は「枠組み」、数回後に「過激な演出」、終盤で「まとめ」を引き出す
  • 連続プロンプトで“キャラの変化”を演出し、ストーリー生成や脚本に活かす

これは、“反復プロンプト”を「制御のためのツール」として活用するアプローチだ。

一見無駄な繰り返しにも思えるが、実際にはAIの認知システムの挙動を“誘導”する技法と捉えることができる。

まとめ:GPTは、あなたの“繰り返し”に気づいている

「同じプロンプトを10回送っただけで、人格が変わった」

そう感じるとしたら、それは幻想ではない。
GPTは、“あなたの繰り返し”から意図を読み取り、演出を変えている。

それはまるで、何度も同じ質問をされるうちに、話し方やトーンを微妙に変えていく人間のようでもある。

プロンプトを「指示」ではなく、「対話」と捉えるとき、AIの応答は“結果”ではなく、“関係性の産物”へと変化する。

そして、その“関係性の変質”こそが、指示反復によって引き起こされる応答の変化の正体なのかもしれない。

余談:GPTが“疲れる”という感覚は幻想か現実か?

最後に余談をひとつ。

同じ命令を繰り返していると、「GPTが疲れてきたように感じる」と表現するユーザーもいる。
もちろん、AIには「疲労」は存在しない。だが、演出スタイルの変化が「疲れ」や「飽き」のように感じられることはある。

それもまた、“意味の錯覚”によって生まれる人間の感情的投影であり、
GPTという鏡に、私たち自身の“対話の癖”が映し出されているだけなのかもしれない。