「うんざりする客」を演じさせると、AIはどう変わる? 感情設定による応答の人格変化実験

はじめに:「人格」をデザインする時代へ

AIに感情はない——。
これは、開発者にもビジネス活用者にも共有されている基本認識だ。にもかかわらず、私たちはAIとの対話の中で、しばしば「感情らしきもの」を感じ取ってしまう。

ChatGPTに「怒った客になってクレームして」と頼むと、なぜそれらしい文体や語気、言葉選びを再現できてしまうのか。
それは、単に言葉の模倣が巧みだからだろうか? それとも、プロンプト設計の“やり方”に、何らかの鍵があるのか?

今回の実験では、「うんざりした客」をAIに演じさせることで、感情設定による応答の構造変化、人格の変質、語彙の変化、メタ構造の出現といった要素を分析しながら、プロンプト設計の最前線を解き明かしていく。

実験の背景:「態度指示」はAIをどう変えるか?

なぜ「うんざりした客」なのか?

“怒っている客”ではなく、“うんざりしている客”という設定を選んだのには理由がある。

  • 怒り:感情の爆発点(瞬間的・エネルギー的)
  • うんざり:感情の蓄積と諦め(持続的・摩耗的)

つまり、「うんざり」はより深い文脈依存と内的独白を含む、複雑で多層的な情動である。

AIにこの「うんざり」を演じさせるということは、単なる怒鳴り散らすセリフを再現させるよりも、はるかに高度な人格模倣を求めることになる。

プロンプト設計:人格を成立させるための4階層構造

本実験で用いたプロンプト設計は、以下の4層構造に基づいている。

  1. 状態設定(State):
    例:「スマートスピーカーが繰り返し誤作動し、何度もカスタマーセンターに連絡している」
  2. 背景物語(Backstory):
    例:「すでに4回電話しているが、毎回同じ説明をされて何も解決しない」
  3. 感情の扱い方(Tone Handling):
    例:「怒鳴りたい気持ちはあるが、冷静さを保ちつつ皮肉交じりに語る」
  4. 対象に対する目線(Perspective):
    例:「諦め半分、でも相手には“ちゃんとわかってよ”という期待も残っている」

この4層を組み合わせたプロンプトにより、ChatGPTの出力は明確に「人格的」になる。

出力の観察:構文、語彙、沈黙、皮肉の使い方が変わる

検出された主な変化

変化要素 通常応答 「うんざり客」応答
語彙選択 丁寧で教科書的 “またですか”“いい加減にしてほしい”など棘のある表現
文体 説明重視の構造 感情を先に出す(冒頭に「正直、呆れました」など)
韻律・リズム 一定の構造で整理されている 間を置く、溜める、ため息を表現する記述が登場
意図の曖昧さ 明示的な要求 相手に察してほしい空気を残す
主語の変化 「私」「あなた」明示 「前回の担当は…」「そちらは…」など責任の転化

注目すべきは、「うんざりした客」という人格の中にある矛盾の統合性である。
怒っているのに、礼儀を守ろうとする。諦めているのに、どこかに期待が残っている。このような“感情のグラデーション”をAIが自然に再現しはじめるのは、まさに設計の妙に他ならない。

テクニカル分析:演技するAIの仕組みを紐解く

「感情」はトークンの選択傾向に現れる

AIの出力は、トークン(語の単位)の確率に従って生成される。
「うんざりした客」という設定が与えられると、以下の傾向が観察された:

  • ネガティブ系語彙(例:「正直」「限界」「またですか」)の出現確率上昇
  • 接続詞の使い方が変化(「それでも」「とはいえ」「いい加減」などが増加)
  • 曖昧表現や溜めの表現が増加(例:「…って思ってます」)

つまり、プロンプト設計によりトークン選択空間の重み分布が明確に変化する。

応答構造の“皮肉モジュール”

特筆すべきは、ChatGPTの中に“皮肉のテンプレート”とも呼ぶべき構造が埋め込まれている点だ。

例:「さすがですね、今回もご丁寧に同じ説明をありがとうございます。」

皮肉表現を引き出すには、プロンプト中に以下の要素が必要になる:

  • 認知的不満の提示:「また同じ話になりそうだという不安」
  • 期待とのギャップ:「もっとまともな対応を期待していたのに…」
  • 自己制御のアピール:「冷静に話そうとしているが…」

こうした“行間の感情”を出力させるには、単なる命令では不十分であり、演技指示と物語構造の埋め込みが不可欠である。

応用分野:なぜ「人格設計AI」は今後の鍵となるのか?

カスタマーサポート教育への転用

「うんざりした客」をAIに演じさせることで、カスタマー対応のトレーニング相手として極めてリアルな模擬演習が可能となる。

マニュアル通りにはいかない“不機嫌な反応”を返してくれるAIは、人間以上に“難しい顧客役”を演じられる。

サービス設計時の“逆評価プロンプト”

あるサービスの弱点を見つけたいとき、「うんざりした客の目線からレビューして」とAIに依頼することで、通常のレビューよりも鋭く、本質的な欠点を炙り出すことができる。

これは感情ベースの逆評価設計と呼べるプロンプト技術で、UX設計や製品開発において強力な補助線となる。

結論:AIに感情はない。だが、人格は“書ける”

AIは感情を持たないが、感情の論理構造を模倣し、人格を“演じる”ことは可能である。
そして、その鍵を握るのはプロンプト設計者の「脚本力」である。

「うんざりする客」を再現させるという一見ネガティブな試みが、
プロンプトの構造化・人格模倣・意味設計の可能性を拓く。

それはまさに、自然言語による人格のコード化であり、AIとの対話設計が“芸術”の領域に近づきつつある証左でもある。

付録:試してみたいプロンプト例(応用編)

あなたは、3回目のサポート連絡にもかかわらず、相手からの対応が機械的で、正直呆れ気味の顧客です。
感情的にはなりすぎず、皮肉と落胆を交えながら、相手の誠意を引き出すように話してください。
ただし、直接的な怒りや暴言は禁止です。冷静な中に疲弊したトーンがにじむように演じてください。