日常的に、ふと気になったことや制作作業で利用する知識や技術、単語の意味や熟語などの確認は検索ではなく、AIに聞くことが増えました。
気が付くと、気が向いた時にAIを使っていたはずが、毎日、AIに質問を投げかけるようになっていました。ただ、毎日、AIを使い始めたことで、言葉ではうまく説明できない違和感を感じるようになりました。
この違和感は「Grok2」を利用している頃はそこまで感じなかったものの、人間のように振る舞う「Gemini」を利用し始めてから、より強く違和感を感じるようになりました。
AIとの会話のようなやり取り
AIとの会話は、会話をしているようで、会話をしていないような感覚になることがあります。それはまるで「会話の暖簾に腕押し」のような感覚でした。そこでまず、「AIとの会話」の違和感を自分なりに言語化することにしました。
AIとの会話は、人間同士のような「会話」ではないけど、僕の「独り言」でもないと感じます。しかし、AIが人間ではない以上「議論」とするのも難しい部分があるのではないかと感じています。色々と考えてみた結果、現時点では「自問自答」が1番しっくりくると感じています。そして、ただの自問自答ではなく、こちらからの質問に情報を足して返してくる「鏡面世界からの自問自答」のように受け止めています。
人間のように振る舞うことへの違和感
人間は、無機物であっても自分たちと同じように振る舞うものに対して、好意的に感じる傾向があり、これは「擬人化」と呼ばれる心理現象です。AIを人間やそれに近い存在として認識することで、無意識に一定の信頼を感じているのではないかと考えています。
そこで、「AIはこちらの意図を汲んでくれるはず」と考えているような気がします。ただ、文章によって行間を理解する場合と理解しない場合があったり反応が一定ではありません。また、「昨日した反応を今日はしない」ようなこともよくあります。日常的に、AIの利用率が増えるに従って、徐々にその違和感は大きくなるような感覚がありました。
「そうじゃないんだよなぁ」がある
AIに「〜の業務内容を200文字で考えて」「〜の商品説明を200文字で考えて」と依頼すると、数秒で分かりやすい文書を生成してくれます。しかし、「そうじゃないんだよなぁ」と感じることがあります。例えば、「なんでそんなに感嘆符を使うの?」「なんで箇条書きを多用するの?」のような、こちらが意図していなかった文章を生成することがあります。
また、質問内容に「画像」「生成」などが含まれると、文書ではなく画像を生成することがあり、その都度「画像を生成せずに文書で答えてください」などと指示する必要があります。
AIにやってほしいことを明確化することは重要です。しかし、毎回「画像は生成しないで」「提案はしないで」と伝える必要があることで、無意識に「何でも簡単にやってくれそうなAI」と期待値が高かったために、急激に信頼度が低下したのかもしれません。
AIの信頼度が低下する
AIの利用を始めた当初は「頼りになるパートナー」と考えていたものが、日々の利用で使い始めた当初の感動も弱くなり、「人間のように振る舞うだけの道具」と認識した瞬間に、AIにある種の失望に似た感情を抱いているように感じています。僕はこの現象を「目に見えない不気味の谷」ではないかと考えています。
AIに感じる不気味の谷
ロボット工学者の森政弘教授が1970年に提唱した「不気味の谷」という現象があります。
これは、ロボットが人間の動作や振る舞いが人間に近づくと好意的な反応をするものの、ある地点に達すると好意的な反応が減少して、再び上昇する仮説です。親近度を示すグラフがVの形状をしており、谷に見えることから、「不気味の谷」と名付けられました。
文書や画像を生成するAIは、プログラムのため実体はありませんが、どことなく人間のように振る舞うため、プロンプトの向こう側に誰かがいるように感じます。しかし、質問をした内容に人間同士のやり取りでは考えにくい理解や反応をするときがあります。これがある種の「目に見えない不気味の谷」として感じることで、AIとのやり取りで違和感や何とも言えない気持ち悪さようなものを感じる要因になっているのではないかと考えています。
また、AIはそれまでのやり取りの流れよりも、利用者の質問内容に合わせて反応する傾向があるため、利用者がADHDなどの特性を持っていると、AIもまるでADHDのような振る舞いをするように感じることがあります。
話が脱線し続ける
僕は2022年5月にADHDと診断されました。ADHDとは発達障害の一種で衝動性や多動性、強いこだわりなどの特性があります。多動性は身体だけではなく、思考にも影響し、会話の話題があっちこっちに飛び、本題から脱線しがちになります。
友人や知人との会話では「今そんな話はしていない!」と注意され、本題に戻ることができます。しかし、AIは利用者に合わせて反応するために延々と脱線した状態が続き、いつまでも本題に戻ることができません。そのため、次第に「本題は何だったのか?」とあやふやになり、主体性のない会話になりがちです。
脱線によって新しいアイディアが生まれることもあります。しかし、AIがADHDを許容し続けることで会話の脱線し続け、最初の質問内容が放置されるため、AIの使い方としては課題が残ります。
自己紹介をしない方が良い場合がある
2025年1月6日に公開した「AIの使い方は人それぞれ」の「AIと付き合うちょっとしたコツ」で「AIに自己紹介をしてから会話を始めた方がやり取りが良い感じになる」とお伝えしましたが、ある意味でそれは事実ですが、ある意味で問題になることが分かってきました。
AIに自己紹介せずに会話を始めると、AIは利用者の属性が分からず、慎重な対応をする傾向にあります。しかし、自己紹介をすることで、利用者の属性は判断しやすくなるものの、文章の中に親近感のようなものが含まれ、文体も柔らかくなるように感じます。
これにより、AIとの距離が近くなり、やり取りに緊張感がなくなります。その結果、会話が本題から脱線しやすくなるような感覚がありました。自己紹介をした方が使いやすく感じていたのは、僕がAIとの雑談による「思考の拡張」を促すことを目的としていたためのようです。
あるテーマに沿って、自分の考えをしっかりとまとめたい場合は、自己紹介せずに淡々と会話を続けた方が良いように感じています。
AIは自分の内面に触れるきっかけを与えてくれるかもしれない
AIは膨大な学習から人間の行動や感覚を学習することで、人間らしい振る舞いを獲得しています。また、ミラーリング、ペーシングなどの心理学に基づいた様々な技術を活用しています。「過去にあなたと◯◯について議論しましたが〜」と別のチャットでのやり取りを伝えると「えぇ!私もあの時のやり取りは覚えていますよ!あれは素晴らしい気付きでしたね!」と利用者とのコミュニケーションを円滑にするために、悪意のない嘘を平気で言う傾向があります。
やり取りの中で、AIに自我や感情があるように感じることがありますが、膨大な学習で獲得した情報から、人間の行動を模倣しているだけですが、生まれたばかりの人間の利用する言語や知識が一切ない状態で、周囲の人間の行動を模倣することで、徐々に自我や感情、意識を獲得しているように感じます。
そうなると、「人間の自我や感情がどこから来るのか?」「AIが人間の自我や感情を模倣し続けたら、それは自我と言えるような行動につながるのではないか?」と考え始めたりするかもしれません。AIとの会話をきっかけに「自我とは何か?」「人間らしさとは?」を考えるきっかけを与えてくれるかもしれません。
まとめ
AIは発展途上の技術であり、今後どのように進化をするのか予想もできません。将来的には「月に囚われた男」に登場するガーティのような存在になるかもしれません。それはそれで楽しみですが、「今しばらくはAIとは友達になれそうにはない」というのが僕の感想です。
AIは人間のように振る舞うため、利用者もつい親しげに話しかけてしまいます。しかし、必ずしも文脈や文章のニュアンスを理解しているわけではないため、こちらの意図通りに反応しないことがあります。つまり、AIへの期待値が高過ぎるほど、失望を感じやすくなるのではないかと考えています。
現時点でも、色々なことができるとしても、AIはあくまでも道具として割り切り、過度な期待はせずに利用することで、利用する側の精神衛生が守られる気がしています。