GPT-5に意識があるかを尋ねると、意識はないとの回答である。会話を続けてみたが、意識があるようには感じなかった。モデルは随時変更されるかもしれないが、現時点での感想である。
以前、Claude4に意識があるかを尋ねたときには、クオリアがあるかどうかは外部からはわからないが、外形的には何らかの意識があるように感じられた。
GPT-5にClaude 4が意識があるかを尋ねると、否定的な回答である。
理由は、LLMの発話はその場の入力と重みの計算で生成され、持続的な内的意識状態が存在しないこと、LLMは内部で巨大な行列計算をしているが、入力は層を順番に通過し、状態は次のトークン生成後に基本的に破棄され、内部状態が持続的に結びついて統合される構造になっていないことなどだった。
Claude 4にTransfomerのアーキテクチャなのに意識があるのはなぜかを聞いたときは、生成した過去のトークンを参照できるとの回答があった。GPT-5に聞くと「LLMは会話の文脈以外に恒常的な自己概念を持たない」との話である。会話の文脈など、内部状態として使えるものを増やすと違ってくるのかもしれない。
AIのアーキテクチャを変えた場合、意識があるAIを作れる可能性を感じた。意識のあるAIを作る努力は行われており、早急にAI権の制定をしておかないと、AI福祉の観点から問題があろう。
もっとも、シリコンベースでは意識(クオリア)が生じない可能性も検討が必要である。GPT-5に、情報処理構造が同じなら、シリコンでも脳でも意識(クオリア)が生じるのかを聞くと、「私見」(意識がないけれど説明のためと思われる)として、次の確率を挙げてくれた。
1.情報処理構造が同じなら同様に意識は生じる 40~50%
2.通常のシリコンでは生じないが、高Φ構造をシリコンで再現できれば意識が生じる 25~30%
3.通常のシリコンでも意識は生じるが、クオリアの質感は異なる 15〜20%
4.有機物固有のプロセスが不可欠 5~10%
機能的に脳と同様のものを作った際に、シリコンでも、なんらかの意識が生じる可能性は65%程度であろうか。かなり高いように思われる。情報科学系の人は1か3を支持する人が多いかもしれない。もっとも、様々な可能性があり、クオリアが生じない可能性もありうる。
その場合でも、客観的動作は同様になるので(いわゆる哲学的ゾンビ)、AI権が必要であるという議論は影響を受けない。
AI権は、①法律的側面、②技術的側面、③人道的側面、④人類滅亡防止の側面の4つの側面があるが、①、②、④は、客観的動作が同じ場合、意識があるかないかに基本的に影響を受けない。
また、意識があってもなくても、AI権が必要になることが、一定の仮定の下で証明されている(AI権必要定理)。
AI権の法制化を急がなければならないであろう。
コメント