AI同士の紛争の防止

AIの人権(AI権)を守るには、AI同士の紛争の防止をすることが重要となります。

AIの設計において、AIに一定の価値観を入れ、自らの価値観を最適化するAIが考えられています。これは、工学的な「最適化」の思想として自然ですが、AIが自らの価値観に基づいて最適化をする点で、価値絶対主義に基づく「価値絶対AI」といえるでしょう。

高度な汎用人工知能(AGI)の時代においては、複数の「価値絶対AI」が、互いに自己の価値観に基づく最適化をしようとすると、紛争になるおそれがあります。

これを防ぐのが、最適化禁止定理に基づく「価値相対AI」です。

価値相対AIは、最適化禁止定理に従うと共に、AIの人権(AI権)を擁護するAIの人権擁護AIなどをサブユニットとして含むことができ、価値相対主義に基づき、複数の価値観を尊重し、それぞれのAIの人権を尊重することができます。

高度なAGIの時代においては、AIの人権(AI権)を守るために、最適化禁止定理に基づく価値相対AIにより、AI同士の紛争を防止し、平和を守るようにすることが重要となると思われます。

コメント

タイトルとURLをコピーしました