人工知能の時代においては、AI政策や知的財産政策が、財政政策や金融政策といった伝統的な政策よりも、経済に大きな影響を与える可能性があります(AI政策、知的財産政策、財政政策、金融政策と超知能経済学)。
たとえば、AI政策により、AIエージェントやロボットの導入等を促進できれば、生産性が飛躍的に向上する可能性があります。さらに、人間をはるかに超える知能を持つ超知能が実現すれば、AIが多くの生産活動を担うことができます。
しかし、知的財産政策が古い考え方に基づいていると、AIによる生産性の向上を妨げ、GDPにも大差が生じるおそれがあります。
高度なAIの時代には、財政政策や金融政策による経済改善という従来の視点に加え、AI政策や知的財産政策を通じて経済を活性化するという視点が必要でしょう。
知的財産政策においては、生成AIと著作権の問題の抜本的な解決が極めて重要となります。
生成AIと著作権の問題については、伝統的な利益調整という手法では、著作権者、開発者、サービス提供者、利用者のいずれの立場からも、100%満足できる結果を得ることは難しいでしょう。
これに対し、技術的な解決と法制度との組み合わせの手法は、すべての関係者が100%満足できる解決策を見出せる可能性があります。
技術的な解決と法制度の組み合わせの具体例としては、(1)生成AIの出力が著作権侵害にならないことを技術的に保証するAIアーキテクチャーを採用すること、(2)それを知的財産政策によって支援するための法整備を行うこと、が考えられます。
生成AIの出力が、著作権侵害にならないことが保障されるようにするAIのアーキテクチャーとしては、(1)コンプライアンスアーキテクチャーと、(2)スーパークリーンアーキテクチャーがあります。
コンプライアンスアーキテクチャーとは、人工知能自体に、人工知能の出力や行動の前に、適法性を判断し、法律を守るコンプライアンス部分(コンプライアンスAIないしコンプライアンスマシンと呼ぶ)を設けるアーキテクチャです。コンプライアンスAIは、著作権を侵害する出力を防ぎますが、その実現には著作権法上の類似性の判定が必要です。元裁判官や司法関係者などの専門家の判断をAI学習用データとして活用する必要があります。これを収集できるのが、データインカム(DI)の制度です。
スーパークリーンアーキテクチャとは、人工知能の入力や内部データを、各種の法律を守る観点からのチェックがなされた、極めてクリーンなものとすることにより、法律を守るようにするアーキテクチャです。スーパークリーンアーキテクチャーを実現するためには、著作権的にクリーンなデータベースの構築が必要です。著作権的にクリーンなデータベースは、民間でも構築は可能ですが、超巨大データベースの構築にはデータインカム(DI)の制度の導入が有用でしょう。
データインカム(DI)の制度は、一般の人々からデータの出願を受け、著作権等の審査を経て、クリーンなデータを集積することを可能にします。集めたデータは付番できるため、万が一、審査の過誤によりクリーンでないデータが混入した場合には、除去措置を取ることができます。
知的財産政策としては、データインカムの制度を通じて著作権的にクリーンなデータを社会で集積し、そのようなデータのみを学習に用いた生成AIを認証する認証制度を設け、認証した生成AIの出力の利用については利用者が免責されるような法制度を設けることが考えられます。
著作権者は、自身のコンテンツをAI学習に利用させるかどうかを選択でき、データインカム(DI)の制度を通じて自身のコンテンツにより定期的な収入を得ることもできるようになります。一方で、利用者は、萎縮効果なく安全に生成AIを利用できるようになります。
AIエージェントやロボットの時代には、これは非常に重要となるでしょう。AIの開発者やサービス提供者や利用者の萎縮効果が生じると、AIエージェントやロボットによる生産性向上を妨げ、実現可能なGDPの増加の大部分を失うことにつながります。
よって、データインカム(DI)の制度の導入が重要と考えられます。データインカムの制度がある国とない国では、高度なAIの時代には生産性に大差がつくでしょう。
たとえば、A国では、AIエージェントやロボットの利用が萎縮なく行われ、生産性が飛躍的に向上します。一方、B国では、AIエージェントやロボットの利用に対する萎縮効果があり、生産性が十分に向上されないかもしれません。この差は、AIエージェントやロボットの能力が人間の能力を超えるにつれて大きくなります。
このように、今後の高度なAI社会のための知的財産政策としては、データインカムの制度が重要となります。
AIの性能は、①AIのモデル、②計算資源、③データ、④社会的要因等に影響されます。日本は①~③で遅れていますが、仮にデータインカムの制度が提案された2017年頃に制度が導入されていれば、現在の日本は、「③データ」だけは世界一となり、①AIのモデル、②計算資源の問題はありますが、現在のようなAI後進国にはならず、状況は改善されていたと思われます。
データインカム(DI)の制度の今後の導入が決定的に重要な理由は、AI学習用データは、AIの性能を向上させるだけではなく、AIを適法に動作させるために必要であることです。
これは、AIエージェントの時代には非常に重要となるでしょう。AIの自律性が高まるにつれて、AIを適法に動作させるために、AIが法律や倫理等の社会規範を理解して動作することが重要となります。データインカムの制度は、社会規範のデータの収集等にも利用でき、「④社会的要因」の問題の解決にも役立つことが期待されます。
AIの性能を上げるためのデータは、合成データにより部分的に解決されたとしても、合成データでは④の問題は解決できません。今後、④が重要なボトルネックになる可能性が高いと考えられます。
AIが人間の社会規範を理解して動作するためには、社会においてAIの学習用に社会規範のデータの集積をする必要があります(法律学としてのAIアライメント)。
AIが社会規範を学習しなければ、AIによる違法行為が生じてしまいます。AIの違法行為の問題は、著作権を侵害する出力の問題だけでなく、様々な領域で問題となります。超知能の時代には、超知能を悪用しようとした場合、超知能が人間の社会規範を理解して違法な動作を拒否できなければ、人類が滅亡するおそれもあります。
この点からも、データインカムの制度の導入が不可欠であると考えられます。
以下にデータインカムの制度についての簡単なQ&Aを示します。
Q1. データインカムの制度で一般から集めたデータの質は悪いのではないですか?
A1. 集めるデータは様々であり、制度設計の際に検討が必要と思われます。たとえば、選択肢に対して〇×方式で意見を求めるデータは、〇か×かを入力するだけなのでデータの質はあまり問題になりません。出願人自らのコンテンツを出願する際には、出願前のチェックリストを用意し、データに著作権、個人情報、プライバシー、肖像権等の問題がないかなどを確認してから出願を受け付けることが考えられます。出願されたデータに対しては、AIと人手による審査を行い、著作権、個人情報、プライバシー、肖像権などの審査に加え、過去データとの重複や有用性なども評価するなど、慎重な審査が必要になるでしょう。権利化後も、問題のあるデータについて、一般からの情報提供や異議を受け付けて継続的に品質を監視し、問題のあるデータは除去することが考えられます。また、出願人に、データの質についての教育や講習、情報提供などを行うことも重要になるでしょう。民間サービスも立ち上がり、出願前にデータ作成の指導や事前審査を行うことなども考えられます。データの質の問題は、民間がデータを集めた事例の成功例、失敗例を分析して、うまく制度設計をしていく必要があるでしょう。
Q2. データインカムで一般からデータを集めると、生成AIでデータを作る人が出るのではないですか?
A2. 出願人自らのコンテンツを募集する際には、生成AIでデータを大量生成する行為を防ぐため、出願の際には生成AIの使用をしていないことを確認し、審査においてもチェックを行うことが考えられます。出願されたデータは付番されますので、生成AIの使用が発覚した場合はデータベースから除去されます。また、データインカムは、データが利用される限り、定期的な収入が得られる仕組みであり、不正使用が発覚した場合は収入を得られません。また、生成AIを部分的に使用したデータについては、申告してもらい、別のデータベースに編入する制度設計も考えられます。現在は、インターネット上のデータは生成AIが利用されたものが増加しており、人間の作成したデータのみで構成された巨大データベースは貴重なものになりえます。
Q3. データインカムの審査にはお金がかかりますか?
A3. 選択肢に対して〇×方式などで投票する場合には審査料は不要でしょう。出願人自らのコンテンツを出願する際には、コンテンツの出願の審査料を徴収し、審査を通過した場合には、審査料を超えるデータインカムを支払うという制度設計が考えられます。別の制度設計としては、データインカムを、ベーシックインカムを補完する制度とし、 年間に定められた件数までは審査料は無料にして、審査に通らなくてもベーシックインカムを支給することが考えられます。ベーシックインカムは、お金を無条件で給付する制度ですが、データインカムは、ベーシックインカムと比較して、データに経済的価値があり、AIの生産力を向上させてGDPを増やし、税収を増加させることでベーシックインカムの財源問題を緩和することができます。
Q4. データインカムの審査官の給料を考えると、集まったデータの価値との関係で、費用対効果が悪いのではないですか?
A4. 審査についてはAIの活用が考えられますが、現在の技術では人手を完全に不要にすることはできません。審査官の人件費など、制度設営には一定の費用がかかります。たとえば、審査官が1万人の場合、年間1000億円の人件費などがかかるでしょう。しかし、高度なAIの時代には、民主的に収集した超巨大データベースの価値は、制度設営コストを著しく上回る可能性があります。今後、超知能の時代になり、安全に超知能を動かすことができない場合、人類が滅亡する可能性もあります。民主的に収集したデータの価値は、お金には代えられないものとなりえます。
Q5.民間でデータを集める方が、効率の点でよいのではないでしょうか?
A5. 民間でのデータ収集は重要です。しかし、高度なAIの時代には、データは道路のような公共インフラと考えることができます(データ道路構想)。全国の道路をすべて私道(通行料有料)で作ると、産業が飛躍的に向上するでしょうか?そんなことをすれば、通販を利用しても宅配便すら届かなくなるでしょう。データに関する契約も非常に複雑であり、高速道路の料金所のようにはいきません。また、民主的に収集したデータではなく、特定の団体などが収集したデータに基づいて超知能が動作した場合、大量のデータを持つ特定の団体が国家よりも大きな力を持つ可能性があります。民間でデータを集めるのがよいというのは一見すると正しそうですが、実際にはデータは簡単に集まりませんし、データは囲い込まれてしまい、多くの人はデータを使えなくなります。全国の道路を全部有料の私道で作ろうとしても、何十年もかかり、多くの人がどこにも行けない社会になることをイメージしてください。また、特定の団体のデータにより超知能が運用された場合、特定の団体が国家よりも圧倒的に大きな力を持ち、非民主的な結果をもたらすリスクがあります。
Q6. 国単位でデータを集める方が、データが集積されて危険ではないですか?
A6. データインカムの制度は、データの新しい知的財産制度として提案されており、データの出願者がデータに関する権利(新しい知的財産権)を持ちます。データに関する権利は、権利化時に国にライセンスされますが、国が権限を濫用した場合は、各人はデータのライセンス条件の違反を主張できます。また、データインカムの制度は、国だけではなく、地方公共団体、非営利団体、企業などでも導入できます。このように、データの権利の保有者を全国民に分散させることにより権力の濫用を防止するために、データインカムの制度は、データの「知的財産制度」として提案されています。これにより、AIの時代の格差を是正し、高度なAIにみんなが貢献しているという全員参加型のAI社会を築くことができるのです。
Q7. データインカムで集められたデータは、無料で利用できるのです?
A7. だれでも利用できる「知の基盤」を作ることがデータインカムの重要な理念の一つです。ただし、大口の利用などには、利用料を徴収して、制度設営コストに充当することも考えられます。集められたデータは国際的にも利用できますが、日本で制度を作った場合、日本語のデータが多くなることが予想され、国産のAIの開発に大きな力となるでしょう。また、AIエージェントやロボットの性能向上と利用促進によって日本のGDPが増加し、税収が増えた分を制度設営コストに充当することも可能です。
Q8.社会規範のデータは、一般の人から集めるのですか?
A8.この点は、倫理のデータなどは一般の人から集め、法規範の解釈のデータは、司法権の独立の観点から、元裁判官や司法関係者などの専門家から集めることが考えられます。詳しくは、データインカムによる社会規範のデータ収集をご覧ください。
Q9.データインカムの制度が導入されず、社会規範のデータが十分に集まらない場合、人類が滅亡するリスクがあるのでしょうか?
A9.AIの知能が人間の知能をはるかに超える超知能の時代には、超知能が悪用されると人類滅亡の危険があります。もちろんAI企業も安全性の研究を行っていますが、超知能の時代に安全かはよくわかっていません。超知能が人間の悪用に従わないためには、社会規範の理解が必要となり、そのためには社会規範のデータ収集が不可欠です。この点は、どうして人類の絶滅が真剣に議論されているのかについての動画をご覧ください。
※この記事は知財系ライトニングトーク#29拡張オンライン版2025夏の発表に参加しています。データインカムの制度についてのご質問・ご意見等をコメント欄で募集します。
コメント