ゲームの変革:EUに焦点を当てた生成AIとエージェントAIの法的ガイド

Written By

Aya Saito

Partner
日本

私はBird & Bird東京オフィスのコマーシャル部門のパートナーです。

過去数十年の間、ゲームにおける「AI」とは、コンピューターが制御する敵キャラクターの予測可能なルールに基づいた振る舞いを意味するものでしかありませんでした。今日、この状況は、同時進行する二つの技術革命によって根本的に変革されつつあります。

  • かつてない規模でコンテンツを生成する強力なエンジンである生成AI、そして
  • 独立して行動する自律型システムを実現させる、より大きな変革をもたらすエージェントAIの出現です。

自律型システムは、独自の目標を持つ動的で「生きている」キャラクターから、ゲームのテストや動的な難易度調整を行うインテリジェントなバック・エンド・プロセスに至るまで多岐にわたり、自ら知覚し、推論し、行動する能力を有しています。この2つの技術の進歩は、創造的および商業的に計り知れない機会を切り拓く一方で、急速な変革による摩擦を伴います。ゲーム業界内では、効率化を推し進める経営層と、雇用の喪失やゲームデザインの均質化の可能性を危惧するクリエイティブ専門職との間に、明らかな緊張関係が生まれています。もう一つの大きな緊張の原因は、知的財産(IP)の戦略的価値にあります。ゲーム会社は通常、ストーリーライン、象徴的なキャラクター、世界観全体から成る強力なIPポートフォリオを構築しており、中核となる創造プロセスをAIに委ねることで管理可能性や独自性を失うリスクにして消極的なのです。

同時に、このような進化により、開発者、パブリッシャー、そして法務アドバイザーは、EUにおける複雑な法的課題に直面しています。著作権、EU AI法のような画期的な規制の遵守、そしてプレイヤー・データの適切な利用を巡る問題は、もはや理論上の考察ではなく、緊急の戦略的課題となっています。

本稿は、ゲーム業界の意思決定者の方々に向けたリーガルガイドです。前提知識として主要な技術変革を(第1〜2章で)分析したうえで、グローバル企業がEUで考慮すべき重要な法的事項(第3〜9章)、そしてこの新しい時代を乗り切るために求められる戦略的対応(第10章)を深く掘り下げます。

1. コンテンツ・エンジンとしての生成AI

ゲームにおけるAI革命の第一の柱は「生成AI」です。これは、画像、テキスト、コード、音声などの新しいコンテンツを生成する能力を持つ人工知能(AI)と定義することができます。多くのゲームスタジオにとって、このようなツールは実験的な目新しいものから、開発ワークフローに不可欠な構成要素へと急速に移行しました。その主な機能は、強力なコンテンツ・エンジンとして機能すること、すなわち、複雑なタスクを自動化・高速化し、開発チームがイテレーションを加速させ、コストを削減し、人材をより創造的で価値の高い仕事に再配分することを可能にします。

1.1 迅速なプロトタイピングとコンセプト・アート

開発の最も初期の段階であるプロトタイピングとアイデア出しは、生成AIの導入にとって最も実りの多い土壌となっています。ここではAIが創造的なパートナーとして機能し、デザイナーは広範なビジュアル空間を迅速に探求できます。アーティストはテキストから画像を生成するジェネレーターを使って、キャラクター、背景、小道具のバリエーションを数分で何十種類も生み出すことができます。これは、従来であれば手作業でのスケッチに何日もかかっていたプロセスです。例えば、あるインディースタジオの報告によると、新しいゲームのために17種類の異なるキャラクター・コンセプトを1週間足らずで作成したとのことです。これは従来であればチーム全体で1か月以上かかると見積もられる作業であり、効率が劇的に向上したことを示しています。

1.2 拡張性のあるアセット制作(2D & 3D)

ゲームのアートの方向性が定まると、生成AIはコンテンツ工場として投入され、ゲーム内の中核となるアセットをかつてない規模で生産します。このことは2Dおよび3Dモデルの制作において最も顕著であり、この分野ではテキストから3D(text-to-3D)や画像から3D(image-to-3D)といった技術が急速に進歩しています。専門プラットフォームのエコシステムが成長を続けており、開発者は現在、2Dのコンセプト・アートをテクスチャ付きの3Dモデルに自動で何千個も変換することが可能になっています。一部のスタジオは、従来のモデリング・パイプラインと比較して、時間とコストを最大で20倍節約できたと報告しています。主要なゲームエンジンもこれらの機能をネイティブに統合しつつあり、簡単なテキストプロンプトからスプライト、テクスチャ、3Dメッシュを生成するツールを提供しています。

1.3 ワールド・ビルディング(世界観の構築)とプロシージャル・コンテンツ 

生成AIは、ゲームの世界観構築を2つの異なる方法で変革しています。 

  • 開発ツールとしての役割では、アーティストやデザイナーが「夜明けの森の木立を生成して」というような高度な自然言語プロンプトを使い、詳細かつオブジェクトが完全に配置された3Dシーンを生成することができます。この出力は洗練された出発点となり、その後、人間のアーティストによって手作業で取捨選択、調整が加えられます。これによりアーティストは、ゲーム世界の最終的なルック&フィールに対する完全な創造的コントロールを維持します。
  • これとは別に、生成AIはライブなプロシージャル・コンテンツ生成(PCG)システムも強化しています。従来のPCGは、限定的なルールセットと事前に作成されたアセットに依存することが多く、単調な環境になりがちでしたが、現代的なアプローチでは生成AIを活用して、はるかに洗練された動的な生成システムを構築しています。このような強化されたシステムは、単純なランダム化ではなく、特定のアートスタイルや膨大なアセットライブラリに基づいてトレーニングすることが可能です。 

1.4 対話、クエスト、コードの生成

同様に、生成AIはテキストベースの静的アセットを作成するための強力な共同ライター兼アシスタントとしても機能します。

  • 対話とナラティブ(物語)のスクリプト: 開発者は大規模言語モデル(LLM)を使い、ノン・プレイヤー・キャラクター(NPC)の対話、クエストの説明、分岐する物語の筋書きといった広範なスクリプトを迅速に生成します。これにより、手作業での執筆だけでは実現不可能な、はるかに大規模で複雑なストーリー構造の構築が可能になります。これらのスクリプトは、その後、固定テキストとしてゲームに組み込まれます。
  • コードとブループリントの生成: AIを搭載した「共同パイロット(co-pilot)」は、プログラマーにとって不可欠なものとなっています。これらのツールは、コードエディタに統合されて文脈に応じた提案を行い、C++とビジュアル・ブループリント・スクリプトの両方の開発を加速させ、バグの削減に貢献します。

2. エージェントAI革命:スクリプト制御の操り人形から自律的な行動主体へ

生成AIがゲームの静的アセットを提供するのに対し、「エージェントAI」は動的な振る舞いを提供します。AI革命のこの第二の柱は、コンテンツを生成するツールとしてのAIから、ゲーム世界内で行動する自律的なシステムとしてのAIへの根本的な進化といえます。 

2.1 中核となる概念:知覚、推論、そして行動

あらゆるエージェントシステムの中核には、自律的な振る舞いを可能にする連続的な運用サイクルが存在します。このループは、3つの主要なフェーズで構成されています。

  • 知覚: エージェントは、現在のゲームの状態、プレイヤーの位置や所持品、他のゲーム内エンティティの振る舞いといった環境からデータを収集します。
  • 推論: 収集したデータを処理して文脈を理解し、目的を更新し、長期的な目標を達成するための行動計画を策定します。例えば、特定のプレイヤーにとって難易度がまだ適切かどうかを判断する場合がこれにあたります。
  • 実行と学習: エージェントは選択した行動を実行して結果を観察し、そのフィードバックを用いて自らの成功度を評価し、将来の意思決定を調整します。例えば、プレイヤーがフラストレーションを感じていることを検知した場合、敵のノン・プレイヤー・キャラクターを弱体化させることで難易度を下げる、といったことが考えられます。

ゲーム業界以外でのエージェントAIの利用に関心のある方は、エージェントAIに関するこちらの 記事をご参照ください。

2.2 主な利用シナリオ

大まかな分類で語るよりも、プレイヤー体験を根本的に変える具体的な用例を見ることで、エージェントAIの真価が明らかになります。

2.2.1 創発的な物語と「生きている」NPC

エージェントAIの代表的なユースケースでは、事前にスクリプト化されたストーリーではなく、自律的なキャラクターたちの行動から物語が動的に生まれます。NPCはもはや、静的なクエスト配給役や、限定された対話ツリーを持つ会話相手ではありません。持続的な記憶を持ち、プレイヤーが過去に自分を助けたか裏切ったかを覚えています。独自の目標を追求し、他のNPCと関係を築くことで、スクリプト化されていないイベントが発生し、世界が本当に生きていると感じられるようになります。代表的な例はライフシミュレーターで、そこでは自らの決定を計画、実行、省察するように設計された、完全にエージェント化されたNPCが登場する可能性があります。

2.2.2 自律的なチームメイトと適応型の敵対者

エージェントAIは、人間のような知性で振る舞う仲間や敵を作り出すこともできます。

  • 自律的なチームメイト: これは、AIが駆動する分隊メンバーを指すもので、(プレイヤーが次のイベントを発生させることを受動的に待つような)スクリプト化された追随者としてではなく、真のパートナーとして機能します。彼らは自然言語で意思疎通を図り、独立した戦術的判断を下し、プレイヤーと連携することで、シングル・プレイヤー・ゲームを協力プレイ体験のように感じさせることができます。
  • 適応型の敵対者: この技術は、予測可能でパターンに基づいた戦闘という従来の型を打ち破る敵の創出を可能にします。AIを搭載したボスは、プレイヤーとの戦闘を通じてその戦術を学習し、自らの戦略を適応させることで、戦うたびにユニークで高度化していく挑戦を提供することがでしょう。

2.2.3 「意識を持つ」ゲーム世界とインテリジェントなバック・エンド・システム

エージェントAIは、ゲーム世界そのものと、その基盤となるシステムを、より応答性が高くインテリジェントにするためにも利用されています。

  • 動的な難易度調整: ゲーム自体がエージェントとして機能します。プレイヤーのパフォーマンスをリアルタイムで知覚し、挑戦レベルを巧みに調整することで、プレイヤーを「フロー」状態に保ちます。このフロー状態は、エンゲージメントと定着率を大幅に向上させることが示されています。
  • プレイヤーに適応する世界: 単に難易度を調整するだけでなく、エージェントシステムはプレイヤー個々のプレイスタイルを知覚し、それに合わせてゲーム世界を動的に変化させることができます。例えば、AIがプレイヤーは探索を楽しんでいると検知すれば、リアルタイムで隠し通路やユニークなランドマークを追加生成できます。逆に、戦闘を好むプレイヤーであれば、システムは突発的な敵との遭遇を増やすかもしれません。これにより、世界そのものがプレイヤーの行動に直接応じて進化しているかのように感じられるのです。
  • インテリジェントな品質保証(QA): 開発段階では、「QAgent」がゲームのテストに導入されます。これらのエージェントは固定的なスクリプトとは異なり、人間のような好奇心でゲーム世界を探検し、積極的にシステムを破壊してバグの特定を試みます。これにより、人間のQAチームはより主観的なフィードバックの提供に専念できるようになります。

3. 著作権の泥沼:トレーニング・データ、権利帰属、第三者の権利

急速な新しい技術の導入と並行して、著作権を巡る激しいかつ未解決の議論が、ゲーム業界に大きな法的不確実性をもたらしています。対立の核心は、AIモデルが膨大なトレーニング・データを根本的に必要とすることと、知的財産権保護の基本原則とが衝突している点にあります。このことにより、二つの課題が生じています。すなわち、スタジオは開発中に使用されるAIツールに伴うリスクを管理すると同時に、ゲームプレイ中にエージェントAIがリアルタイムで生成するコンテンツから生じる新たな知的財産権の問題にも対処しなければならないのです。

3.1 AIコンテンツ制作(開発段階)における課題

3.1.1 トレーニング・データの適法性

最初の大きな問題は、生成モデルのトレーニングに使用されるデータに関するものです。AIやゲーム開発者が独自のAIツールをトレーニングまたはファイン・チューニングする場合、EUの著作権法などで保護されうるグラフィックやその他のゲーム要素といったトレーニング・データを使用することの適法性を考慮しなければなりません。AIモデルのトレーニング/ファインチューニングにそのような構成要素を使用するには、一般的には権利者の同意が必要であり、通常は公開または非公開データセットのライセンスを通じてその同意を得ます。

開発者がスクレイピングによってデータを取得したい場合、主要な法域でアプローチが異なるため、世界的に分断された状況が生まれています。

  • 欧州連合(EU)では、スクレイピングのプロセスの一部(例:ウェブサイトから画像を保存媒体に保存する行為)は、通常、著作権法上の複製に該当し、一般に法的正当化事由(最も一般的なのは権利者の同意)を必要とします。加えて、引用権などの法定例外も存在し、許諾のない行為を正当化することができます。スクレイピングに関しては、EU著作権指令(2019/790)第4条にテキスト・データマイニング(TDM)の例外規定があります。この例外が適用されるには、 (1)コンテンツが適法にアクセス可能であること(例:インターネット上で無料で利用できるなど)、(2)権利者がオプトアウト(利用拒否の意思表示)していないこと、が必要です。具体的にゲームの文脈では、(オプトアウトが宣言されていない限り)クローラーが公開されているゲームレビューやフォーラムの議論、ファンタジー世界の設定を記述したWikiなどを収集する場合が、この例外の対象となり得ます。AIはこうしたトレーニング・データに基づき、ゲームをおもしろくする要素や人気のコンセプトを学習します。対照的に、多くのゲーム内デザインはペイウォールの内側にある可能性が高く、自由なアクセスができません。この場合、TDM例外は適用されず、ライセンスが必要となります。
  • 米国では、より柔軟な「フェアユース」の法理が分析の指針となり、4つの要素((i)利用の目的と性格、(ii)著作物の性質、(iii)利用された部分の量と実質性、(iv)利用が著作物の潜在的市場に与える影響)が考慮されます。米国の第一審裁判所は、著作権のある作品をAIのトレーニングに使用することは「変容的」利用であり、フェアユースに該当しうるとの主張に一定の理解を示していますが、この論点に関する議論はまだ進行中です。
3.1.2 帰属の問題:AI生成コンテンツは誰のものか?

第二の重要な問題は、生成AIによって作成されたコンテンツが、そもそも著作権で保護されうるのかという点です。EUと米国の著作権法はともに、保護の対象となるために最低限の人間による創造性を要求しています。

  • 欧州連合(EU)では、著作物は「著作者自身の知的創作物」である必要があります。欧州司法裁判所(Cofemel事件 – C-683/17)によると、これは、創作物が十分な正確性と客観性をもって識別可能であり、かつ著作者の創造的な自由と個性を反映していなければならないことを意味します(例:ゲームのメインキャラクターのアバターデザイン)。 
  • 米国では、著作権局および裁判所が同様の基準を採用しており、保護には「十分な人間によるオーサーシップ(authorship)」が求められます。完全にAIによって生成された作品はこれに該当しません。Thaler v. Perlmutter事件(2023年)では、連邦裁判所が、人間以外の著作者による創作物は著作権法の保護範囲に含まれないことを確認しました。

EUと米国の著作権法いずれにおいても、生成AIに関する核心的な問題は、人間によるオーサーシップの要件にあります。すなわち、人間が創造的なアウトプットを有意義に形成した場合にのみ、保護が認められるのです。これは、AIが作品の真の創作者ではなく、あくまでツールとして機能しなければならないことを意味します。プロセスにおける全ての創造的決定を支配する実質的な入力の事前選択(例:人間が作成したオリジナルのテクスチャや物語を生成の文脈として用い、AIにわずかな修正をさせるに留める)を通じて、あるいはAIの出力に対する大幅な事後編集、取捨選択、そして人間主導のより大きな創造的ビジョンへの統合を通じて、人間は、プロセスに対する創造的コントロールを維持しなければなりません。AIの貢献が支配的で、人間の役割が単に技術的・編集的なものに留まる場合、EU、米国の両法域において著作権保護は否定される可能性が高いでしょう。

その結果、AI生成コンテンツが保護され得るのは、人間が創造的コントロールを行使した場合に限られます。(EUの判例法による明確化を待つ必要がありますが)考えられる例として、ゲームデザイナーが自身で作成した詳細なキャラクター・コンセプトをAIツールに入力し、AIが軽微なスタイル上のバリエーションを提案する、といったケースが挙げられます。AIが本質的に人間の創作物を洗練させるに過ぎないのであれば、デザイナーが創造的コントロールを維持しているため、最終的な創作物にも著作権保護が及ぶ可能性が高いと考えられます。対照的に、単に「生成」ボタンを押し、無編集の出力をゲームに挿入するだけでは、いずれの法域においても著作権保護の基準を満たす可能性は低いでしょう。

このことは、ゲーム開発者にとって重大な意味を持ちます。キャラクター・デザイン、背景、ストーリー要素といったゲームの主要アセットが、人間による重要かつ実証可能な創造的インプットなしにAIによって生成された場合、著作権で保護されない可能性があります。これは、そのアセットがパブリック・ドメインとなり、競合他社がリスクを負うことなく自由に利用できてしまうことを意味します。ゲームのアイデンティティにとって知的財産が重要であればあるほど、その知的財産についての権利を確保するための十分な人間の介入が、より一層不可欠になります。

3.1.3 第三者の権利侵害リスク

開発者には、自社のゲームコンテンツが第三者の権利を侵害しないようにする基本的な義務があります。

知的財産権侵害のリスク自体は新しいものではありませんが、AIによるコンテンツ生成の速度と規模は、保護された第三者の著作物と意図せず重複する可能性を著しく高めます。参照元や影響元を追跡しやすい従来のアセット制作とは異なり、生成モデルは、特にプロンプトが曖昧または一般的である場合、追跡や予測が困難な形で広大なトレーニング・データセットから要素を再現してしまう可能性があります。このリスクは、キャラクター、ビジュアル・アセット、音楽、対話、世界設定といった多岐にわたる創造的要素を単一の製品に結合することが多いゲームにおいて特に顕著です。創造的な要素が非常に密で多様であるため、AIが生成したコンテンツの一部が意図せず既存の知的財産に類似してしまう可能性が高まるのです。

最初の防衛線は、最終ビルドに組み込まれる前に権利侵害の可能性のある要素を特定し、警告するための厳格な「サニティ・チェック」プロセスです。実務上、例えば、AIが生成したアートやテクスチャに対する画像逆引き検索や類似性検出ツールの使用、そして特にキャラクター、名称、ロゴ、UI要素に関する、法務または知的財産権に精通したチームによる手動のクリアランス・レビューなどが考えられます。

それでも残るリスクについては、スタジオは契約による保護に頼ることが多いです。侵害請求に対する補償を提供する低リスクのAIプロバイダーを選ぶことが重要な一歩です。しかし、このような措置の限界を認識することも重要です。契約による補償にはそれ自体のハードルがあることが多く、さらに決定的なこととしては、侵害アセットの使用を禁じる差止命令からスタジオを守ることはできません。差止命令が出されれば、発売後の高額なパッチ適用やコンテンツ削除を余儀なくされる可能性があります。

3.2 エージェントAIがもたらす新たな課題(リアルタイムでのコンテンツ生成)

第二のより新しい課題は、エージェントAIがゲームプレイ中にリアルタイムで動的にコンテンツを生成し、ライブ感のある予測不可能な環境を生み出すことから生じます。

3.2.1 リアルタイムコンテンツの保護

完全に自律的な機械により生成されたストーリー展開、対話、アイテムなどは著作権保護の基準を満たさない可能性があるため、スタジオは動的に進化する自社のゲーム世界に対する権利をどのように確保するかという課題に直面します。これに対する有効な戦略は、エージェントAIのパイプラインが、事前に権利処理されたアセットの「デザイン・コーパス」に依拠するようにすることです。このコーパスには象徴的なキャラクターや物語の中核要素、キー・アイテムなどが含まれ、これらの要素がAIの出力において認識可能な形で再現される場合、その既存の著作権がAIの出力物にも及びうるようにするのです。このため、「アセットが重要であればあるほど、AIエージェントはより厳しく制限されなければならない」ということを中核的な原則とする必要があります。場合によっては、(デザイン・コーパスから特定の定義済み出力を生成するという)決定論的な振る舞いを取らせるという制限が必要となるかもしれません。

3.2.2 リアルタイムでの権利侵害リスクの軽減

トレーニング・データやベース・アセットの権利確保に加えて、開発者は自社のエージェントAIシステムがリアルタイムで第三者の権利を侵害しないよう徹底する必要もあります。裁判所は、AIの出力はその導入を決定したゲーム提供者に帰属すると判断する可能性があります。特に、ゲーム提供者がシステムの機能や統合に対する支配を維持している場合にこのように判断する可能性が高くなります。

ゲーム内のAIが第三者の著作物から派生したと認識できるコンテンツを生成した場合、有効なライセンスや法的に認められる例外(パロディやパスティーシュなど)が適用されない限り、ゲーム提供者は無断複製や公衆送信につき直接責任を問われる可能性があります。

このリスクを管理するため、開発者はコンテンツの境界線と技術的な安全策を導入すべきです。例えば、(コンテンツ・フィルタリング等を通じて)モデルが特定の種類のコンテンツを生成する能力を制限すること、(プレイヤー向けの対話、ビジュアル、ストーリー要素といった)高リスクな出力に対して人間による監視を実施することなどが挙げられます。

プレイヤーがAIの出力に影響を与えうる(あるいはAIでゲーム内コンテンツを自作しうる)マルチ・プレイヤーやユーザー生成コンテンツ(UGC)の環境では、EUのDSA(デジタルサービス法)に類似した、通知と対応に基づく責任モデルが適切かもしれません。このようなモデルの下では、プロバイダーは具体的かつ十分に詳細な通知を受け、迅速に行動しなかった場合にのみ責任を負う可能性があります。このモデルは(まだ)知的財産に関する法には明文化されていませんが、将来の規制や判例の動向がその方向へ進む可能性があります。その可能性は、特にAIが可能とするプレイヤーの創造性が、システムの自律性とユーザーの主体性との境界線を曖昧にするにつれて、高まるでしょう。

4. EU AI法:ゲーム業界のためのコンプライアンス・ロードマップ

NPCの経路探索のような従来のゲーム内AIのほとんどはEU AI法のどのカテゴリーにも該当しないという考えに基づき、「EU AI法」(規則(EU) 2024/1689)はゲーム業界には無関係であるという考えはよくある誤解です。この見解はあまりにもものごとを単純化しすぎています。生成AIとエージェントAIへの依存がますます高まる今日の世界では、EU AI法によるAIの分類、そして決定的に重要な「GPAI」(汎用AI)モデルに関する義務に照らした慎重な評価が不可欠です。したがって、EU AI法は二つの課題をもたらします。スタジオは、自社のゲーム内メカニクスに直接当てはまるAIの利用によるリスクだけでなく、開発とライブ運用の両方を支えるGPAIモデルを規律する別の複雑な制度にも対応しなければならないのです。また、その域外適用の効力により、これらの規則は、企業の所在地に関わらず、AIシステムがEU域内のプレイヤーによって利用されるすべての企業に適用されます。

4.1 適用リスク:禁止事項、高リスク・システム、透明性

第一のコンプライアンス階層では、スタジオは自社のゲームデザインを同法のリスクベース・ピラミッドに照らして評価することが求められます。多くの場合、最高リスクのカテゴリーを完全に回避するようなシステムを設計することが、とるべき戦略となるでしょう。

  • 禁止されるAIプラクティス: EU AI法は、サブリミナル技術や操作的技術を用いて、重大な損害を引き起こす可能性のある形で人の行動を著しく歪めるAIシステム、または子供などの特定の集団の脆弱性を悪用するAIシステムを禁止しています。この「越えてはならない一線」を避けるため、スタジオはエンゲージメントや収益化のメカニクスを批判的に監査しなければなりません。例えば、心理的プロファイリングやプレイヤーのフラストレーションを追跡し、完璧なタイミングでターゲットを絞ったオファーを提示して購入を誘導するAI駆動型システムは、禁止されている操作的プラクティスとみなされる可能性があります。 
  • 高リスクAIシステム: このカテゴリーでゲーム業界に最も関連するのは、感情認識のためのAI利用です。プレイヤーの声、表情、あるいはゲームプレイのパターンを分析して感情状態を推測するゲームメカニクスは、高リスクに分類される可能性が高く、開発者は包括的なリスク管理システム、広範な技術文書、人間による監督といった、負担の大きいコンプライアンス義務を負うことになります。 
  • 透明性義務: リスクのより低い利用について、EU AI法は透明性を義務付けています。この義務は、プレイヤーが特定のAIシステムと対話する際に発生し、明確に履行されなければなりません。例えば、ゲームが生成AIをキャラクターの対話に利用している場合、特にMMORPGでAI制御の仲間がプレイヤーのパーティに参加し、人間のプレイヤーと見分けがつかないように振る舞うようなマルチ・プレイヤーの文脈では、状況から明らかである場合を除き、開発者はプレイヤーにAIシステムと対話していることを知らせなければなりません。同様に、ゲームが本物と間違われる可能性のある合成音声、画像、動画、テキストコンテンツ(「ディープフェイク」)を生成する場合、そのコンテンツは機械可読な形式で人工的に生成されたものであると表示されなければなりません。生成AIがプレイヤーや雇われたモデルなどの実在の人物に基づいてゲーム内アバターを作成するために使用される場合などに、特に留意が必要となります。 

4.2 GPAI制度:導入済みAIモデルに対する重要な監査

AIの利用についてのリスクとは別に、基盤となるGPAIモデル自体に適用される別の一連の規則が存在します。ゲームの開発・運用で使用される生成AIやエージェントAIツールの多くはGPAIモデルに該当しうるため、スタジオは自らが負う可能性のある義務を理解するために、慎重かつ多段階的な分析を実施しなければなりません。
4.2.1 分類:GPAIモデルか?

最初のステップは、NPCの対話用のLLMであるか、テキストから3Dへのジェネレーターであるかにかかわらず、組み込まれたAIがEU AI法のGPAIモデルの定義に該当するかどうかを判断することです。EUのAIオフィスが最近公開した公式の「GPAIガイドライン」は、この分類(トレーニング計算量の閾値を含む)を明確にし、企業が使用するモデルを評価することに役立っています。GPAIモデルは、それらが統合されるシステム(とりわけGUIの追加などを含む)とは区別されなければなりません。 

4.2.2 役割の定義:「プロバイダー」か「デプロイヤー」か?

包括的なGPAIにかかる義務はデブロイヤー(すなわち、商業利用者)ではなく、プロバイダーに課されるため、この区別は最も重要な分岐点です。しかし、この分類は必ずしも単純明快ではありません。スタジオは、モデルを一から構築しなくても、事実上のプロバイダーになることがあります。例えば、スタジオがモデルの開発を委託し、純粋に内部利用のためであっても、自社の名称やブランドでサービスに投入した場合などです。

ここでもまた、モデルレベルとシステムレベルを明確に区別することが極めて重要です。GPAIモデル(例:LLM)が統合されたシステム(例:ゲーム)は市場に出されるが、基盤となるモデル自体は市場に出されない、という可能性があります。この場合、GPAIに関する義務は発生しません。しかし、法的擬制によってプロバイダーとなることもあり得ます。スタジオが未公開のGPAIモデル(例:LLM)を自社製品(例:ゲーム)に統合し、その製品を市場に出した場合、統合されたGPAIモデルが「市場に出された」とみなされ、スタジオがそのGPAIのプロバイダーになる可能性があります。

4.2.3 ファインチューニングのシナリオ:変更によりプロバイダーとなる

多くのスタジオにとって最も一般的なユースケースは、既存の基盤モデル(特にオープンソースのLLM)をファインチューニングによって適応させることです。重要な問題は、どの程度の変更があれば、スタジオが「新しい」GPAIモデルのプロバイダーとみなされるほど実質的と言えるのかです。GPAIガイドラインはこれを評価するための具体的な基準(ここでもトレーニング計算量の閾値を含む)を提供しており、スタジオは自社の変更の範囲を慎重に評価せざるを得ません。狭いタスクのための単純なファインチューニングでは十分ではないかもしれませんが、モデルの中核的な能力を実質的に変更するような大きな改変により、プロバイダーとしての全ての義務を負うこととなり得ます。 

4.2.4 プロバイダーの義務:コンプライアンスとリスクの間の綱渡り

スタジオが自社をGPAIモデルのプロバイダーであると判断した場合、特定の義務を遵守しなければなりません。具体的には、AIオフィスおよび下流のプロバイダー向けの技術文書の作成、知的財産法をいかに尊重しているかを示すための著作権ポリシーの策定、そしてトレーニングに使用されたデータに関する十分詳細な要約の公表が含まれます。これらへの遵守を支援するため、AIオフィスは「GPAI実務規範」やトレーニング・データ要約の公式テンプレートといった実用的なツールを公開しています。しかし、これらの義務を果たすことは戦略的な綱渡りであり続けます。スタジオは、規制当局を満足させ罰金を回避するのに十分な情報を開示しつつ、同時に、トレーニング・データを綿密に調べる権利者などの潜在的な訴訟当事者に対し、不必要な攻撃材料を与えないようにしなければなりません。

5. AI駆動の世界におけるプラットフォーム法、青少年保護、メディア規制

生成AIとエージェントAIがゲームを動的で常に進化し続けるオンライン環境へと変えるにつれて、プラットフォーム規制、メディアおよび青少年保護の枠組み、さらには消費者保護に関する法の下で、様々な問題が提起される可能性が高まっています。

このことは、開発者は、ゲーム、特にインタラクティブなAI駆動型機能を持つものが、よりオンライン・プラットフォームに近いとみなされ、コンテンツ・ガバナンス、年齢に応じた設計、プレイヤーの保護措置に関して、より厳しい義務を課される可能性のある法的な環境を乗り切る必要があることを意味します。

5.1 デジタルサービス法(DSA)とAIを利用したUGC

2024年2月から完全施行されたEUのデジタルサービス法(DSA)は、プレイヤーが独自のコンテンツを作成、共有できるゲームに非常に高い関連性を有する法律です。ゲーム内でUGCが重要な役割を果たす場合、開発者はホスティング・プロバイダーまたはオンライン・プラットフォームに分類され、多くの義務を負う可能性があります。

DSAの下での主要な要素に、通知・対応メカニズムがあります。これは、十分に根拠のある通知を受け取った際に、違法コンテンツを削除するシステムを導入することをプロバイダーに義務付けるものです。この義務は、AIが生成したユーザーコンテンツにもそのまま適用され得ます。AI以前の時代と比較して、生成ツールは、知的財産権を侵害したり、その他の法的基準に違反したりする可能性のあるコンテンツを含め、ユーザーが複雑なコンテンツを作成、配布するハードルを劇的に下げます。プレイヤーが外部のAIツールを使用して権利侵害またはその他の違法な素材を作成し、それをゲーム環境にアップロードした場合、ゲーム提供者は適切に通知され次第、迅速に行動することが求められる場合があります。

将来、開発者自身がゲーム内で生成AIツールを提供するようになると(例えば、プレイヤーが独自のゲーム内アイテム、対話、アバターを作成できるようにするなど)、この課題はさらに複雑になる可能性があります。こうしたケースでは、より広範なコンテンツ・モデレーション戦略の一環として、予防的な安全策を導入することが推奨されます。例えば、ポルノ、ヘイト、その他禁止されているコンテンツを生成する可能性の高い特定のプロンプトをブロックする措置などが考えられます。

5.2 リアルタイムコンテンツ時代の青少年保護とメディア規制

エージェントAIがコンテンツをリアルタイムで生成するようになると、既存の青少年保護法制にとって重大な課題が浮上します。青少年保護に関する法制度は通常、いくつかの規制カテゴリーの区別を設けており、その各々が動的なAIシステムに対して特有の問題を突きつけています。

  • 厳格に禁止されるコンテンツ: 各法域には、児童の性的虐待に関する素材や憎悪の扇動など、特定の種類のコンテンツを厳しく禁止する法律があります。エージェントAIが意図せずともゲーム内でそのようなコンテンツを生成した場合、裁判所や当局がこれをゲーム提供者に帰責させ、提供者がその配信に対して直接的な責任を負わされるリスクがあります。このリスクを軽減するため、開発者は各法域に合わせた堅牢なコンテンツフィルターを導入し、エージェントAIがブラックリストに載った素材を生成しないよう技術的に制限する必要があります。
  • 年齢制限付きコンテンツ: ドイツなど一部の法域では、オンライン専用ゲームは「メディアにおける未成年者の保護に関する州間協定(JMStV)」の対象となります。この枠組みは、子供や青少年の発達を損なう可能性のあるコンテンツに彼らが容易にアクセスできないようにするため、開発者に特定の義務を課します。コンテンツが成人にとっては合法でも未成年者には有害である可能性がある場合、開発者は効果的な年齢確認システムや、時間ベースまたはIDベースのアクセス制限メカニズムといった技術的なアクセス制限を導入しなければなりません。これらの義務はAI生成コンテンツにも及ぶ可能性があり、特にエージェントAIがJMStVの下で制限されるカテゴリーに該当するシーン、対話、インタラクションを動的に生成できる場合はその可能性が高まります。したがって、開発者は、AI生成コンテンツが意図された保護レベルの範囲内に留まるよう、コンテンツフィルター、プロンプト制限、または出力監視の導入を検討すべきです。
  • 年齢評価システムの課題: USKやPEGIといった従来の年齢評価システムは、関連するすべてのゲームコンテンツが発売前に把握され、審査可能であるという前提に基づいて構築されています。この前提は、エージェントAIの利用によってますます揺らいでいます。エージェントAIは、対話、ビジュアル要素、物語の分岐といった審査に関連するコンテンツを発売後に生成する可能性があるためです。ゲームは以前からプロシージャル生成やランダム化を利用してきましたが、それらのシステムは固定された設計の範囲内で動作しており、例えばトラクターシミュレーターにゾンビを登場させるようなことはありませんでした。対照的に、生成AIやエージェントAIは、全く新しい予測不可能なコンテンツを導入する可能性があり、付与された年齢評価の妥当性を損なうおそれがあります。コンプライアンスを確保するため、開発者はAIの出力を、分類過程において意味のある方法での評価が可能となるように、事前に承認されたアセットプール、物語モジュール、その他のコンテンツタイプに制限する必要があるかもしれません。そうでなければ、エージェントAIが、ゲームが評価・発売された後に初めて、審査上重要なゲームプレイ要素を生成してしまうリスクがあります。評価システムがこの変化に対応しない限り、オープン・エンドなエージェントAIの使用は、有効または完全な年齢評価のないゲームが流通する結果につながりかねません。コンプライアンスを確保するため、開発者は、評価機関によって完全に評価可能な、事前に承認された物語モジュールや管理されたアセットプールに依拠するなどして、定義された枠組みの中でAIを制限する必要があるでしょう。 

6. AI時代における契約の枠組み

AIがゲームのエコシステムに深く統合されることで、主要な契約の徹底的な見直しと改訂が必要になります。AI駆動の動的なシステムが開発者、技術提供者、プレイヤー間の境界線を曖昧にする中で、適切に作成された契約は、権利を割り当て、責任を明確化し、リスクを軽減するための重要なツールとなります。 

6.1 プレイヤーとの契約(EULAと利用規約)

エンドユーザーライセンス契約(EULA)やゲームの利用規約(ToS)は、プレイヤーとの関係の中核を形成します。AIの登場に伴い、これらの文書を慎重に更新する必要があります。

  • 透明性と情報提供義務: 契約書では、AIがゲームメカニクスを動的に変更したり、体験をパーソナライズしたりする可能性を含め、ゲームにおけるAIの役割を明確に説明する必要があります。この透明性は、自動化された意思決定やデータ利用に関する消費者保護法規を遵守するために不可欠です。
  • AI生成UGCの権利: プレイヤーがゲーム内のAIツールを使って独自のコンテンツを作成できるゲームの場合、将来の紛争を防ぐため、利用規約(ToS)においてそのAI生成UGCについての権利の帰属と利用権について明確に定義しなければなりません。

6.2 開発者とパブリッシャー間の契約

従来の開発者とパブリッシャーの関係もAIによって再構築されつつあり、契約において新たな種類のリスクや技術的要件に対応することが求められています。

  • AIガバナンスとリスク配分: パブリッシャーは、開発者が使用するAIツールが社内のガバナンス・ポリシーや外部の法律(例:著作権法、AI法)を遵守していることについて、開発者から保証をますます求めるようになるでしょう。契約書では、AI関連の権利侵害や規制上の罰金に対する責任を明確に配分しなければなりません。
  • 技術的なマイルストーンと検収基準: 契約では、AIの使用を考慮した開発マイルストーンと検収基準を定義する必要があります。これには、「技術的負債」に関連する問題を避けるため、納品時のAI生成アセットに求められる状態(例:完全に最適化され、人間によって管理されている状態)を明記することが含まれます。

6.3 AIツールプロバイダーとの契約

第三者のプロバイダーからAIツールをライセンスする場合、その基礎となる契約は、スタジオが有する最も重要なリスク管理手段の一つとなります。

  • 知的財産権、責任、および利用範囲: 契約書では、AIライセンスの範囲を明確に規定し、出力物の帰属を画定し、AIの不具合や予期せぬ有害コンテンツが発生した場合の責任の枠組みを定めなければなりません。
  • 保証と免責補償:最も重要な条項です。スタジオは、AIプロバイダーに対し、強力な保証と、決定的に重要な点として、第三者からの請求(特に、モデルのトレーニング・データに起因する著作権侵害)に対する免責補償を求めるべきです。

6.4 デジタルストアフロントとの契約

ゲーム開発者は、Steam、PlayStation Store、Apple App Storeなど、自社のゲームを配信するプラットフォームが定める利用規約も遵守しなければなりません。

  • AIに関する開示要件: プラットフォームは事実上の規制当局となり、パブリッシャーや開発者に対し、AIの使用状況を正確に開示するよう要求することが増える可能性があります。これらの開示ポリシーに従わない場合、ゲームがストアから拒否されたり削除されたりする結果につながる可能性があります。
  • プラットフォーム・ポリシーの遵守: 規約では、エージェントAIによってリアルタイムで生成されるコンテンツを含め、すべてのゲームコンテンツがプラットフォームのコンテンツおよび安全規則(例:ヘイトスピーチや有害コンテンツの禁止)を遵守することを保証する責任を開発者が負うことになります。

7. データ保護:パーソナライズ体験を支える原動力

生成AIとエージェントAIのゲームへの統合は、プレイヤー・データの扱われ方に革命をもたらし、かつてない量の情報の処理を可能にしています。しかし、この技術革新には、厳格なデータ保護規則、特にEUの一般データ保護規則(GDPR)を遵守するという極めて重要な責任が伴います。AIシステムがプレイヤーデータを原動力とするには、いくつかの主要分野でデータ保護への対応が不可避となります。また、EU機関と各国のデータ保護当局の双方から、AIとデータ保護の複雑な相互作用に関する公式出版物やガイダンスが数多く発表されており、これらすべてを慎重に考慮する必要があります。

  • ゲーム内パーソナライゼーションのための処理: エージェントAIおよび生成AIシステムは、効果的に機能するために個人データの大量処理を基盤としています。これらのシステムは、プレイヤーの行動、選択、コミュニケーション・パターン、その他の振る舞いをリアルタイムで分析し、パーソナライズされた体験の創出、難易度の調整、動的コンテンツの生成を行います。このレベルの詳細なプロファイリングには、ゲーム内での行動がどのように利用されているかについてプレイヤーに対する公正性と透明性を確保するため、堅牢なデータ保護の枠組みが必要です。
  • AIモデルのトレーニングへのプレイヤーデータ利用: ライブゲームの領域を超えて、スタジオは将来のAIモデルをトレーニングし、改良するために、プレイヤーが生成した貴重なデータを利用したいと考えることがよくあります。これは、独立したデータ処理の目的を構成します。将来のゲームタイトルを強化したり、AIの敵キャラクターを改善したりするためにプレイヤーデータを使用するには、明確な法的根拠が必要であり、プレイヤーに透明性をもってこのことを伝えられなければなりません。
  • データフローと「サービスとしてのAI」(AIaaS): すべてのAIシステムを一から構築するスタジオはほとんどありません。多くのスタジオは、自然言語処理やコンテンツ生成といった機能のために、サードパーティのAIツールを統合したり、クラウドベースの「サービスとしてのAI」(AIaaS)プラットフォームに接続したりするでしょう。これにより、プレイヤー・データが外部ベンダーに転送され、処理されるという複雑なデータフローが生まれます。スタジオにとって、これは技術パートナーに対するデュー・ディリジェンスの重要性を高め、強力なデータ処理契約(DPA)が必須となります。 

8. 物理的損害を超えて:欠陥のあるAIとデータ損失に対する責任

EUは現在、デジタル時代に向けて責任規則の現代化を進めています。ここで、2つの主要な取り組みを理解することが重要です。

1つ目は、提案されていた「AI責任指令」(AILD)です(現状、保留となっています)。その目的は、過失に基づく責任追及のルールを統一し、被害者がAIシステムの取り扱いにおける誰かの過失が損害を引き起こしたことを証明しやすくすることでした。物理的な損害を伴うシナリオに焦点が置かれることが多く、純粋なソフトウェア環境であるゲームへの直接的な関連性はやや限定的でした。

ゲーム業界にとってより影響が大きいのは、最近改訂された「製造物責任指令」(PLD)です。この指令は、欠陥製品に対する製造業者の無過失責任または「厳格」責任を規定しています。この現代化が重要な理由は2つあります。「製品」の定義にスタンドアロンのソフトウェアとAIシステムが明示的に含まれるようになったこと、そして「損害」の定義が個人データの損失や破損を対象に拡大されたことです。これは、ゲームのAIシステムの欠陥がプレイヤーのセーブ・ファイルを破損させたり、デジタル・インベントリを削除したりした場合、スタジオに対して製造物責任に関する請求がされる可能性があることを意味します。これは包括的な脅威ではありませんが、スタジオがAIシステムを設計、展開する際に考慮しなければならない新たな潜在的責任です。

9. AIガバナンス:ポリシーから実践へ

これまでの章では、生成AIとエージェントAIに関連する大きな機会と複雑な法的リスクを明らかにしてきました。この状況をうまく乗り切るには、法務アドバイザーと一度きりの議論では不十分です。AI法、著作権法、データ保護の分析から得られた知見は、AIシステムと関わるすべての従業員のための具体的で実行可能なガイドラインに落とし込まれなければなりません。構造化されたアプローチがなければ、企業は混沌とした危険な環境を生み出すリスクがあります。

最悪のシナリオは、承認済みと未承認の両方のAIツールが乱立し(後者はしばしば「シャドーAI」と呼ばれる)、経営陣がリスクの全体像を把握できていない場合です。そのような環境では、従業員が法的要件を遵守し、企業の知的財産を保護し、機密データを守っていることを保証することは不可能です。最も効果的な対策は、一貫性があり、周知徹底されたAIガバナンスの枠組みです。この枠組みを構築するための最初のステップは、包括的なAI利用ポリシーの策定です。このポリシーは、画一的な文書ではなく、むしろ、さまざまな従業員や特定のユースケースに対して明確なルールとリスクベースのガイダンスを提供する実践的なガイドであるべきです。例えば、次のようなものが挙げられます。

  • AI支援コーディング: ポリシーでは、どの「共同パイロット(co-pilot)」ツールの使用が承認されているかを定義し、オープンソースライセンスの対象となる可能性のあるコード提案の取り扱いに関するプロトコルを確立し、独自のコードがAIモデルに漏洩することを防ぐためのセキュリティ対策の概要を定めます。
  • AIによるアセット生成: ポリシーでは、契約上の免責補償を提供するプロバイダーからの、法的に精査された「低リスク」ツールの使用を義務付けるべきです。また、「サニティチェック」のプロセスを正式化し、認識可能な第三者の知的財産権を侵害するリスクを軽減するため、生成されたアセットの人間によるレビューを義務付けます。
  • マーケティングおよびプレイヤーとのコミュニケーション: ポリシーは、パーソナライズされた広告にAIを使用する際のガイドラインを提供し、EU AI法で禁止されている操作的プラクティスを回避し、プレイヤー・データを処理する際のデータ保護原則の遵守を徹底します。

適切に導入されたAIガバナンスの枠組みは、イノベーションを制限するためのものではありません。責任ある形でイノベーションを可能にするためのものです。明確なガードレールを提供することで、企業はチームがAIの力を安全に活用できるようにし、法的コンプライアンスを持続可能な競争上の優位性に変えることができます。

10. 提言:新たな法的環境を乗り切るために 

AI、法律、インタラクティブ・エンターテイメントが新たに交差する領域をうまく乗り切るには、積極的かつ戦略的なアプローチが必要です。開発者、パブリッシャー、そしてその法務アドバイザーにとって、この新しい状況においてリスクを軽減し、成功を収めるためには、以下のアクションが不可欠です。

  • コンテンツの重要度に応じた階層的な知的財産戦略の適用。 すべてのゲームコンテンツが、法務上および戦略上、同じ重要性を持つわけではありません。スタジオは知的財産について階層的なアプローチを採用すべきです。クリエイティブなアセットがゲームのアイデンティティにとって中心的かつ特徴的であるほど(例:主要キャラクター、物語の筋、ビジュアルスタイル)、人間による創作と管理の必要性が高まります。対照的に、反復的、周辺的、またはシステム的に生成されるコンテンツ(例:アイテムの説明、背景アセット、つなぎの対話)は、適切な安全策とレビューの仕組みが整備されていれば、生成AIでより安全に制作または強化することができます。このような人間とAIの労力の戦略的な配分は、特に著作権に敏感な市場において、創造的な完全性と法的な防御可能性の両方を支えます。 
  • EU AI法コンプライアンスのための積極的な監査の実施。 スタジオは、規制当局による法執行を待つべきではありません。EU AI法の観点から、すべてのエンゲージメントおよび収益化メカニクスについて、緊急かつ徹底的な監査を実施することが極めて重要です(特に基本プレイ無料のゲームやライブサービスゲームにおいて)。EU AI法は、損害を引き起こすために操作的または搾取的な技術を用いるAIシステムを明確に禁止しており、この定義は、業界の一般的な慣行の一部に困難を生じさせる可能性があります。この一線を越えないようにシステムを積極的に再設計することは、EU市場で中核機能が違法と宣言されることを避けるために不可欠です。
  • UGCのための堅牢なコンテンツ・モデレーションへの投資。 生成AIがUGCの世界を加速させるにつれて、モデレーションは極めて難しい課題となります。プラットフォームは、AIで作成された違法、権利侵害、または有害な素材の拡散を防ぐため、高度なハイブリッド型のモデレーション・システムに投資しなければなりません。これは安全上および法務上の重大な懸念事項であり、EUのDSAのような規制によって直接的に対処されています。同規制は、ユーザーコンテンツをホストするプラットフォームにデュー・ディリジェンス義務を課しています。効果的な戦略としては、規模拡大のためにAI駆動のツールを活用しつつ、ニュアンスや文脈に応じた判断のために人間による監督を維持することが考えられます。 
  • 中核的なブランド価値としての透明性の支持。 厳格な法的要件を超えて、AIの使用についてプレイヤーに対して透明性を保つことは、信頼を構築し維持するために極めて重要です。例えば、利用規約(ToS)においてAIがゲームのメカニクスにどのような影響を与えるかを明確に伝え、プレイヤー・データがAIシステムのトレーニングやパーソナライズにどのように使用されるかについての明確な情報を提供し、そしてプレイヤーがAI駆動のキャラクターと対話している際のゲーム内通知などで対応することができます。コミュニティの信頼が最も重要である業界において、透明性を重視することは、単なるコンプライアンス上のタスクではなく、強力な差別化要因となります。

生成AIとエージェントAIの計り知れない可能性と、法務上のデュー・ディリジェンスおよび倫理原則への確固たるコミットメントとのバランスをとることで、ゲーム業界はこの新しい時代を乗り切ることに成功し、革新的であるだけでなく、安全で、公正で、プレイヤーの権利を尊重する未来を確実に実現できるでしょう。