「生成AIサービス利用規約」のポイントとひな型を解説

序論

①はじめに

近年、「生成AIを活用したサービス」を提供する事業者が非常に増えています。
GPT、Azure、Geminiなどの基盤モデルのAPIや、ノーコードでシステムを開発できるツールが提供されていることにより、大企業だけでなく、中小企業やベンチャー企業による生成AIサービスへの参入もますます広がっているように感じます。

しかし、そのような中小・ベンチャー企業が提供している生成AIサービスの契約書・利用規約を見ると、生成AI特有の重要な論点、たとえば、

・秘密保持や個人情報とAI学習の関係
・アウトプットの権利帰属
・誤情報・第三者の権利を侵害するアウトプットが生成された場合の責任分担
・アウトプットを収集・分析して類似システムを作る行為(いわゆる「蒸留」)の禁止

といった点について、何も触れられていないケースが珍しくありません。
このような状況は、いずれ重大なトラブルを招く危険があります。

なぜこのような状態になっているのかを考えると、中小企業やベンチャー企業でも参照しやすい解説やサンプル条項が不足していることが大きな要因ではないかと感じています。

本記事は、生成AIサービスに参入する事業者がリスクや論点を理解しやすくなるように、利用規約を作成する上でのポイントを解説し、サンプル条項例を提示してみようという企てです。

断っておきますが、私自身はAIやシステム開発の専門家ではありません。AIに関する理解不足や誤解が含まれている可能性は否定できません。
それでも本記事を公開するのは、日々生成AIの活用が進み、中小企業やベンチャー企業によるサービス提供も増えているにもかかわらず、契約や規約に関する理解が十分に深まっていない現状を強く危惧しているからです。

契約実務の立場から、「中小企業やベンチャー企業でも理解しやすく、使いやすい契約条項例」を示すことには意義があると考えています。完璧な内容ではないかもしれませんが、今後の議論の活性化につながることを願い、恥を忍んで公開したいと思います。

②参考文献など

生成AIサービスの契約法務を巡る重要な文献として、まずは経済産業省が2025年2月に公開した「AI利用・開発に関する契約チェックリスト」を挙げることができます(以下、「チェックリスト」と呼称することにします)。
(https://www.meti.go.jp/press/2024/02/20250218003/20250218003.html)
これは、事業者が業務上で生成AIを利用したり、生成AIシステムの開発を依頼するにあたって、契約・規約上どのような点に留意すべきかをチェックリスト形式でまとめた文献です。
「利用者からみたチェックリスト」であるため、AIサービス提供者向けに規約のサンプルを示すという本記事の方向性とは若干視点を異にするものではありますが、生成AIサービスにおけるリスクや契約・規約上のポイントを理解する上で重要な足掛かりになることは間違いありません。

また、生成AIを巡る法務について、すでにいくつかの非常に有益な書籍が刊行されています。
柿沼太一・杉浦健二著「AIと法 実務大全」(日本加除出版・2025)においては、OpenAI社が規定・公開している利用規約を題材として、生成AI利用規約を作成・検討する上での注意点を分析する試みがなされています。また、松尾剛行著「生成AIの法律実務」(弘文堂・2025)も、生成AIやシステム開発の素人でもどこに問題点・リスクが潜んでいるのかがわかるように、開発段階、利用段階などの段階に応じてリスクや法的評価が詳細に分析された書籍であり、大いに参考になります。

加えて、私自身も生成AIサービスベンダーの顧問弁護士を務めており、開発者・提供者の方と生成AI特有のリスク・問題点を契約書上どのように落とし込むか、日々議論を重ねています。

これらの文献等や私自身の経験や議論も踏まえて、生成AIサービスの規約条項例を検討していきたいと思います。

③本記事の対象(本記事が想定する生成AIサービス)

「チェックリスト」によれば、生成AIサービスは以下の3類型に分類されます。
①汎用的AIサービス利用型(そのまま利用)
②カスタマイズ型(基盤モデル+追加機能やRAG等を組み合わせて提供)
③新規開発型(独自のAIシステム開発)

①は、ChatGPTやGeminiなど、いわゆる汎用生成AIと呼ばれるサービスをそのまま利用するケースが該当します。他方、③は、自社独自のAIシステムをイチから開発するケースが想定されており、中小・ベンチャー企業ではあまり現実的ではなさそうです。

中小・ベンチャー企業がAIサービスに参入する場合、既存の基盤モデルのAPI等に、追加学習やRAGなどを組み合わせることにより、業態や特定の目的に特化したサービス・システムとして提供する、という方式をとることがほとんどかと思われます。
これが②の「カスタマイズ型」に該当する類型です。

本記事でも、②「カスタマイズ型」、つまり、GPTやGeminiなどの基盤モデルを利用し、事業者が特定の業態や目的に特化させた生成AIサービスを提供する場合の利用規約、契約のポイントと条項例を示すことを主な目的とします。

(カスタマイズ型)生成AIサービスのリスク・ポイント

①生成AIサービス一般のリスク

まずは、生成AIを利用したサービス一般について、提供事業者にどのようなリスクがあるかを把握しておくことが重要です。

生成AIサービスは様々な形態が想定されますが、概ね、①ユーザーがシステム・サービス上で何らかのインプットを行い、②インプットに対応してシステム・サービス上で何らかのアウトプットが生成・出力され、③ユーザーはアウトプットを利用して何らかの便宜を得ることができる、ということが本質的要素となるケースが多いものと思われます。

このように、「インプット⇒アウトプット⇒アウトプットの利用」が、生成AIサービス一般に共通する利用態様であると考えることができます。

ここで留意しておきたいポイントは、上記の利用態様のどこにも提供者が直接関与していないという点です。
つまり、「インプット」はユーザー自身、「アウトプット」はAI、「アウトプットの利用」はユーザー自身が実行するものであり、提供者による直接的な関与はどこにも介在していません。
提供者は、AIによる「アウトプット」が可能な限り正確に行われるようにシステムの開発・改善を行うなど、間接的に関与するにとどまり、ユーザーがどのようにインプットを行うか、どのようなアウトプットが生成され、それがどのようにユーザーに利用されるかを直接管理できるわけではありません。

「生成AIサービスは提供者が直接関与しない状態で利用されるものである」ということを念頭に置いて、「インプット」、「アウトプット」、「アウトプットの利用」の各段階について、どこまで責任を負うか、ユーザーによる不適切・不正な利用をどのように防止するかという観点から、条項の検討を行っていくことがポイントとなります。

②生成AIに対する攻撃/不正行為のリスク

生成AIサービスは、その特性上、利用者や第三者からの不正な働きかけにより誤作動を引き起こされるリスクがあります。代表的なものとしては、以下のような攻撃手法が挙げられます。

・プロンプトインジェクション:利用者の入力に不正な指示を埋め込み、意図しない出力や機密情報の漏洩を誘発する行為。
・蒸留(distillation):大量のアウトプットを収集し、競合する類似モデルを構築するために利用する行為。
・その他の不正利用:リバースエンジニアリング、負荷試験を目的とした過剰アクセスなど、システムの安定性や知的財産を侵害する行為。

このような攻撃や不正行為は、サービス提供者にとって重大なリスクとなるだけでなく、利用者の情報流出などの大きな損害に繋がり得ます。
もちろん、一次的にはこうした攻撃への技術的な対策を強固にしていくことが重要です。加えて、利用規約において「不正なインプットや攻撃的な利用を禁止する旨」を明記し、違反があった場合の利用停止・損害賠償責任などを規定しておくことにより、攻撃を抑制したり、不正利用者に対して適切な措置を執ることができます。したがって、規約上も不正行為の禁止や対抗策を規定しておくことは不可欠です。

③カスタマイズ型AIサービス特有のリスク

カスタマイズ型は、基盤モデルを利用し、事業者が自社の業態やサービスに特化させたサービスとして提供する形態です。具体的には、GPT、Azure、GeminiなどのAPIを利用してシステム・サービスを構築することが多いと思われます。

したがって、ユーザーとサービス提供者との二者間の関係に加えて、基盤モデル・API提供者であるOpenAI・Googleなどの第三者企業を含めた三層構造が存在することとなります。

そのため、基盤モデルの利用条件、料金体系や利用規約等の変更があった場合、自社サービスも影響を受けざるを得ない場合があります。例えば、基盤モデルのアップデート等に伴うサービス停止などが生じた場合、自社サービスも停止することになる、などの事態が想定されます。

このように、カスタマイズ型AIサービスを提供する上では、基盤モデルの運営や利用規約の制約を受けることを明記し、これを意識して利用規約を作成する必要があります。

生成AI特有の問題と言うよりは、API・第三者サービスを利用してシステム・サービスを提供するケースでの注意点と言った方が正確ではありますが、これもカスタマイズ型生成AIサービスを開発・提供する上で押さえておくべき重要なポイントであることは間違いありません。

④今後の流れ

以上のとおり、生成AIサービスには、①一般的な利用構造に起因するリスク、②攻撃や不正行為に起因するリスク、③カスタマイズ型に特有の三層構造に起因するリスクが存在することを確認しました。

これらを踏まえ、本記事の後半では、①で整理した「インプット ⇒ アウトプット ⇒ アウトプットの利用」という流れに沿って、それぞれの段階で事業者が注意すべきポイントを具体的に検討します。あわせて、②で触れた攻撃・不正行為を防止する観点を盛り込みつつ、③で指摘した基盤モデル提供者の影響や上流規約の制約を踏まえた条項設計についても解説していきます。

最終的には、これらの論点を整理したうえで条項サンプルを提示し、事業者が自社サービスに応じて調整できるような「実務に直結する条項例」を示していきたいと思います。

「インプット」における注意点・ポイント

「インプット」をもう少し具体化すると、①利用者による不適切なインプットの問題と、②インプットされた情報を提供者がどのように利用、管理するかという問題に分けて考えることができます。

①利用者による不適切なインプットの禁止

生成AIサービスにおいては、ユーザーの入力内容(インプット)がそのままAIの生成結果(アウトプット)に影響します。
そのため、ユーザーによる不適切なインプットが行われた場合、AIが誤情報や権利侵害を含むアウトプットを生成してしまうおそれがあり、結果としてサービス提供者がトラブルに巻き込まれるリスクがあります。

特に、他人の著作物や機密情報、個人情報を入力してしまうと、AIの出力内容を通じて第三者の権利侵害が生じる危険があるため、利用規約上で明確に禁止しておくことが不可欠です。
また、法律・医療・財務など、専門的判断を要する領域での利用は、AIの誤出力が重大な損害を招く可能性があるため、サービス提供者側の責任を限定する観点からも禁止対象に含めるのが望ましいでしょう。

このように、利用者が入力してよい情報の範囲を明確化し、「AIに入力すべきでない情報」を明示することが、生成AIサービスの安全な運用において極めて重要です。

第X条(禁止行為)
1.ユーザは、本サービスの利用にあたり、以下の各号のいずれかに該当する行為をしてはなりません。
(1) ……
(X) 第三者の知的財産権、名誉権、信用、プライバシー、肖像権、パブリシティその他一切の権利を侵害する情報又はそのおそれがある情報を入力する行為及び第三者の権利を侵害するおそれのあるアウトプット情報を転載・公開する行為
(X) ユーザまたは第三者の個人情報(氏名、住所、メールアドレス、電話番号、SNSのアカウント情報を含みますがこれらに限られません。)を入力する行為
(X) 第三者に対して秘密保持義務を負う秘密情報を入力する行為
(X) 事実と異なる誤った情報を生成することを目的とした情報を入力する行為及び事実と異なる誤った情報を含むアウトプット情報を転載・公開する行為
(X) 違法行為若しくは公序良俗に反する行為またはこれらを促進・助長する情報を出力するおそれのある情報を入力する行為及びこれらを含むアウトプット情報を転載・公開する行為
(X) 法律、医療、財務等専門的知識を要する領域その他の重要な判断・決定等の目的で本サービスを利用する行為
(Y) ……
2.……

※上記で挙げた禁止行為(入力を禁止する情報)は一般的な例示であり、実際のサービス内容によって適切な取扱いが異なる場合があります。自社サービスの利用態様に応じて、必要に応じて取捨選択・修正が必要となります。

②提供者によるインプット情報の利用・管理

生成AIサービスを利用するうえで、おそらく利用者が最も懸念する問題の一つが「入力した情報がどのように利用されるのか?」「漏洩の心配はないのか?」という点だと思われます。

とりわけ、生成AIは、利用者によって入力された情報等を自ら学習するという特徴を有しています。そのため、誰かが入力した情報が意図せず他の誰かの利用時にアウトプットとして出力されてしまう、といった懸念がないわけではありません。

したがって、事業者としては、インプット情報やアウトプット情報の利用方針を明示し、第三者への漏洩防止や再学習への利用有無を明確にしておくことが不可欠です。これにより、利用者に安心感を与えるとともに、万一のトラブル発生時には自社の責任範囲を明確にすることができます。

以下は、そのような情報管理方針を明確にするための条項サンプルです。

第X条(権利の帰属)
1. インプット情報およびアウトプット情報に関する著作権その他の知的財産権は、法令で認められる範囲内でユーザに留保されるものとします。ただし、インプット情報に当社が提供したプロンプト、テンプレート等が含まれる場合、当該部分についてはユーザの権利は及ばないものとします。
2. ユーザは、当社に対して、本サービスを含む当社サービスの運用、保守、品質管理の目的で、インプット情報及びアウトプット情報を無償かつ非独占的に利用(複製、改変、第三者への許諾その他のあらゆる利用を含みます。)する権利を期限の定めなく許諾するものとします。ただし、第X条に定めるAIによる学習は当該目的には含まれないものとします。

第X条(インプット情報及びアウトプット情報の取扱い)
1. 当社は、他のユーザその他の第三者によるインプット情報及びアウトプット情報へのアクセスが生じないように、これらを厳重に管理するものとします。
2. 当社は、ユーザの明示的同意がない限り、インプット情報およびアウトプット情報を、学習済みモデルの改善、再学習その他AIによる学習のために利用することはありません
3. 当社は、インプット情報及びアウトプット情報その他ユーザが本サービスを通じて入力・生成した情報の保管・バックアップ等の義務を負うものではありません。
4. 当社は、ユーザからインプット情報及びアウトプット情報の削除を要請された場合であっても、これに応じる義務を負いません。ただし、個人情報保護法その他の法令により当社が削除義務を負う場合はこの限りではありません。

「アウトプット」における注意点・ポイント

生成AIの出力結果(アウトプット)は、学習データやアルゴリズムの特性上、誤情報や不正確な内容、または不適切な表現を含む可能性があります。
ときには、AIの回答が利用者の意図と異なる内容を示したり、最新の法令・制度・統計などを反映していない場合もあります。

このように、AIが事実と異なる情報をもっともらしく生成してしまう現象は「ハルシネーション」と呼ばれ、生成AIが抱えるリスクとして広く知られています。

そのため、サービス提供者としては、アウトプットの内容の正確性や有用性を保証しない旨を明示し、最終的な判断や利用は利用者自身の責任で行うことを規定しておくことが重要です。
特に、生成結果をそのまま業務判断や意思決定に用いることで損害が発生した場合に備え、責任を限定する免責条項を整備しておく必要があります。

以下は、こうしたリスクに対応するための条項サンプルです。

第X条(本サービスの利用)
1.ユーザは、利用契約の有効期間中、本規約に従って、当社の定める方法に従い、本サービスを利用することができます。
2.本サービス上で出力されるアウトプット情報は、あくまでもユーザの参考情報・補助情報として利用されることを想定しています。ユーザが本サービスを利用するにあたっては、生成AIが常に正確または完全であるとは限らないことを理解したうえで、ユーザ自身で信頼できる情報源を参照するなどして、自己の責任において利用するものとします。

第X条(保証の否認・制限)
1.本サービスは、第三者(OpenAI, L.L.C.)の提供する生成AIを利用したサービスであり、当社は本サービスにより提供される回答、アウトプット等の信頼性、正確性、最新性、完全性、有効性、特定目的への適合性、有用性(有益性)及び本サービスの継続性について何ら保証するものではありません。
2.前項に定めるほか、アウトプットの生成その他本サービス上の機能において、第三者が提供するサービスとの提携又は第三者が提供するデータ、資料、その他のコンテンツの利用が行われる場合であっても、本サービスを通じて提供されるアウトプットは、当社又は当該第三者の公式な見解又は意見を表明するものではありません。また、第三者が提供するサービス、データ、資料その他のコンテンツに基づきアウトプットが生成される場合であっても、生成AIの機能上、アウトプットに誤情報、不正確な情報又は不適切な内容が含まれたり、当該データ等の内容を正確に反映しないアウトプットが生成されたりする場合があります。ユーザはこの点を理解し、承諾のうえ本サービスを利用するものとします。
3.……

※第2項は、RAGなど外部のデータベースや第三者が提供するデータ・資料を参照して回答を生成する機能を有する生成AIサービスを想定した文言です。
このような構成では、第三者が提供するデータ・資料自体は正確であったとしても、生成AIの機能上、誤情報が生成されるおそれがあります。したがって、当該アウトプットは生成AIの特性によるものであり、第三者の資料やデータ提供元の責任に帰すべきものではないことを示しています。

生成AIへの攻撃、不正行為への対策

生成AIサービスは、その特性上、外部からの不正な入力やアクセスにより誤作動や情報漏えいを引き起こされるリスクを常に抱えています。
代表的な攻撃としては、プロンプトインジェクション(入力文中に不正な指示を埋め込み、意図しない情報出力を誘発する行為)や、蒸留(distillation)(大量のアウトプットを収集・分析し、類似モデルを再構築する行為)などが挙げられます。
これらは、サービス提供者の知的財産やシステムの安定性を侵害するだけでなく、ユーザーの機密情報が流出する原因にもなり得ます。

そのため、利用規約上で明確に禁止行為を定義し、不正アクセス・逆解析・過剰負荷・不正学習などを包括的に禁止しておくことが不可欠です。
これにより、攻撃的な利用に対して契約上の根拠をもって対応でき、違反ユーザーへの利用停止や損害賠償請求を適法かつ迅速に行うことが可能となります。

以下は、そのような不正行為防止の観点を踏まえた条項サンプルです。

第X条(禁止行為)
1.ユーザは、本サービスの利用にあたり、以下の各号のいずれかに該当する行為をしてはなりません。
(1) ……
(X) 生成AIの誤作動、誤認識を誘発する行為その他本サービスの誤作動を誘発する行為
(X) 本サービスを再利用する行為、インプット情報及びアウトプット情報を組み合わせて新たな学習済みモデルを生成する行為その他これらに類する行為
(X) プロンプトインジェクション、インプット情報及びアウトプット情報の分析その他の方法により、本サービスの学習用データセット、ソースコード、RAGデータベース等を不正に取得、改ざん、又は損壊する行為
(Y) ……
2.……

第三者サービスの影響

カスタマイズ型の生成AIサービスは、OpenAIやGoogleなどの基盤モデル事業者が提供するAPIや外部生成AIサービスに依存していることが多く、その運用状況や利用条件の変更が自社サービスに直接影響を及ぼす場合があります。

たとえば、基盤モデルの料金改定、API仕様の変更、サービス停止やメンテナンスなどが行われた場合、自社のサービス提供にも中断や制限が生じるおそれがあります。
こうした事態は提供者の合理的な管理範囲を超えるものであるため、規約上で第三者サービスの変更・停止が自社サービスに波及する可能性を明示し、通知や料金改定の手続を定めておくことが重要です。

以下は、そのような第三者サービス依存に伴うリスクを前提とした条項サンプルです。

第X条(利用料金)
1.ユーザは、本サービス利用の対価として、別紙に定める利用料金を負担するものとします。
2.……
X. 本サービスにおいて利用される第三者の提供する生成AIサービスにおいて利用料金の変更があった場合その他合理的な理由がある場合には、当社は、本サービスの利用料金を変更することができます。この場合当社は、本規約第X条の定めに従ってユーザへの通知を行うものとします。

第X条(本サービスの停止・変更)
1.当社は、以下のいずれかに該当する場合には、ユーザに事前に通知することなく、本サービスの利用の全部又は一部を停止又は中断することができるものとします。
(1) ……
(X) 本サービスに利用される生成AIその他第三者サービスの停止・中断等が生じた場合
(Y) ……
2. 本サービスの内容、仕様及び制限等は第三者が提供する生成AIに依存しており、当該生成AIの利用制限又は仕様変更などの事由により、本サービスの提供について制限を受けたり、本サービスの内容又は仕様が変わる場合があります。この場合、当社は可能な限りユーザに事前に通知するものとしますが、緊急を要する場合等は変更後速やかに通知を行うことで足りるものとします。
3. 本条に基づく本サービスの停止または変更によってユーザに生じた損害については、当社は一切の責任を負わないものとします。

まとめ

以上、カスタマイズ型の生成AIサービス利用規約について、インプット⇒アウトプット⇒利用の各段階におけるリスクや注意点、不正行為対策、第三者サービスとの関係を中心に、条項例を検討しました。

もっとも、本記事で挙げた論点や条項案はあくまで現時点での検討に基づくものであり、技術・法制度・利用実態の変化に応じて今後もアップデートが必要となります。

そして、本記事の内容が、今後の議論・検討を進めるうえでの一つの材料として役に立てれば、これに勝る喜びはありません。

山本啓太法律事務所の最新情報をお届けします

画像をアップロード

シンプルでカスタマイズしやすいWordPressテーマ

※この表示はExUnitの Call To Action 機能を使って固定ページに一括で表示しています。