こんにちは、京都市中京区の「こうの法律事務所」です。
「AIに強い弁護士」を目指し、AIを活用しながら法的トラブルの予防・解決に取り組んでいます。
ChatGPT(チャットジーピーティー)やGemini(ジェミニ)など、目覚ましい進化を遂げている生成AI。
業務効率化のツールとして期待される一方、情報漏洩や著作権侵害といったリスクを理由に、「生成AIの業務利用を禁止する」というルールを設ける会社も少なくありません。
そこで今回は、従業員の立場からも、経営者の立場からも気になるであろう、「『生成AIの業務利用禁止』という就業規則は法的に有効なのか?」というテーマについて、弁護士の視点から分かりやすく解説します。
【結論】「生成AIの業務利用禁止」という就業規則は、原則有効
いきなり結論から申し上げますと、企業が就業規則で「生成AIの業務利用を禁止する」と定めることは、法的に原則として有効と考えられます。
なぜなら、企業には従業員に対して業務に関する指示や命令を行う権利(指揮命令権)があり、職場の規律を維持し、業務が円滑に進むようにルールを定める権限があるからです。
そして就業規則は、そのルールを明文化したものの代表例です。
もちろん法律に違反する就業規則を定めることはできませんが、そうでない限り、企業がその業務上の必要性に応じて合理的な範囲で自由に定めることができます。
そして生成AIの業務利用禁止は、上記の観点から原則有効と考えられます。
なぜ生成AIの利用を禁止することに業務上の必要性と合理性があるのか?
企業は、事業活動を行う上で、様々なリスクから組織を守る責任を負っています。
そして生成AIの業務利用には、主に以下のようなリスクが考えられます。
これらのリスクは、企業の運営に深刻な影響を及ぼす可能性があるため、利用を禁止するという経営判断には業務上の必要性と合理性が認められやすいのです。
①情報漏洩のリスク
従業員が業務で取り扱う顧客情報や社内の機密情報を、プロンプト(入力文)として入力した場合、その情報がAIの開発元に送信され、学習データとして利用されたり、意図せず外部に漏洩してしまったりするリスクがあります。
②著作権侵害のリスク
生成AIが作り出した文章や画像が、既存の著作物と酷似している場合など、意図せず著作権を侵害してしまう可能性があります。
また、直接著作権侵害とならなくても、商用利用が禁止されている生成AIを業務に使ってしまうなど、利用規約違反のリスクもあります。
そういった場合、損害賠償責任を負う危険もありますし、信用問題に発展するリスクもあります。
③アウトプットの正確性・信頼性のリスク
生成AIが提供する情報は、時に不正確であったり、誤った情報を含んでいたりすることがあります(ハルシネーション)。
ところが生成AIが提供する情報を検証せず、あるいは不十分な検証しか行わず、業務上の判断や取引先への提供資料などに利用した場合、企業の信用失墜や損害につながる可能性があります。
業務内容によっては、誤情報を提供してしまった結果、顧客などに損害を与えかねません。その場合は、損害賠償責任を負うことも十分考えられます。
就業規則を定める際のポイント
企業が「生成AI禁止」のルールを就業規則で定める際には、単に「禁止する」と記載するだけでなく、なぜ禁止するのかという目的や理由を説明しておくことが望ましいでしょう。
そうすることで、従業員の理解を得やすくなり、無用なトラブルを防ぐことにつながります。
また、就業規則の内容を変更する場合には、法律に則った手続きを踏むことも不可欠です。
まとめ
今回は、「生成AIの業務利用を禁止する就業規則は有効か?」というテーマについて解説しました。
結論として、情報漏洩などのリスク管理という観点から、企業がそのようなルールを設けることには合理的な理由があり、法的に有効と判断される可能性が高いと言えます。
一方で、今後もAIの発達は加速すると考えられ、ただ禁止するだけでは、企業間の競争で不利になる可能性も十分ありえます。
その意味では、一定のルールを定めた上で利用を認めるという道を模索することも大切だと考えます。
この記事が、生成AIと企業の関わり方について考える一助となれば幸いです。
当事務所では、法律相談を受け付けております。紹介などは不要ですから、お気軽にご相談ください。

