はじめに——「何かあったとき、誰が責任を取るのか」
AIを業務に導入するとき、経営者として最初に頭をよぎるのは「もしAIが間違った判断をしたら、誰が責任を取るのか」という問いではないでしょうか。
お客様にAIが不適切な回答をしてしまった。AIの分析結果をもとに発注したが、需要予測が外れて大量の在庫を抱えてしまった。AIが作成した文章に著作権上の問題があった。こうした事態が起きたとき、自社だけで対処できるのか。それとも、AIを開発した企業や提供した企業にも責任があるのか。
前回の記事では、変化に柔軟に対応する「アジャイル・ガバナンス」の考え方を解説しました。今回は、AIビジネスにおける「責任の所在」を考えるうえで欠かせない、3つの主体——AI開発者、AI提供者、AI利用者——について詳しく見ていきます。
AI事業者ガイドラインは、AIに関わるすべての事業者を大きく3つの立場に分類しています。そして、それぞれの立場に応じた責任と役割を明確にすることで、問題が発生したときの対応を円滑にしようとしています。自社がどの立場にあるのかを正しく理解し、その立場に応じた備えをすること。これが、AI時代のリスク管理の第一歩です。
3つの主体とは何か——AI開発者・AI提供者・AI利用者
AI事業者ガイドラインが定める3つの主体について、それぞれの役割を確認しましょう。
AI開発者
AI開発者とは、AIモデルやアルゴリズムの開発、データ学習を通じてAIシステムを構築する事業者です。膨大なデータを収集・整理し、そのデータをもとにAIモデルを訓練して、AIが「考える」ための基盤を作り上げます。
たとえば、OpenAIがChatGPTの基盤となる大規模言語モデルを開発する、GoogleがGeminiのAIモデルを訓練する、AnthropicがClaudeの安全性を高めるための研究を行う——こうした活動がAI開発者の仕事です。
AI開発者は、モデルの開発だけでなく、事後学習(ポストトレーニング)を通じた性能維持や安全性向上も担います。AIモデルは一度完成したら終わりではなく、新しいデータを用いた継続的な改善が必要です。モデルが古い情報に基づいて誤った判断をしたり、特定の集団に対して偏った結果を出したりするリスクを抑えるために、定期的な更新が欠かせません。
多くの中小企業にとって、AI開発者の立場に立つことは稀です。しかし、自社が利用しているAIの裏側で誰がモデルを開発しているかを知っておくことは、リスク管理の観点から重要です。
AI提供者
AI提供者とは、AIシステムを既存のシステム等に組み込んだサービスとして「AI利用者」等に提供する事業者です。AI開発者が作ったモデルを、実際のビジネスで使える形に整えて届ける役割を果たします。
AI提供者は、AIモデルそのものを作るのではなく、AIモデルを自社のサービスや製品に組み込んで、使いやすい形にしてエンドユーザーに届ける存在です。
具体例を挙げましょう。会計ソフトにAI機能を搭載して「自動仕訳」を可能にしたサービスを提供する会社。顧客対応用のAIチャットボットを構築し、企業向けに月額サービスとして販売する会社。画像認識AIを搭載した品質検査装置を製造業に納入する会社。これらはすべてAI提供者にあたります。
AI提供者の責任は重要です。運用サポートや連携実装を担い、AI利用者がAIを正しく使えるように支援する立場にあります。AIモデルの性能と限界を正しく理解したうえで、利用者に対して「このAIは何ができて、何ができないのか」を誠実に伝えることが求められます。
AI利用者
AI利用者とは、事業活動においてAIシステムを利用する事業者です。多くの中小企業がまず該当するのが、この立場です。
AI利用者には、提供者が意図する適正な方法でAIを利用し、業務外の利用者(消費者や取引先など)に不利益が生じないよう努める責任があります。たとえば、AIチャットボットを導入した場合、お客様がAIと人間のどちらと話しているかわかるようにする。AIが出した回答を鵜呑みにせず、重要な判断は人間が最終確認する。こうした配慮がAI利用者の責務です。
「AIを使っているだけなのに、そこまで責任があるのか」と感じるかもしれません。しかし、考えてみてください。たとえ包丁のメーカーに責任がなくても、包丁を使った料理人には提供する料理の安全に対する責任があります。道具を使う以上、その道具の使い方に対する責任は使う側にあるのです。
「うちの会社はどの立場なのか」——中小企業の多くはAI利用者、しかし提供者にもなり得る
ここまで読んで、「うちはAIを使っているだけだから、AI利用者だな」と思われた方が大半でしょう。確かに、中小企業の多くは市販のAIツールやクラウドサービスを業務に活用する「AI利用者」の立場にあります。
しかし、立場は固定的なものではありません。事業の内容によっては、一つの企業が複数の立場を同時に持つこともあります。
たとえば、社内でAIチャットボットを構築し、それを同業他社にも提供するようになった場合、その企業は自社利用においては「AI利用者」であると同時に、他社への提供においては「AI提供者」にもなります。
実際に、こうした立場の重なりは珍しくありません。IT系の中小企業であれば、クライアントの要望に応じてAIを組み込んだシステムを開発・納入することがあるでしょう。その場合、自社は「AI提供者」として、クライアントが安全にAIを使えるように支援する責任を負います。
京谷商会のケースを紹介しましょう。当社は大阪府太子町でAIスタッフ体制を構築し、社内の業務効率化にAIを全面的に活用しています。この点では「AI利用者」です。しかし同時に、AIを活用したWebサイト制作やコンテンツ制作のサービスをクライアントに提供する場面では、「AI提供者」としての側面も持ちます。つまり、一社のなかで両方の立場が共存しているのです。こうした自覚を持つことで、利用者としての安全配慮と、提供者としての品質保証の両方に目を配ることができるようになります。
このように、自社の事業を改めて見直して「自分たちはどの立場にいるのか」を棚卸しすることが大切です。それによって、何に注意すべきかが明確になります。
バリューチェーン全体での連携——一社だけでは守れない
AI事業者ガイドラインが3つの主体を定義している背景には、もう一つ重要な認識があります。それは、AIのシステムは複数の事業者のサービスやデータが相互に繋がって成り立っているという現実です。
現代のAI活用は、単独の企業で完結することはほとんどありません。AI開発者がモデルを作り、AI提供者がサービスとして整備し、AI利用者が業務に組み込む。このバリューチェーン(価値連鎖)の中で、データが流通し、判断が重ねられ、最終的にお客様や社会に届く成果物が生まれます。
だからこそ、主体間の連携が不可欠なのです。
データの流通と権利関係
AIサービスを利用するとき、自社のデータがどのように扱われるのかを把握していますか。たとえば、AIチャットボットにお客様からの問い合わせ内容を処理させる場合、その問い合わせデータはAI提供者のサーバーに送信されます。そのデータがAIモデルの追加学習に使われるのか、それとも処理後に削除されるのか。こうした点を利用契約で明確にしておくことが、バリューチェーンにおける責任ある行動です。
データの流通は利便性の源泉ですが、同時に権利関係の複雑さの原因にもなります。自社が持つ顧客データ、業務データ、ノウハウが、AI提供者を通じて意図しない形で利用されるリスクはゼロではありません。契約時に「データの所有権」「利用範囲」「削除のタイミング」を明文化しておくことを強くお勧めします。
契約で責任の範囲を明確にする
AI事業者ガイドラインが示す3つの主体の区分は、契約時の責任分担を考えるうえでも役立ちます。
AIサービスの導入を検討するとき、提供者に対して以下のような点を確認しましょう。AIの判断が誤っていた場合、提供者はどこまで責任を負うのか。サービスの障害や停止時にどのような補償があるのか。セキュリティインシデントが発生した場合の連絡体制はどうなっているのか。AIモデルがアップデートされたとき、事前に通知があるのか。
こうした質問をすることは、決して「うるさい客」になることではありません。むしろ、ガイドラインの趣旨に沿った、責任あるAI利用者としての行動です。
事故が起きたときの連絡体制
バリューチェーンが複雑になるほど、問題が発生したときの原因究明と対処が難しくなります。AIが誤った判断をした場合、その原因はAI開発者のモデルにあるのか、AI提供者のシステム統合にあるのか、AI利用者の運用方法にあるのか。複数の要因が絡み合うことも少なくありません。
そのため、平時から関係者間の連絡体制を整えておくことが重要です。AIサービスの提供者と「何かあったときの窓口」を互いに確認しておくだけでも、緊急時の対応スピードは格段に上がります。
立場ごとに異なる「ガイドラインの読み方」
3つの主体を理解すると、AI事業者ガイドラインの読み方も変わってきます。
ガイドラインは、すべての項目がすべての事業者に同じ重みで適用されるわけではありません。AI開発者に特に求められる事項、AI提供者に重点的に求められる事項、AI利用者として最低限押さえるべき事項が、それぞれ異なります。
たとえば、「AIの安全性テスト」はAI開発者にとっての最重要課題ですが、AI利用者にとっては「提供者から安全性テストの結果を確認する」という形での関与になります。「AIの動作の透明性確保」は、提供者にとっては「利用者にAIの限界を正しく伝える」こと、利用者にとっては「お客様にAIを使っていることを開示する」ことを意味します。
自社の立場を正しく把握し、その立場で求められることに集中する。これが、限られたリソースで効果的にAIガバナンスに取り組むためのコツです。
第5回以降の連載では、ガイドラインが示す具体的な原則——人間中心、安全性、公平性、透明性など——を一つずつ解説していきますが、その際にも「AI利用者としての自社」を意識しながら読んでいただくことで、より実践的な理解が深まるはずです。
自社の立場を棚卸ししてみよう
ここで、実際に自社のAI活用について立場の棚卸しをしてみましょう。以下の問いに答えることで、自社がどの立場にあるかが見えてきます。
まず、「自社でAIモデルそのものを開発しているか」を考えてください。自社でゼロからAIモデルを訓練している場合はAI開発者の側面があります。既存のAIモデルをファインチューニング(特定用途向けに追加学習)している場合も、部分的にAI開発者の立場を持ちます。
次に、「AIを組み込んだサービスを他社に提供しているか」を確認します。自社のシステムにAI機能を搭載してクライアントに納品している場合や、AI機能を含むSaaSを提供している場合はAI提供者です。
最後に、「他社が提供するAIサービスを業務に使っているか」を確認します。ChatGPTやCopilotなどの生成AIツールを業務で使っている場合、AI搭載の会計ソフトや顧客管理ツールを使っている場合はAI利用者です。
多くの企業が「AI利用者」の立場に該当し、一部の企業が「AI利用者 かつ AI提供者」になるでしょう。大切なのは、それぞれの立場に応じた責任を認識し、適切な対応を取ることです。AIセーフティ・インスティテュートが公開している「AIセーフティに関する評価観点ガイド」も、立場に応じたリスク評価の参考になります。
用語集
本記事で登場した重要用語を整理しておきます。
AIモデルやアルゴリズムの開発、データ学習を通じてAIシステムを構築する事業者。大規模言語モデルの訓練や画像認識モデルの開発など、AIの「頭脳」を作る役割を担います。モデルの初期開発だけでなく、事後学習による性能維持・安全性向上も含まれます。
AI開発者が構築したAIシステムを既存のシステム等に組み込み、サービスとしてAI利用者に提供する事業者。運用サポートや連携実装を担い、AIの「使いやすさ」と「安全な運用」を支える橋渡し的な存在です。
事業活動においてAIシステムを利用する事業者。多くの中小企業がこの立場にあたります。提供者が意図する適正な方法でAIを利用し、AIの出力を最終判断に用いる際は人間の確認を経るなど、業務外の利用者(消費者等)に不利益が生じないよう努める責任を持ちます。
AI開発者→AI提供者→AI利用者という一連の価値提供の流れ。データやサービスが各主体を通じて流通し、最終的に社会やエンドユーザーに届く連鎖構造のこと。各主体が独立して動くのではなく、契約や情報共有を通じた連携が、安全で信頼性の高いAI活用の基盤となります。
参考資料
- AIセーフティ・インスティテュート「AIセーフティに関する評価観点ガイド(第1.10版)」:https://aisi.go.jp/assets/pdf/ai_safety_eval_v1.10_ja.pdf
まとめ——自社の立場を知り、バリューチェーンの中での役割を果たす
AIビジネスにおける3つの主体——AI開発者・AI提供者・AI利用者——は、それぞれ異なる責任と役割を持っています。多くの中小企業はまずAI利用者として出発しますが、事業の発展に伴ってAI提供者の立場を兼ねることも十分にあり得ます。
重要なのは、自社の立場を正しく認識し、その立場に応じた責任を果たすこと。そして、バリューチェーン全体を意識して、関係者との契約や情報共有を適切に行うことです。一社だけで完璧なAIガバナンスは実現できません。しかし、自社の役割を果たし、関係者と連携することで、社会全体として安全で信頼性の高いAI活用が進んでいきます。
次回の第5回では、AI事業者ガイドラインが掲げる原則のうち、最も基本的な「人間中心」と「安全性」について解説します。AIを使うすべての人が最初に押さえるべき考え方を、分かりやすくお伝えします。
この連載の記事一覧
第1回: 新時代のAIガバナンスと基本理念
第4回: AIビジネスにおける『3つの立場』と自社の役割(この記事)
第8回: 未来を創る『社員教育とイノベーション』
第9回: AIを作る側の責任と『世界の約束』