はじめに――すべての企業が守るべき「10の共通指針」とは
この連載では、AI事業者ガイドラインの全体像と基本理念から始まり、AIの定義とビジネスチャンス、アジャイル・ガバナンス、そしてAIビジネスにおける3つの立場と、段階的にガイドラインの世界を歩いてきました。第5回となる今回からは、いよいよガイドラインの中核に踏み込んでいきます。
AI事業者ガイドラインでは、AIに関わるすべての事業者が共通して守るべき指針として「10の共通指針」を掲げています。これは、AIを開発する企業だけでなく、AIサービスを提供する企業、そしてAIを業務に利用するすべての企業に向けたものです。つまり、ChatGPTやCopilotなどの生成AIツールを日常業務で使い始めた中小企業のみなさんにとっても、決して無縁の話ではありません。
10の共通指針は、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」「アカウンタビリティ」「教育・リテラシー」「公正競争確保」「イノベーション」の10項目で構成されています。そのすべてを一度に解説するのは大変ですので、今回は最も土台となる2つの指針、「人間中心」と「安全性」に焦点を当てます。
この2つは、残り8つの指針を理解するための前提条件ともいえる存在です。なぜなら、AIをどれだけ公平に使おうとしても、安全に運用しようとしても、そもそも「人間がAIを使いこなす」という大前提が崩れてしまえば、他のすべての取り組みが空回りしてしまうからです。まずは足元を固めるところから始めましょう。
指針1「人間中心」――AIの言うことを鵜呑みにしていませんか
自動化バイアスという落とし穴
最初に取り上げるのは、10の共通指針の筆頭に掲げられた「人間中心」という考え方です。この指針が最初に置かれているのには、明確な理由があります。AIがどれほど高性能になっても、最終的な判断と責任は人間にある、という原則を最も大切にしているのです。
ここで知っておいていただきたいのが、「自動化バイアス」という現象です。これは、コンピューターやAIが出した答えを、人間が深く考えずに正しいと信じてしまう心理的な傾向のことです。
身近な例を挙げましょう。カーナビが案内する道を、明らかに遠回りだと感じても「ナビがこう言っているから」と従ってしまった経験はないでしょうか。これと同じことが、業務でAIを使うときにも起こり得ます。たとえば、AIが出した売上予測をそのまま経営計画に反映する、AIが作成した契約書のドラフトをほとんどチェックせずに取引先に送ってしまう、AIが提案した採用候補をそのまま面接リストにする――こうした場面で、「AIがそう言っているのだから正しいだろう」という思い込みが働くと、判断ミスが経営上の実害につながりかねません。
自動化バイアスの怖さは、AIを使い慣れるほど無意識に陥りやすくなる点にあります。導入当初は「本当に合っているのかな」と疑いの目で見ていたものが、何度か正しい結果を返してくるうちに、確認作業がおろそかになっていくのです。ガイドラインが「人間中心」を最初の指針に据えた背景には、この人間心理への深い理解があります。
フィルターバブルで見えなくなる世界
「人間中心」の指針が警告するもうひとつの現象が、「フィルターバブル」です。これは、AIが利用者の好みや過去の行動履歴に基づいて情報を選別し続けた結果、利用者が自分に都合のよい情報ばかりを受け取るようになり、多様な視点に触れる機会が失われてしまう状態を指します。
経営判断の場面で考えてみましょう。AIアシスタントに市場調査を依頼したとき、過去のやり取りから「この経営者は国内市場に関心がある」と学習していたら、海外市場の成長データを優先的に提示しなくなるかもしれません。AIが選んだ情報だけをもとに判断していると、知らず知らずのうちに視野が狭まっていく危険があるのです。
ビジネスにおいて重要な意思決定は、自分の考えと異なる情報にも目を向けることで質が高まります。AIを情報収集のパートナーとして活用すること自体は素晴らしいことですが、「AIが見せてくれる世界がすべてではない」という意識を常に持っておくことが大切です。
感情の不当な操作を目的としない
ガイドラインは、AIを使って人の感情を不当に操作することも戒めています。たとえば、AIを活用した広告配信で、消費者の不安を過度に煽って購買行動を誘導するようなケースが該当します。また、AIチャットボットが利用者との会話の中で、意図的に共感を装い、本来不要なサービスの契約に誘導するような使い方も、この指針に反します。
中小企業の経営者がAIを導入する際に心がけたいのは、AIは「人間の判断を支援する道具」であり、「人間の判断を代替するもの」ではないという原点です。AIの出力を最終結論にするのではなく、あくまで判断材料のひとつとして位置づける社内ルールを設けておくことが、「人間中心」の実践そのものになります。
偽情報リスクと環境への配慮
「人間中心」の理念は、社会全体への影響にも目を向けています。生成AIによる偽情報のリスクは、企業にとっても無視できない問題です。たとえば、自社の商品やサービスについて、AIが生成した誤った情報がSNSで拡散されるケースが実際に報告されています。自社がAIを使って情報を発信する際には、事実確認を徹底するプロセスが欠かせません。
もうひとつ見落としがちなのが、AIの環境負荷です。大規模なLLMの学習や推論には膨大な計算資源が必要であり、それに伴う電力消費は地球環境に影響を与えます。ガイドラインは、AIの利用において持続可能性への配慮も求めています。これは「必要以上に大きなモデルを使わない」「用途に合った適切な規模のAIを選ぶ」といった、日々の選択の積み重ねで実践できるものです。
指針2「安全性」――想定外の動作にどう備えるか
生命・財産への危害防止と堅牢性
共通指針の2番目に位置づけられているのが「安全性」です。AIの安全性というと、自動運転車の事故やロボットの暴走といった大げさな話をイメージするかもしれませんが、中小企業にとっても身近な問題です。
たとえば、AIを使った在庫発注システムが誤った需要予測を出し続けた結果、大量の不良在庫を抱えてしまうケース。AIチャットボットが顧客に誤った契約条件を案内してしまい、後からトラブルになるケース。これらはいずれも、AIの判断ミスが企業の財産に直接的な危害を与える例です。
ガイドラインが求めているのは、こうした誤判断を防ぐための「堅牢性(ロバストネス)」の確保です。堅牢性とは、予期しない入力や状況の変化に対しても、AIが致命的な誤りを起こさずに動き続ける力のことです。
堅牢性を高めるための第一歩は、「AIが間違える前提」で運用体制を組むことです。具体的には、AIの出力を人間がレビューしてから最終的な業務処理に進むチェックポイントを設ける、AIの判断に一定の信頼度スコアを設定し、閾値を下回る場合は人間にエスカレーションする仕組みを入れる、といった対策が有効です。
私たち京谷商会でも、社内で運用しているAIスタッフ体制において、AIが生成した提案や分析結果は必ず人間のレビューを経てから外部に出すフローを設けています。AIスタッフがどれほど精度の高い出力を返しても、最終的なチェックと承認は人間が行う。このプロセスを省略しないことが、安全性の土台になっています。
適正利用――目的外利用を避ける
安全性の指針には、AIを「本来の目的から外れた形で利用しない」という原則も含まれています。これは一見当たり前のように聞こえますが、実際の現場では目的外利用が少しずつ広がっていくことがあります。
たとえば、顧客の問い合わせ対応のために導入したAIチャットボットを、いつの間にか社内の人事評価の参考にも使い始めた、というケースを想像してください。チャットボットが蓄積した社員とのやり取りデータを分析して、「この社員はコミュニケーション能力が低い」と判定するようになったら、それは明らかに本来の目的から逸脱しています。
AIを導入する際には、「このAIは何のために使うのか」「どの範囲のデータを扱わせるのか」を明文化し、定期的に利用状況を確認する仕組みを設けることが重要です。連載の第3回で紹介したアジャイル・ガバナンスの考え方は、こうした運用の見直しを継続的に行っていくための枠組みそのものです。
著作権と学習データの適正管理
安全性に関連して、ガイドラインが特に注意を促しているのが、AIの学習データに関する問題です。権利侵害複製物などの違法コンテンツをAIの学習データに含めないこと。これは、AI開発企業だけの責任ではありません。AIサービスを利用する立場の企業にとっても、無関係ではないのです。
たとえば、自社でAIにデータを追加学習させる場合(ファインチューニング)や、RAG(検索拡張生成)の仕組みで参照するナレッジベースを構築する場合に、インターネットからコピーした他社の文章や、著作権が不明確な画像を学習素材に含めてしまうと、知らず知らずのうちに権利侵害のリスクを抱えることになります。
文化庁が公開している「AIと著作権に関する考え方について」(https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf)は、この分野の基本的な考え方を整理した重要な資料です。AI時代における著作権のあり方について、経営者としても目を通しておくことをおすすめします。
京谷商会では、AIを活用した記事制作において、学習データやナレッジベースに含めるコンテンツの出典管理を徹底しています。自社で作成したオリジナルコンテンツと、引用元が明確な公開情報のみを使用し、著作権の帰属が不明確な素材は使わない運用ルールを設けています。こうした地道な取り組みが、「安全性」の指針を日々の業務で実践することにつながります。
用語集――今回のキーワードを押さえておきましょう
自動化バイアス
自動化バイアスとは、コンピューターやAIシステムの出力を、人間が無批判に正しいと受け入れてしまう心理的傾向のことです。自動車のカーナビに従い続けるように、AIが提示した情報や判断を深く検証せずに採用してしまうリスクがあります。AI導入が進むほど意識的に気をつけなければならないポイントであり、ガイドラインが「人間中心」を最初の指針に掲げた大きな理由のひとつです。
フィルターバブル
フィルターバブルとは、AIやアルゴリズムが利用者の嗜好や行動履歴に基づいて情報を選別し続けた結果、利用者が自分の興味・関心に合致する情報ばかりに囲まれ、多様な視点や異なる意見に触れにくくなる状態を指します。インターネット活動家のイーライ・パリサーが2011年に提唱した概念で、SNSのタイムラインや検索結果のパーソナライゼーションが代表的な例です。経営判断においても、AIが選んだ情報だけに頼ると視野が狭まるリスクがあります。
堅牢性(ロバストネス)
堅牢性(ロバストネス)とは、システムが予期しない入力データや環境の変化、攻撃などに対しても、正常に機能し続ける能力のことです。AIの文脈では、学習時に想定していなかったデータが入力されても極端な誤りを出さない、悪意ある入力によって不正な出力をしない、といった性質を指します。AIシステムの安全性を支える根幹的な概念であり、「間違える前提」で運用体制を設計することが堅牢性確保の第一歩です。
参考資料
- 文化庁「AIと著作権に関する考え方について」:https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/pdf/94037901_01.pdf
まとめ――次回予告
今回は、AI事業者ガイドラインの10の共通指針のうち、最も土台となる「人間中心」と「安全性」の2つを見てきました。
「人間中心」の指針からは、自動化バイアスやフィルターバブルといった、AIを使ううえで知っておくべき心理的な落とし穴を学びました。AIが便利であればあるほど、無意識のうちに判断を委ねてしまいがちです。最終的な意思決定は常に人間が行い、AIの出力は判断材料のひとつとして活用するという基本姿勢が大切です。
「安全性」の指針からは、AIが間違える前提で運用体制を設計すること、目的外利用を避けること、そして著作権を含む学習データの適正管理が重要であることを確認しました。
この2つの指針は、AI活用の「心構え」と「備え」の両面を押さえるものです。この土台があってこそ、残りの指針が意味を持ってきます。
次回の第6回では、AIの出力がお客様からの信頼に直結する3つのポイント、「公平性」「プライバシー保護」「セキュリティ確保」を解説します。AIを使ったサービスで、お客様の信頼を損なわないために何をすべきか。引き続きご一緒に学んでいきましょう。
この連載の記事一覧
- 第1回: 新時代のAIガバナンスと基本理念
- 第2回: 技術進化に伴う最新の『AIの定義』と広がるビジネスチャンス
- 第3回: 変化に強い会社を作る『アジャイル・ガバナンス』
- 第4回: AIビジネスにおける『3つの立場』と自社の役割
- 第5回: AIを使うすべての人へ。まずは『人間中心』と『安全性』から
- 第6回: 信頼を失わないための『公平性・プライバシー・セキュリティ』
- 第7回: ブラックボックスにしない『透明性と説明責任』
- 第8回: 未来を創る『社員教育とイノベーション』
- 第9回: AIを作る側の責任と『世界の約束』
- 最終回: AIを使う現場のルールと、私たちが目指す未来