はじめに――AIの出力がお客様からの信頼に直結する時代

前回の第5回では、AI事業者ガイドラインの10の共通指針のうち、すべての土台となる「人間中心」と「安全性」について解説しました。AIの出力を鵜呑みにしない心構えと、間違える前提で備える安全性の大切さを確認したところです。

今回取り上げるのは、共通指針の3番目から5番目にあたる「公平性」「プライバシー保護」「セキュリティ確保」の3つです。この3つの指針に共通しているのは、いずれも「お客様からの信頼」に直結するという点です。

AIが出力した内容に偏りがあれば、お客様は不公平だと感じます。個人情報の扱いに不備があれば、企業としての信用が揺らぎます。セキュリティの穴を突かれてAIが意図しない動作をすれば、被害は企業だけでなくお客様にも及びます。

つまり、この3つの指針は「AIを使って事業を行うなら、お客様との信頼関係を壊さないためにこれだけは押さえてください」というメッセージです。連載の第1回で確認した「人間とAIの共存」という基本理念を、具体的な実務レベルで実現するための指針ともいえるでしょう。

ひとつずつ、経営者の目線で見ていきましょう。

指針3「公平性」――AIにも偏見が宿るという事実

バイアスは排除しきれない、だからこそ人間の目が必要

「公平性」の指針が求めているのは、AIの出力に不当な偏見や差別が含まれないようにすることです。しかし、ガイドラインは同時に、非常に現実的なことも述べています。それは、「バイアスを完全に排除するのは不可能である」という認識です。

なぜバイアスの完全排除は難しいのでしょうか。AIは学習データから規則性やパターンを見出して判断を行います。その学習データには、私たちの社会が長年にわたって蓄積してきた偏りがそのまま含まれていることがあるのです。

たとえば、採用支援AIに過去10年分の採用データを学習させたとします。もしその期間中に特定の性別や年齢層の採用が多かった場合、AIはそのパターンを「正解」として学習してしまいます。結果として、AIが出した候補者リストに無意識の偏りが生じる可能性があります。これはAIの設計者が意図した差別ではなく、学習データに内在していた社会的なバイアスがAIの出力に反映されたものです。

バイアスを完全になくすことは不可能です。大切なのは、その事実を認識したうえで、AI単独に任せず人間の判断を介在させる仕組みを設けることです。

公平性を守るための実務的なアプローチ

では、中小企業の現場で「公平性」を実践するには、具体的にどうすればよいのでしょうか。

まず最も基本的な対策は、AIの出力を「最終判断」にしないことです。前回の「人間中心」の指針とも重なりますが、AIが提示した結果を人間が確認し、偏りがないかどうかをチェックしてから業務に反映するフローを設けることが重要です。

たとえば、AIを使って顧客への提案内容を自動生成している場合、提案がすべてのお客様に対して公平な内容になっているかどうかを、担当者が目視で確認するステップを入れます。ある顧客層にだけ不利な条件が提示されていないか、特定のグループが排除されていないかを、人の目で見ることで気づけることは少なくありません。

また、定期的にAIの出力結果を振り返って分析することも有効です。月に一度、AIが出した判断や提案の傾向を集計し、特定の属性に偏りが見られないかを確認する。こうしたモニタリングの仕組みは、大がかりなシステムを導入しなくても、Excelやスプレッドシートでの集計で十分に始められます。

第4回で解説したバリューチェーンの中で、自社がAIの「利用者」の立場にある場合でも、利用しているAIサービスの出力を定期的にチェックすることは利用者の責任のひとつです。提供者に改善を求めるためにも、まずは自社で出力の傾向を把握しておくことが出発点となります。

指針4「プライバシー保護」――法令遵守の先にある信頼

個人情報保護法等の関連法令の遵守

「プライバシー保護」の指針は、個人情報保護法をはじめとする関連法令の遵守を大前提として求めています。これは、AIを使おうが使うまいが、すべての事業者が守るべき基本です。しかし、AIの利用はこの基本を一段複雑にします。

たとえば、社内の問い合わせ対応にAIチャットボットを導入する場合を考えてみましょう。従業員がチャットボットに「今月の給与明細を見たい」「健康診断の結果はどこにありますか」と質問すると、その入力内容自体が個人情報を含む可能性があります。AIサービスの提供元がそのデータをモデルの学習に利用する設定になっていたら、意図せず個人情報が外部に流出するリスクが生じるのです。

個人情報保護委員会が公開している「生成AIサービスの利用に関する注意喚起」(https://www.ppc.go.jp/files/pdf/generativeAI_notice_leaflet2023.pdf)は、こうしたリスクについて端的にまとめた資料です。生成AIを業務で使い始めたばかりの企業にとって、最初に目を通しておくべき文書のひとつといえるでしょう。

プライバシーポリシーの公表と運用

ガイドラインは、プライバシーポリシーを策定し公表することも求めています。すでに個人情報保護方針をWebサイトに掲載している企業は多いと思いますが、AIを導入した場合には、AIに関連するデータの取り扱いについても明記する必要が出てきます。

具体的には、「AIサービスの利用に際して、お客様からいただいたデータをどのように処理するか」「AIの学習データとして利用することがあるか」「データの保存期間はどの程度か」といった項目について、お客様にわかりやすく説明することが求められます。

これは法律上の義務というだけでなく、お客様との信頼関係を築くための重要なコミュニケーションでもあります。「この企業はデータの扱いについてきちんと説明してくれている」という安心感は、特に個人情報を預ける場面で、企業選びの大きな判断基準になります。

指針5「セキュリティ確保」――目に見えない攻撃への心構え

AIシステム固有のセキュリティリスク

「セキュリティ確保」の指針は、従来のITセキュリティに加えて、AI特有のセキュリティリスクへの対策を求めています。従来のサイバーセキュリティが「データの盗難」や「不正アクセス」を防ぐことに重点を置いていたのに対し、AIのセキュリティでは「AIの振る舞いそのものを不正に変えられるリスク」にも注意を払う必要があるのです。

たとえば、プロンプトインジェクションと呼ばれる攻撃手法があります。これは、AIに対する入力文(プロンプト)に巧妙な指示を混入させることで、AIの動作を本来の意図とは異なるものに変えてしまう手法です。顧客向けのAIチャットボットに対してこの攻撃が成功すると、機密情報が外部に漏洩したり、不適切な回答が顧客に返されたりする可能性があります。

さらに、学習データに微細な変更を加えることでAIの判断を意図的に歪めるデータポイズニングという攻撃も存在します。こうしたAI特有の脆弱性は、従来のファイアウォールやウイルス対策ソフトだけでは防ぎきれないものです。

完璧は難しいからこその継続的対策

ガイドラインは、こうした脆弱性を「完全に排除できないことを認識する」とも述べています。これは諦めの表明ではなく、現実を正しく見据えたうえでの対策を求めているのです。

完璧な防御が不可能だからこそ、継続的な対策が必要です。具体的には、以下のような取り組みが有効です。

まず、AIサービスを選定する際に、提供元のセキュリティ対策を確認することです。入力データがモデルの学習に使われないオプションがあるか、データの暗号化はどのレベルで行われているか、セキュリティインシデント発生時の通知体制はどうなっているか。これらの確認は、AIサービスの導入判断において技術的なスペック以上に重要なポイントです。

次に、社内でAIを利用する際のルールを明文化することです。「AIに入力してはいけない情報の範囲」「AIの出力を外部に共有する際のチェック手順」「セキュリティ上の異常を発見した場合の報告フロー」といったルールを、全社員が理解できる形で整備します。

京谷商会では、AIスタッフの運用体制においてセキュリティ設計を重視しています。AIが扱うデータの範囲を厳密に定義し、認証情報や機密データへのアクセスは専用のセキュリティ担当部門が管理する仕組みを構築しています。また、外部に向けた情報発信においてはAIの出力を必ず人間が承認するプロセスを設け、意図しない情報漏洩を防いでいます。こうした多層的な防御の考え方は、企業規模を問わず参考にしていただけるはずです。

AIセーフティ・インスティテュートが公開している「AIセーフティに関する評価観点ガイド(第1.10版)」(https://aisi.go.jp/assets/pdf/ai_safety_eval_v1.10_ja.pdf)は、AIの安全性評価について包括的にまとめた日本語資料です。自社のAI運用を評価・改善する際のチェックリストとしても活用できます。

用語集――今回のキーワードを押さえておきましょう

バイアス

バイアスとは、判断や意思決定における偏りや先入観のことです。AIの文脈では、学習データに含まれる社会的・歴史的な偏りがAIの出力に反映されることを指します。たとえば、過去の採用データに性別や年齢による偏りがあった場合、そのデータで学習したAIが同様の偏りを持った判断をしてしまうことがあります。バイアスは意図的なものではなく、データの中に潜在的に含まれていることが多いため、定期的なモニタリングと人間による最終チェックが不可欠です。

脆弱性

脆弱性とは、システムやソフトウェアに存在するセキュリティ上の弱点のことです。AIシステムにおいては、プロンプトインジェクション(巧妙な入力文によるAIの動作変更)やデータポイズニング(学習データの改ざん)など、AI固有の脆弱性が知られています。従来のITセキュリティ対策に加えて、こうしたAI特有のリスクにも備える必要があり、完全な排除は困難であるからこそ、継続的な監視と改善が求められます。

参考資料

まとめ――次回予告

今回は、AI事業者ガイドラインの10の共通指針から、「公平性」「プライバシー保護」「セキュリティ確保」の3つを見てきました。

「公平性」の指針からは、AIにもバイアスが宿るという事実を受け止めたうえで、人間の判断を介在させる仕組みの重要性を学びました。「プライバシー保護」の指針は、法令遵守はもちろん、お客様への丁寧な説明がAI時代の信頼構築に欠かせないことを教えてくれます。「セキュリティ確保」の指針は、AI固有の目に見えにくい攻撃の存在を知り、完璧でなくとも継続的な対策を怠らない姿勢の大切さを示しています。

この3つの指針に共通するメッセージは、「完璧を目指すのではなく、リスクを認識して対策を続けること」です。それこそが、お客様からの信頼を守り続ける企業の姿勢そのものではないでしょうか。

前回の第5回の「人間中心」と「安全性」が心構えと備えの指針だとすれば、今回の3つは信頼の指針です。次回の第7回では、AIの判断過程を「ブラックボックス」にしないための「透明性」と「アカウンタビリティ(説明責任)」を解説します。AIがなぜそう判断したのかを、お客様にも社内にも説明できる体制の作り方を、ご一緒に考えていきましょう。

この連載の記事一覧