はじめに——なぜ今、この連載を始めるのか
2026年に入り、「AIを使っていない会社を探すほうが難しい」と言われる時代になりました。チャットで質問に答えてくれるAI、請求書を自動で読み取るAI、商品画像を一瞬で生成するAI。ほんの数年前までは大企業やIT企業だけのものだったAI技術が、いまや従業員10名の町工場や個人商店にまで浸透しつつあります。
この変化の背景にあるのが、対話型の生成AIの登場です。専門知識がなくても日本語で指示を出せば仕事をしてくれるAIが登場し、「AIの民主化」とも呼ばれる現象が起きています。ビジネスモデルの再構築が進む一方で、情報漏洩やフェイクコンテンツの拡散、雇用への影響など、新たな社会的リスクも多様化しています。
こうした時代の変化を受け、日本政府は2025年6月に「人工知能関連技術の研究開発及び活用の推進に関する法律(令和7年法律第53号)」を公布し、同年9月に施行しました。そして、この法律を具体的に運用するための指針として策定されたのが、今回の連載で読み解いていく「AI事業者ガイドライン(第1.2版)」(総務省・経済産業省策定、令和8年3月31日版)です。
「ガイドライン」と聞くと、「また難しい文書が増えたのか」「うちのような小さな会社には関係ないのでは」と感じる方もいらっしゃるかもしれません。しかし、このガイドラインは全170ページを超える文書でありながら、その核にあるメッセージはとてもシンプルです。それは「AIを使うすべての事業者が、自分たちの頭で考えて、責任を持って使いましょう」ということ。規模の大小にかかわらず、AIを業務で使うならば知っておくべき内容が詰まっています。
この連載では全10回にわたって、このガイドラインの要点を中小企業の経営者の皆さまに向けて、できるだけ噛み砕いてお伝えしていきます。法律の条文を暗記する必要はありません。大切なのは「自社がAIとどう向き合うか」の羅針盤を持つことです。第1回の今回は、ガイドラインの大枠である「規制のアプローチ」と「3つの基本理念」を取り上げます。
日本政府の規制アプローチ——「ルールで縛る」のではなく「ゴールを目指す」
ゴールベースという考え方
AIに関する規制の方法は、大きく分けて2つの考え方があります。ひとつは「ルールベース」、もうひとつは「ゴールベース」です。
ルールベースの規制とは、「AIを使うときはこの手順を踏みなさい」「この用途には使ってはいけません」と、細かなルールを法律で決めるやり方です。EUの「AI規制法(AI Act)」がこの代表例で、AIの利用を4段階のリスクレベルに分類し、レベルごとに厳格な要件を課しています。
一方、日本が採用したのはゴールベースの考え方です。これは「目指すべきゴール(目標)」を示したうえで、そこに到達する方法は事業者自身に委ねるというアプローチです。ガイドラインは法的拘束力を持つ「規制」ではなく、事業者の自主的な取り組みを促す「ソフトロー」として位置づけられています。
なぜ日本はこちらを選んだのでしょうか。それは、AI技術の進歩があまりにも速いからです。細かなルールを法律で定めてしまうと、技術が進化するたびに法改正が必要になります。その間にイノベーションが止まり、国際競争力が落ちてしまう。だから、大きな方向性だけを示して、あとは現場の知恵で柔軟に対応してもらおうという判断です。
これは、中小企業にとっては朗報です。画一的なルールに縛られるのではなく、自社の事業規模やAIの使い方に合わせた対応ができるからです。
リスクベースアプローチとは何か
ゴールベースの考え方とセットで登場するのが「リスクベースアプローチ」です。これは、すべてのAI利用に同じ水準の対策を求めるのではなく、想定される危害の大きさと、それが起こる可能性(蓋然性)に応じて対応のレベルを変えましょう、という考え方です。
たとえば、あなたが小売店を経営していて、2つのAIを使っているとします。ひとつはPOSデータをもとに仕入れ量を予測するAI、もうひとつは防犯カメラの映像から不審者を検知するAI。どちらも業務に役立つツールですが、万が一の誤動作が与える影響はまったく異なります。
仕入れ量の予測がずれても、廃棄ロスが少し増えるか売り切れが起きるか、という経済的な損失の範囲に収まります。しかし、防犯カメラのAIが特定の属性の人を不当に「不審者」と判定してしまえば、差別やプライバシーの侵害という人権に関わる問題に発展します。
リスクベースアプローチでは、後者のように「危害が大きく、起こりやすい」場面にこそ重点的に対策を講じ、前者のように「影響が限定的で、起こりにくい」場面では過度な対策を求めません。限られた経営資源を、本当にリスクの高いところに集中できるわけです。
私たち京谷商会でも、AIスタッフ体制を構築するなかで、この考え方を自然と実践しています。たとえば、社内の業務効率化に使うAIと、クライアントに直接提供するコンテンツを生成するAIでは、チェック体制の厚みを変えています。社内利用であればスタッフ間のレビューで十分ですが、対外的なコンテンツには必ず人間による最終確認を入れる。リスクの度合いに応じてガバナンスの強度を調整するという点で、まさにガイドラインが推奨する方法を取り入れています。
根底にある3つの基本理念——Society 5.0が目指す社会像
ガイドラインの個別の指針に入る前に、まず押さえておきたいのが「基本理念」です。これはガイドライン全体を貫く価値観であり、個々の判断に迷ったときに立ち返るべき原点です。
ガイドラインでは、AI技術がSociety 5.0の実現に寄与するために、3つの基本理念を掲げています。Society 5.0とは、日本政府が提唱する「サイバー空間(仮想空間)とフィジカル空間(現実空間)を高度に融合させ、経済発展と社会課題の解決を両立する人間中心の社会」です。
第1の理念:人間の尊厳が尊重される社会(Dignity)
AIがどれほど高度になっても、最終的な意思決定の主体は人間であるべきだ、という理念です。AIに仕事を任せることと、AIに判断を丸投げすることは根本的に異なります。
中小企業の現場で考えると、これは「AIの出した答えを鵜呑みにしない」ということです。たとえばAIが「この取引先への与信は問題ない」と判断しても、長年の付き合いのなかで感じている違和感があるなら、人間として立ち止まる。AIはデータに基づく判断を高速に行いますが、文脈や人間関係のニュアンスまでは読み取れません。人間の尊厳を尊重するとは、AIを便利な道具として使いつつ、人間ならではの判断力を手放さないということです。
第2の理念:多様な背景を持つ人々が多様な幸せを追求できる社会(Diversity & Inclusion)
AIが特定の属性の人々を排除したり、不利に扱ったりしないようにしましょう、という理念です。AIは学習データに含まれる偏り(バイアス)を反映しやすいという特性があるため、意図せず差別的な結果を生む可能性があります。
たとえば、人材採用にAIを使う場合、過去の採用データに「男性が多い職種では男性を優先的に選ぶ」という傾向が含まれていれば、AIもその傾向を学習してしまいます。経営者としては、「うちのAIは公平に判断しているはず」と思い込まず、出力結果に偏りがないかを定期的に確認する姿勢が求められます。
これは大企業だけの話ではありません。地方の中小企業こそ、地域の多様な住民に対してサービスを提供している場面が多いでしょう。高齢者向けのサービスをAIで設計するとき、若い世代のデータばかりで学習されたAIを使えば、高齢者にとって使いにくいものになりかねません。多様性への配慮は、顧客満足度に直結する経営課題でもあります。
第3の理念:持続可能な社会(Sustainability)
AI技術の恩恵が現在の世代だけでなく、将来の世代にも及ぶようにしましょう、という理念です。これには環境面と社会面の2つの側面があります。
環境面では、AI、特に大規模なAIモデルの学習には膨大な電力が必要です。データセンターの消費電力は年々増加しており、持続可能性の観点からは無視できない問題です。中小企業が直接大規模AIを開発することは少ないですが、クラウドサービスの選定時にエネルギー効率を考慮するなど、間接的に貢献できることはあります。
社会面では、AIの導入によって特定の職種が消滅しても、新たな職種や働き方が生まれるような社会の設計が求められています。自社の従業員に対して「AIに仕事を奪われる」という不安を与えるのではなく、「AIと一緒に働くことで、より創造的な仕事ができるようになる」という前向きなビジョンを示せるかどうか。ここが経営者の腕の見せどころです。
これら3つの理念は、単なるお題目ではなく、日々のAI活用の判断基準になるものです。新しいAIツールの導入を検討するとき、「人間の尊厳は守られるか」「多様な人々に不利益はないか」「長期的に持続可能か」と自問することで、リスクのある選択を未然に防ぐことができます。
ガイドラインが求める「自分の頭で考える」ということ
ここまで読んで、「なんだ、細かいルールがないなら自由にやっていいのか」と思われた方もいるかもしれません。しかし、ゴールベースのアプローチは、裏を返せば「自社で考えて、自社で責任を持ちなさい」ということでもあります。
ルールベースの規制であれば、チェックリストを埋めれば一応の義務は果たせます。しかしゴールベースでは、「なぜその対策が必要なのか」「自社のリスクはどこにあるのか」を自分たちで考える必要があります。これは手間がかかるようでいて、実は中小企業にとって有利な仕組みです。なぜなら、大企業と同じ画一的な対策を求められるのではなく、自社の規模や事業内容に合った、身の丈に合った対策を選べるからです。
たとえば、従業員5名の小さな会社がAIを使って社内の議事録を要約しているとします。この場合、大企業並みのAI倫理委員会を設置する必要はないでしょう。しかし、「議事録に含まれる個人情報がAIサービスの学習データに使われないか」を確認し、必要に応じてサービスの設定を変更する。これだけでも、立派なリスク管理です。
私たち京谷商会は大阪府南河内郡太子町を拠点とする小さな会社ですが、AIスタッフ体制という独自の取り組みを通じて、まさにこの「自分の頭で考える」ことの大切さを日々実感しています。AIスタッフに業務を任せる際、「この業務はAIに任せて大丈夫か」「人間の判断が必要なポイントはどこか」を常に検討しています。ガイドラインが求めているのは、まさにこうした姿勢なのです。
用語集——この記事で登場した専門用語
この連載では、記事中に登場する専門用語を初めての方にも分かるように解説します。
AI事業者ガイドラインとは、AIを開発・提供・利用する事業者が取り組むべき事項をまとめた、総務省と経済産業省が策定した指針文書です。法的拘束力はありませんが、AIに関する法律の運用指針として実質的な影響力を持ちます。2026年3月31日に第1.2版が公表されました。
Society 5.0とは、サイバー空間(仮想空間)とフィジカル空間(現実空間)を高度に融合させることで、経済発展と社会課題の解決を両立する「人間中心の社会」のことです。日本政府が第5期科学技術基本計画で提唱しました。狩猟社会(1.0)、農耕社会(2.0)、工業社会(3.0)、情報社会(4.0)に続く、5番目の新しい社会の姿とされています。
リスクベースアプローチとは、想定される危害の大きさと発生の可能性に応じて、対策の水準を変えるという考え方です。すべてのリスクに同じ労力をかけるのではなく、影響が大きいところに重点的にリソースを配分します。金融分野のマネーロンダリング対策などでも古くから使われている手法です。
ソフトローとは、法律のような法的拘束力を持たないけれども、事業者の行動に実質的な影響を与える規範やガイドラインのことです。違反しても罰則はありませんが、業界標準や社会的信用の観点から遵守が期待されます。AI事業者ガイドラインもソフトローに分類されます。
参考資料
この記事の内容をさらに深く学びたい方は、以下の資料をご参照ください。
まとめ——次回予告
第1回では、AI事業者ガイドラインの全体像として、日本政府が選んだ「ゴールベース」の規制アプローチと「リスクベースアプローチ」、そしてガイドライン全体を貫く3つの基本理念(Dignity・Diversity & Inclusion・Sustainability)を見てきました。
大切なのは、ガイドラインは「AIを使うな」と言っているのではなく、「AIを賢く、責任を持って使いましょう」と言っている点です。そして、その方法は各事業者が自社の状況に合わせて考えてよい。これは中小企業にとって、むしろチャンスです。
第2回「技術進化に伴う最新の『AIの定義』と広がるビジネスチャンス」では、ガイドラインにおける「AIの定義」を取り上げます。「AIシステム」「AIモデル」「生成AI」「AIエージェント」「フィジカルAI」など、次々と登場する新しい概念がどう整理されているのか、そしてそれが中小企業のビジネスにどのような可能性をもたらすのかを解説していきます。
この連載の記事一覧
第1回: 新時代のAIガバナンスと基本理念
第8回: 未来を創る『社員教育とイノベーション』
第9回: AIを作る側の責任と『世界の約束』