この報告書には、人事部門にAIを入れるときの設計思想が整理されています。示されているのは「人間の意思決定をサポートする」という前提と、その前提を現場で守るための3つの対応——「安全性・公平性・透明性の確保」「戦略的推進体制の構築」「現場に根付かせるための運用・定着」。採用スクリーニングや人材配置でAIを使う企業が、どのように意思決定の境界を引いているかが、8社の事例とともに示されています。
この記事でわかること
- 経団連の報告書が示す「HR部門におけるAI活用の基本的考え方」の構造
- AIを「人間の意思決定のサポート」と位置づける意味と、そこから導かれる3つの対応
- 企業事例から読み取れる、AI導入時の判断の境界線と組織設計の実態
経団連が報告書を出した背景と、HR部門にAIが入りにくかった構造
生成AIの登場で可能性が拡大したが、HR部門での活用は手探り状態だった
経団連が2026年4月に公表した「HR部門におけるAI等の活用に関する報告書」は、2025年7月から2026年2月にかけて、採用・人材配置・人材育成・労務管理の4領域でAI等を活用している企業やシステム開発事業者へのヒアリングをもとにまとめられたものです。
報告書の冒頭では、少子高齢化・労働力不足という構造的な課題と、生成AIの登場により職場におけるAI活用の可能性が飛躍的に増大したという技術的な変化が並列して示されています。一方で、職場における AI活用が徐々に浸透しつつも、「とりわけ人事・労務管理を行うHR部門におけるAI活用は手探り状態」であり、「知見が十分に蓄積されていない」という認識が示されています。
この「手探り状態」という表現は、技術的な障壁というよりも、HR部門が扱う情報の性質——社員一人ひとりのキャリアや処遇、組織運営に大きな影響を与える情報——に起因する慎重さを示しているかもしれません。報告書では、今後この分野での活用が加速度的に増えていくことを想定したうえで、「積極的に推進する観点から」取り組みを整理しています。
諸外国との比較で見えるアルゴリズム管理ツール導入の差
報告書には、OECDが2025年に実施した「アルゴリズム管理に関する雇用者調査」のデータが引用されています。この調査では、AIを含むアルゴリズム管理ソフトウェア(指示ツール、モニタリングツール、評価ツールの3つ)を導入している企業の割合が、アメリカ90%、EU平均79%(フランス81%、ドイツ78%、イタリア76%、スペイン78%)であるのに対し、日本は40%にとどまっています。
ツール別に見ると、特に「評価」分野での差が大きく、アメリカでは「良い仕事への評価」83%、「労働者への目標設定」74%、「不十分な仕事に対する制裁」67%であるのに対し、日本はそれぞれ13%、19%、4%となっています。報告書では、この背景として、ジョブ型雇用を前提とした人事制度のもとで評価基準が比較的明確であり、制度が長年運用されてきた結果、AI活用に必要なデータの蓄積が進んでいることが示唆されています。
一方で、アメリカではカリフォルニア州などで雇用差別や労働者保護の観点から規制が設けられており、EUでも「EU AI法(AI Act)」において雇用分野(採用・選考、雇用条件、昇進、雇用契約の終了、タスク割当、パフォーマンス評価に影響を与える意思決定等)に関わるAIが「ハイリスク」に分類され、厳格な規制が設けられているという動向も併記されています。
日本企業の導入割合が低いことは、慎重さの表れとも読めますが、同時に、今後活用が進む際の設計思想が定まっていないことを意味しているかもしれません。
経団連の調査から見える、日本企業のHR部門におけるAI活用の現状
9割以上の企業が何らかの形でAIを活用しているが、HR部門では手探り
経団連が2025年に実施した「HR部門におけるAI・テクノロジー活用に関するアンケート」(n=75社)では、「複数の業務プロセスで広く活用」46%、「一部部署・一部業務プロセスに限定して活用」24%、「業務プロセスには組み込んでいないが、ChatGPT・Copilot等の生成AIツール利用を会社として許可」23%を合計すると、9割以上の企業がAIを活用していると回答しています。
各業務(部門)における活用状況を見ると、「人事」(49社)が最も多いものの、CS(カスタマーサービス)43社、営業38社、法務40社、IT44社など、広く各業務の中でAIが活用されています。
HR部門の中での活用状況をさらに見ると、「採用」25社、「労務管理」22社、「エンゲージメントサーベイ」21社、「人材育成」20社が多く、「人材配置」13社、「評価」13社、「報酬」5社での活用はまだ少数にとどまっています。具体的には、採用では「応募者スクリーニング(エントリーシート・動画解析等)」15社、「面接サポート(評価補助、文字起こし等)」13社、人材配置では「人事配置(ポジションマッチング)」6社、「ジョブディスクリプション(職務記述書)の作成サポート」5社、人材育成では「面談サポート(1on1内容整理、議事録生成等)」14社、「研修・学習のレコメンド」11社、労務管理では「労務相談の一次対応(AIチャットボット)」19社が多い傾向にあります。
この結果からは、定型的な業務や情報整理の効率化から活用が始まっており、評価・報酬といった判断の核心部分への活用はまだ限定的であることが読み取れます。
企業が期待する効果と、実際に得られている効果
JILPTの調査「働く意識の変化や新たなテクノロジーに応じた労働の質の向上に向けた人材戦略に関する調査」では、AIが導入された場合に期待することとして、「単純なタスクからの解放」82.5%、「労働生産性の向上」82.5%、「社員がより高度な業務に集中できる」72.1%が挙げられています。
報告書に掲載された企業事例を見ると、採用面接官の育成・支援により「内定承諾・入社率の約10%向上」(トランスコスモス)、応募者スクリーニングにより「面接に費やしていた約900時間を削減し、OB・OG訪問等の別プログラムに時間を充てることが可能に」(ジェーシービー)、ポジションプロファイルの作成支援により「短期間かつ高品質で作成でき、手挙げ方式の人事異動制度に活用」(中外製薬)、面談サポートにより「社内コミュニケーションの質が向上」(竹中工務店)、FAQ自動作成により「担当者の業務効率と負荷軽減、大幅な経費削減」(デンソー)、労務相談の一次対応により「約40%のコスト削減」(日本IBM)といった効果が報告されています。
これらの効果は、単なる作業時間の削減だけでなく、削減された時間を「より高度な業務」「より戦略的な業務」に充てられるようになったという点に共通項があります。報告書では、こうした取り組みにより「生産性の向上やイノベーション・付加価値の創造を加速させる組織への変革が期待できる」としています。
HR部門におけるAI活用の基本的考え方——「人間の意思決定のサポート」という前提
AIは人間の意思決定を代替するのではなく、サポートする機能として活用する
報告書の中核をなすのが、「HR部門におけるAIは、人間の意思決定のサポート機能として活用」という前提です。これは「人間中心のAI社会原則」(日本政府、2019年3月)に基づくものであり、「AIの利用は、憲法および国際的な規範の保障する基本的人権を侵すものであってはならない」「AIは、人々の能力を拡張し、多様な人々の多様な幸せの追求を可能とするために開発され、社会に展開され、活用されるべきである」という理念から導かれています。
報告書では、AI活用の際の基本的なステップとして、以下の3段階が示されています。
【ステップ①】AIに何をさせるか決定。必要なデータを用意し、AIにインプット 例:採用面接であれば、誤判断を避けるための客観的・具体的・明確な評価基準のインプット。職務記述書の内製であれば、必要となる役割・スキル・目標設定等の情報を整理・インプット。研修のレコメンドであれば、研修後のサーベイ結果のインプット。社員の問合せへの対応であれば、手順書の作成、システム連携、関係法令のインプット。
【ステップ②】AIが担当者のサポートや検討結果をアウトプット 例:面接内容のレポート作成、レコメンド作成。職務記述書の原案生成。社員一人ひとりのキャリアにあった研修をレコメンド。社員の質問に自動で対応。
【ステップ③】AIが判定した理由を把握したうえで、人間が責任をもって最終的に意思決定 例:候補者の合否確定。部門間での調整、必要な修正実施。レコメンド結果も踏まえた、社員とのキャリア形成に関する面談・相談の実施。AIが答えられない複雑かつ繊細な問合わせに対応。
このステップの構造は、AIが「大量のデータ処理」「手作業の自動化」を担い、人間が「文脈の理解」「判断の責任」を担うという役割分担を前提にしています。報告書では、この前提のもとで、企業に求められる対応を3つの柱として整理しています。
求められる対応①——安全性・公平性・透明性の確保と、AI事業者ガイドラインの参照
HR部門は社員一人ひとりのキャリアや処遇に関わる情報を扱うため、高い説明責任と信頼性が求められる
報告書では、HR部門が「社員一人ひとりのキャリアや処遇、さらには組織全体の運営に大きな影響を与える情報を扱う部門であり、その判断には高い説明責任と信頼性が求められる」としたうえで、人事データを活用する際には「安全性、公平性、プライバシー、透明性等の確保は必須」と明記されています。
具体的には、総務省・経済産業省が公表している「AI事業者ガイドライン(第1.1版)」(2025年)や、一般社団法人ピープルアナリティクス&HRテクノロジー協会「人事データ利活用原則」(2022年制定、2024年改訂)を参考にすることが提示されています。
報告書では、「AI事業者ガイドライン」に記載されている主な項目(AI利用者向け)を、HR部門における活用場面での具体的な対応として整理しています。
安全性(安全を考慮した適正利用) ・採用・評価・配置など影響の大きい判断では、AIの結果のみで不利益な処遇を決定しない ・HR業務でのAI利用目的・範囲を明確化し、想定外利用を防止
公平性(入力データまたはプロンプトに含まれるバイアスへの配慮) ・採用・評価AIにおいて、性別・年齢等の属性情報を入力・学習させない ・AIの出力結果を、属性別に定期的に確認し、不合理な差がないか検証 ・過去の人事データを学習に用いる場合、偏りや不適切な判断が含まれていないか事前検証 ・公平性に課題が見られた場合、AIの利用範囲・方法を見直す
プライバシー保護(個人情報の不適切入力及びプライバシー侵害への対策) ・個人情報保護法や国際的な個人データ保護原則の遵守 ・AIに入力する人事データは、必要最小限にする ・要配慮個人情報は入力しない ・AIサービス提供者によるデータの保存・二次利用の有無を事前に確認
セキュリティ確保(セキュリティ対策の実施) ・HR部門で利用するAIツールを会社指定のものに限定 ・IT・DX部門と連携し、アクセス権限・ログ管理を実施 ・外部ベンダー利用時は、情報セキュリティ要件を契約で明確化
透明性(関連するステークホルダーへの情報提供) ・採用・評価等でAIを利用していることを、社員(採用の場合は候補者)に明示 ・「どの業務で、どのようにAIを使っているか」を社内ガイドラインで整理 ・AIの評価観点・参照データの概要を、説明可能な形で整理
アカウンタビリティ(関連するステークホルダーへの説明、提供された文書の活用及び規約の遵守) ・HR部門におけるAI活用の責任部署・責任者を明確化 ・AI活用に関する苦情・トラブル時の対応フローを事前に定義
これらの項目は、AIを活用する際の「守るべき境界線」を示していますが、同時に、この境界線を守るためには、組織としての体制と運用の仕組みが必要であることを示唆しています。
求められる対応②——戦略的推進体制の構築と、AI推進の担い手・知見の確保
AI活用の”司令塔”としての役員ポジションまたは責任者の設置
報告書では、「AIを安全に利用していくためには、様々なリスクに備え社内外の連携が必要となるため、社内におけるAI活用の”司令塔”が必要」としています。
経団連調査では、AI推進を担当する「役員ポジション(CAIO等)を設置」している企業が35%、「役員ポジションではないが責任者(部長クラス等)を設置している」企業が20%で、合計55%が何らかの形でAI推進の責任者を設置しています。
報告書では、人材戦略を統括するCHRO(Chief Human Resource Officer)を設置している企業においては、CHROがHR部門へのAI活用において中心的な役割を担うことが想定されるため、CAIO等のAI推進担当と連携しながら取り組みを進めていくことが重要としています。
AI推進の担い手・知見の確保のための多様なアプローチ
ヒアリング企業は、AI推進の担い手・知見の確保のため、以下のような多様なアプローチをとっています。
・外部からAI人材を確保(人事異動・経験者採用) ・社内でのAI人材の育成に注力 ・海外の現地法人の知見を活用 ・社内のIT・DX部門と連携強化 ・ベンダー企業やコンサルティング会社と協力 ・大学や研究機関と協力
報告書では、これらのアプローチを組み合わせながら、自社に合った体制を構築していくことが重要であることが示唆されています。
求められる対応③——現場に根付かせるための運用・定着の仕組みづくり
(1)現場の理解を得ること——信頼関係の観点からの丁寧な説明と理解の取得
報告書では、「AI活用が進まない要因は、技術的な問題だけでなく、社員の受容や信頼に関わる側面が大きい」としています。
具体的には、「AIに対する不安や懸念を解消するために、社員への十分な説明を行い、理解を得たうえで活用を進めることが重要」であり、「導入後も社員の声を継続的に把握し、効果を検証・改善していくことで、社員のさらなる理解と支持を得ながら定着を図ることが肝要」としています。
特に「モニタリング」「評価」「予測(活躍予測・離職予測)」にAI活用を検討している場合、「不当な扱いや権力の行使と受け取られる可能性もある」として、「HR部門と社員との信頼関係を構築していくためには十分に理解を得る必要がある」と明記されています。
この指摘は、HR部門におけるAI活用が、技術的な実装の問題だけでなく、組織内の信頼関係と権力のバランスに関わる問題であることを示しています。
(2)継続的にアップデートすること——技術・データ・意識のアップデート
報告書では、「AI技術は日々進化しており、利用する側も継続的に知識やスキルをアップデートしていくことが不可欠」としたうえで、以下の3点を挙げています。
・社内に蓄積されているデータを適切に管理・整備し、AIによる分析や示唆の精度向上に活用していく ・AI技術の進展や働き方の変化にも対応できるよう、既存システムとの連携やシステム基盤の整備を進める ・AIの浸透により、働き方や仕事の進め方そのものが変化していく可能性を踏まえ、最新技術に関する理解にとどまらず、人間が担う役割や仕事に対する意識のアップデートが求められる
特に3点目の「人間が担う役割や仕事に対する意識のアップデート」は、AIを単なる効率化のツールとして扱うのではなく、組織における意思決定の構造そのものを見直す契機として捉えることを示唆しているかもしれません。
(3)小さくはじめること——定型的な業務・効果を確認しやすい業務からの着手
報告書では、「HR部門の業務にAIを導入する際には、定型的な業務で、効果を確認しやすい業務からAIの活用をはじめるなど、『小さく』はじめることで成果を出している企業がある」としています。
具体的には、「小さな成功体験を積み重ねることができれば、業務の拡大や別の部署への展開も可能となる」とし、「既存業務にAIを導入する際には、業務プロセスのシンプル化も重要なポイント」として、「属人化していた業務を『見える化』『標準化』するなど、手順を明確にすることは、AI導入に向けた下準備に寄与」すると整理されています。
この「小さくはじめる」というアプローチは、技術的なリスクの回避だけでなく、経営層や現場社員の理解を得るための実績づくり、そして自社における「AIに任せられる境界線」を見極めるための試行としての意味を持っているかもしれません。
企業事例から読み取れる、AI導入時の判断の境界線と組織設計
報告書には、トランスコスモス、ジェーシービー、中外製薬、テルモ、竹中工務店、デンソー、日本IBM、ウィルオブ・ワークの8社の事例が掲載されています。これらの事例からは、各社がどのような場面でAIを活用し、どこまでをAIに任せ、どこから人間が判断するかという「境界線の引き方」が読み取れます。
採用——AIによる面接サポートと、最終判断は人間が行うという設計
ジェーシービーの事例では、新卒採用面接において、従来は人事部以外の社員が通常業務とは別に学生の面接をしていたところ、デジタル面接プラットフォーム「HireVue」を活用した録画面接に変更しています。HireVueは、面接動画における候補者の発言内容に基づき、AIが候補者の主体性や状況適応力、学習意欲等の行動特性を5段階で判定するツールです。
重要な点は、「AIによる評価やゲームスコアを含めた総合スコアはあくまで参考という位置づけであり、最終的な合否の判定は採用担当者が行っている」という点です。また、導入にあたっては、インターンシップ参加者の協力のもと、AIによる選考結果と社員との面接による選考結果を比較し、いずれの選考結果にも大きな差がないことを確認したうえで導入しています。
さらに、候補者がAIによる評価を受けることへの抵抗感や、動画選考を受けることへの不安を軽減するため、YouTube上の公式チャンネルにおいて、動画選考を受ける際のポイントや留意点をまとめた動画を投稿し、候補者が準備を行ったうえで選考を受けることができるようにしています。
この事例からは、AIを採用選考に導入する際に、(1)AIの判断と人間の判断を比較検証する、(2)最終判断は人間が行う、(3)候補者への情報提供と準備機会を確保する、という3つの設計思想が読み取れます。
トランスコスモスの事例では、採用面接官の育成・支援を目的に、外部の採用DXサービスAI「harutaka」を活用して、面接官の面接スキルの見える化、個別最適化された学習プログラムの提供、フォローアップ研修を一体的に運用しています。面接官一人ひとりの強みや改善点を明確にするため、Web面接を録画するとともに、面接官の表情や話し方、話す頻度、質問内容などをAIにより日次、月次、年3回の頻度で分析し、定量化・可視化しています。
この事例では、AIは面接官のトレーニングと成長支援に使われており、採用判断そのものをAIに任せるのではなく、面接官の判断力を高めるためのツールとして位置づけられています。
人材配置——AIによるマッチング提案と、手挙げ・対話による最終決定
中外製薬の事例では、ジョブ型人事制度の導入に伴い、ポジションごとの職務・人財要件を記載したポジションプロファイル(PP)を作成する際に、生成AIを活用しています。目標設定や業務内容等の社内データをAIに読み込ませ、社員の職務情報案を作成し、人事担当者が部門間の調整をすることで、社内のPPを内製しています。
PPは社内で公開し、原則手挙げ方式の人事異動制度に活用されています。社員は、自らが希望するポジションに必要なスキルや経験等をPPで確認でき、希望するポジションで人を募集していれば、社内システムを通じて直接、当該部署に応募できる仕組みになっています。さらに、AIが社員の職務経歴や職務記述書、希望するキャリアを踏まえて、おすすめのポジションを提案してくれる機能も今後実装予定とのことです。
テルモの事例では、社員の職務経験やスキル・興味等に基づき業務機会や人脈づくりに向けた支援をしたり、社員が自ら希望したポジションに直接に応募できる社内プラットフォーム「ONE Connect」を導入しています。AIが各社員に適したレベルの業務や人脈づくりを提案するためには、職務分布のデータ整備が必要となるため、先にONE Connectを導入し、各国のシステムに繋いだとのことです。
これらの事例からは、人材配置においてAIは「候補の提示」「マッチングの可視化」を担い、最終的な配置の決定は「本人の意思(手挙げ)」と「組織の判断(調整・承認)」によって行われるという設計が読み取れます。
人材育成——AIによる対話・分析と、人間による面談・相談の組み合わせ
竹中工務店の事例では、部下とのコミュニケーションに悩む管理職の面談を支援するツールとして、ウェブ上でAIが管理職の面接での反応や助言した内容について分析し、フィードバックする対話型ツール「karafuru AI(カラフルAI)」を試験的に導入しています。利用者は、部下との1on1面談という想定で生成AIと対話を行い、様々な相談内容に対する返答を入力すると、生成AIは入力内容を分析し、相手を尊重したり傾聴する姿勢ができているかどうかをフィードバックしています。
これらの事例からは、人材育成においてAIは「対話の分析・可視化・レコメンド」を担い、最終的な育成の判断と実施は「人間の面談・相談・指導」によって行われるという設計が共通しています。
まとめ|HR部門のAI活用は「境界線の設計」から始まる
経団連の報告書が示したのは、HR部門におけるAI活用の可能性と、その活用を機能させるための3つの対応の枠組みかもしれません。
「人間の意思決定をサポートする」という前提のもとで、安全性・公平性・透明性を確保し、推進体制を構築し、現場に定着させる。この3つの対応は、AI導入の技術的な側面だけでなく、組織としての意思決定の構造と信頼関係の設計を問うものです。
8社の事例が示すのは、AIをどこまで活用するかという「境界線」は、技術の限界ではなく、組織が意識的に引くものであるということかもしれません。採用・配置・育成のいずれにおいても、最終的な判断は人間が行うという設計が共通しており、その設計こそが社員との信頼関係を維持しながらAIを活用するための前提になっているように見えます。
一度確認してみる価値があることがあります。 「自社のHR部門でAIを活用している、または検討している場面において、どこまでをAIに任せ、どこから人間が判断するかという境界線が明確になっているでしょうか」 「AIの活用について、対象となる社員への説明と理解の取得が設計されているでしょうか」
その問いを持つところから、HR部門におけるAI活用の設計が始まるかもしれません。
詳細は経団連「HR部門におけるAI等の活用に関する報告書」(2026年4月)をご参照ください。
AI人材育成を社内で進める前に決めるべきこと|目的が曖昧なまま始まる育成が機能しない理由についても、目的の分類や目的設計などについてまとめていますので、気になる方はご覧ください。


コメント