米国企業は、人間に代わりAIが応募者を審査する、「AI人事」の導入を進めている。 これに対し、ニューヨーク州は、AI人事を規制する法令を可決した。これはAIが偏った判定をすることを防ぐもので、企業はアルゴリズムの妥当性を証明することが求められる。 企業はAIで採用プロセスを自動化しているが、これからはAI人事の運用には制限が課されることになる。 ニューヨーク市の法令米国では、多くの企業が人事採用プロセスにAIを導入し、アルゴリズムが応募者を評価して、採用の可否を判定する。ニューヨーク市議会は、全米に先駆けて、AIを使った人事採用を規制する法令を可決した。 これによると、AIを人事採用プロセスで使う場合は、企業はアルゴリズムが公平に判断を下すことを証明することが求められる。 第三者による監査具体的には、第三者がアルゴリズムの公平性を監査することが義務付けられた。 企業は、アルゴリズムが、性別や人種や出身地に関わらず、公平に評価できることを証明する必要がある。更に、人事面接でAIを使う場合は、その旨を応募者に明らかにすることも求めている。 アルゴリズムの監査アルゴリズムを監査するというコンセプトは、企業の決算を監査する考え方に似ている。 上場企業は、決算報告書を財務当局に提出するが、その際、第三者により決算書の内容が正しいことを証明する。 アルゴリズムも同様に、人事採用のプロセスで、AIがバイアス無しに正しく判定を下すことを証明することが求められる。 AI人事のバイアス問題ニューヨーク市がAI人事を規制する背景には、アルゴリズムが特定グループに有利に働き、判定結果がバイアスしているケースが発生しているため。 大企業の多くは、履歴書のスクリーニングや面接でAIを使っている。AIが人間に代わり、履歴書を読み、面接の応対を解析し、採用の可否を判断する。 企業としては、多数の応募者を効率的に判定できるため、AIが必須のツールとなっている。同時に、アルゴリズムの公正性について問題が指摘されていることも事実。 AI人事の判定結果を検証実際に、AI人事の判定結果を検証するプロジェクト「Objective or Biased」がその問題を明らかにした。 AIは様々な手法で面接者を評価し、採用するかどうかを判定する。その一つが、「AI面接」で、アルゴリズムはビデオで撮影された応募者の表情を分析し、採否を判定する。 アルゴリズムは、声や使う言葉や手ぶりや表情を分析し、応募者の個性や特性を掴み、募集しているポジションに適しているかどうかを判定する。 AI面接の手法プロジェクトはAI面接システム「retorio」の判定精度を検証し、結果が公平かバイアスしているかを評価した。 retorioはドイツ・ミュンヘンに拠点を置く企業で、ビデオ映像をAIで解析し、応募者の特性を5つの指標で評価する。 これらは、「ビッグファイブ」 (Big Five Personality Traits)と呼ばれ、オープン性(Openness)、誠実性(Conscientiousness)、外向性(Extraversion)、合意性(Agreeableness)、神経症(Neuroticism)で構成される。 AI面接の信頼性に疑問アリAIがビデオ映像からこれらビッグファイブの特性を評価し、採用の可否を判定する。 プロジェクトの検証によると、AIの判定精度は、人物以外のオブジェクトに依存し、必ずしも正しく判定できていないと指摘する。 例えば、メガネをかけて面接すると、AIの評価が低下する。また、応募者の背景により評価が変わる(下の写真)。 応募者の背後に本棚があると、AIの判定精度が大きく向上する(黄色のグラフ)。 これらの事例から、AI面接でアルゴリズムは本人だけでなく、メガネや本棚など、それ以外のオブジェクトを評価しており、判定精度に疑問が残るとしている。 アメリカ連邦議会アメリカ連邦議会もAIによる自動化プロセスを規制する法案を審議している。 これは「Algorithmic Accountability Act」と呼ばれ、AIが自動で意思決定をするシステムをハイリスクと認識し、企業にAIの安全性を担保することを求める。 具体的には、アルゴリズムの判定精度が高く、バイアスしていないことを保証することが課せられる。この法案は審議中で、可決するかどうかは見通せないが、連邦政府もAIの規制に動き始めた。 AI面接システムの販売停止AI面接については、その判定精度を疑問視する意見が多く、米国のAI企業HireVueは、AI面接のシステムの販売を停止した。
HireVueはビデオ面接の映像をAIで解析し、採用の可否を判定するシステムであるが、AIが本当に人間のように公正に判定できるのか、議論が続いていた。 ニューヨーク市を発端に、米国でAI人事への規制が広がる勢いとなってきた。 欧州連合(European Union)は、AIの運用を規定したプロポーザルを発表した。 AIは社会に多大な恩恵をもたらすが、その危険性も重大で、EUは世界に先駆けてAIの運用規制に踏み出す。 警察は顔認識技術を使って市民を監視することが禁止される。 また、銀行はAIによる与信審査を導入する際は厳格な運用条件が課される。 一方、米国は連邦取引委員会(Federal Trade Commission)がAIの利用規制に関する意見書を公開した。 欧州と米国はAIの運用を厳しく制限する方向に進み、各国の企業は対応を迫られることになる。 EUのプロポーザル欧州委員会(European Commission)は2021年4月21日、AI運用に関するプロポーザル「Proposal for a Regulation on a European approach for Artificial Intelligence」を公表した。 AIが社会に浸透し人々の生活にかかわる中、欧州委員会はAIの運用ルールを定め、危険なAIについては使うことを禁止する。プロポーザルはAI運用の指針を示したもので、EU加盟各国はこれをベースに法令を制定してAIの運用を規制する。 AI利用規定の内容欧州委員会はAIの危険度を四段階に分けて定義し、それぞれの利用法を規定している。 危険 (Unacceptable risk)なAIはその使用を禁止する。 ハイリスク(High-risk)なAIについては、規定された対策を適用することを条件に使用が認められる。 ローリスク(Limited risk)なAIは、表示義務を条件に使用が認められる。 その他(Minimal risk)のAIは無条件で利用できる。また、これらの規定に従わないときは罰則規定が設けられ、制裁金(最大3000万ユーロか売上高の6%)が課される。 欧州委員会のプロポーザルの特徴は、ハイリスクなAIを定義し、その運用条件を定めたことにある。 AIの危険度とその事例危険なAIとは監視カメラで市民の行動をモニターし、その挙動を解析し信用度を付加するAIとしている。 これは中国で実際に運用されているが、欧州委員会はこれを全面的に禁止する。 ハイリスクなAIは、人間に代わり試験を採点するAIや、人事採用で履歴書を評価するAIなどが含まれる。 また、銀行でローン審査を担うAIや、裁判所で証拠を検証し判決を下すAIが対象となる。 更に、警察の犯罪捜査で使われる顔認識AIが含まれる。欧州委員会が示したAIの危険度とその事例は下記のテーブルの通り: ハイリスクなAIを利用する条件ハイリスクなAIを使う際はその運用に厳しい条件が課される。 AIのアルゴリズムが偏ってなく、人種や性別や年齢にかかわらず公正な判定を下すことが求められる。 また、AIのアルゴリズムのメカニズムを詳細に説明したドキュメントの制作が求められる。 消費者がAIの機能や品質や使用方法を理解し、正しく利用できる説明書を求めている。 ハイリスクなAIを運用する条件は下記の通り:
ローリスクなAIローリスクなAIは対話型のチャットボットで、人間ではなくAIが応答していることを明示することを義務付ける。 その他のAIは無条件で利用でき、スパムフィルターなどがこれに該当し、特別な条件なしでAIを運用できる。 次のステップ欧州委員会がプロポーザルを作成した背景には、EUはヒューマンセントリックスなAIを開発し、AI技術で世界をリードするとの狙いがある。 これらは欧州委員会の提案書であり、加盟各国はこれをベースに独自の法令を制定するプロセスとなる。 2018年にEU一般データ保護規則(General Data Protection Regulation; GDPR)が導入され、加盟各国はこれをベースに独自の法令を定めたように、AIも同じプロセスをたどることになる。 米国におけるAI規制の状況米国は連邦政府レベルでAIの利用を規制する法令は無く、州や市が独自の法令を定め運用している。 特に、顔認識技術の危険性が指摘され、警察がこれを犯罪捜査で使用することを禁止する法令が制定されている。 サンフランシスコやボストンなどは、警察が顔認識技術を使うことを禁止する法令を制定した。一方、殆どの自治体はこれを禁止する法令は無く、顔認識技術が幅広く使われている。 米国はFTCが見解を発表米国においても連邦政府レベルでAIの運用を規制するルールの制定が始まる。 FTCは消費者を不公正な商取引から保護することをミッションとするが、AI運用に関するコメントを発表し、企業にAIを公正に活用することを促した。 FTCは既に、AIとアルゴリズム利用に関するガイドラインを発表しているが、今回のコメントはそれを一歩進め、AIの不公正な利用を法令で取り締まることを示唆した内容となった。 AIを管轄する法令これによると、FTCは不正な商取引を禁止しており(FTC Act)、人種差別につながるアルゴリズムの販売は禁止される。 また、人事面接でアルゴリズムが応募者を不採用にする行為は消費者を公正に格付けする法令(Fair Credit Reporting Act)に抵触する。 更に、アルゴリズムが不正に特定の人種や性別や国籍によりローンを認めないケースでは、公平な権利を規定した法令(Equal Credit Opportunity Act.)に抵触する。 FTCはAI規制を強化するGDPRが示すように、EUはハイテク企業に対し、プライバシー保護や個人の権利に関し厳格な対応を求める。 一方、FTCは米国企業が中心のハイテク企業に対しては、ビジネスを優先し寛大なポジションを取ってきた。 しかし、AIに関してはこの流れが変わり、FTCもハイテク企業に対し、EUと同じレベルの規制を導入するとの見方が広がっている。 AI企業は対応を求められる米国で危険なAIがルール無しに運用され社会に混乱が広がっている。
高度な顔認識技術を提供するClearviewは、Facebookから顔写真をスクレイピングし消費者の間で懸念が広がっている。 FTCがAI運用に関する統一したルールを制定することで、消費者の権利が守られ、安心してAIを利用できると期待される。 一方、AI企業は制定される法令に沿った品質保証が求められ、AI開発は大きな局面を迎える。 |