AIの「女性嫌い」:それでも、意図せぬバイアスは紛れ込む

コメントする

02/24/2019 by kaztaira

AIは中立で正確、と思われがちだが、実際にはデータを通じて「女性嫌い」などの実社会のバイアス(差別・偏見)が色濃く反映されている――。

2/13発売の新著『悪のAI論 あなたはここまで支配されている』(朝日新書)のエピソードをベースに、AERA(2/25号)にそんな切り口の記事を執筆した。

※参照:AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面(2019.2.20)

AIの「女性嫌い」は、このほかにも様々な形で指摘されている。

リンクトインの共同創業者、アレン・ブルー氏は、1月末のダボス会議(世界経済フォーラム)の席上、同社サービスにも「女性嫌い」の問題が潜んでいたことを明かしている。

そらに、この問題は今に始まったことではないく、その先例は30年以上も前にさかのぼる。

AIの普及とともに、このような「AIリスク」は、急速に広がっていく可能性がある。

●リンクトインの「女性嫌い」

求人・求職に特化したビジネス用ソーシャルメディアであるリンクトインは、世界で6億1000万人を超すユーザーを抱える。

リンクトインではAIを使って、これらのユーザーデータを解析。

ユーザーには求人のおすすめを、そして企業の採用担当には、有望な採用候補者のリストを表示する。

BBCによるとアレン・ブルー氏は、この採用候補者リストに表示される女性の数が少ない、という問題に気づいたという。

(候補者リストの)検索条件に合致した人々の割合に合わせて、男性と女性の候補者を表示させるべきだ。誤って女性の優先度を下げることがないように、アルゴリズムの修正を指示した。

ただブルー氏は、この問題の根は深い、という。

我々はようやく、マシンラーニングのアルゴリズムを構築するために、最善を尽くす術を理解するようになってきたところだ。それでもなお、表示される結果には意図せぬバイアスが紛れ込んでしまう。

●AI業種における男女格差

そもそも、AIに携わる業種で著しい男女格差(ジェンダーギャップ)がある――。

昨年12月に世界経済フォーラム(WEF)が公表した「グローバル・ジェンダーギャップ・リポート2018」では、AIスキルに関する男女格差の調査結果も盛り込まれている。

ちなみに、日本の男女格差のランキングは149カ国中110位だ。

AIスキルに関する調査は、WEFとリンクトインが共同で行ったものだ。

調査では、リンクトインのユーザーが登録しているプロフィールデータをもとに、AI職種における男女格差をまとめている。

それによると、トータルではAI職種に占める女性の割合は22%なのに対し、男性の割合は78%。圧倒的に男性の割合が高かった。

AI人材の集積度のトップ20を国別に見ると、1位の米国では女性23%、男性77%、2位のインドは女性22%、男性78%、3位のドイツでは女性16%、男性84%、4位のスイスは女性19%、男性81%、5位のカナダは女性24%、男性76%。

ai_skill

AI開発の中心地である米国は、ほぼ世界的な平均に近い割合だった。

また、業種別にみると、AI人材の4割を占めるソフトウェア・ITサービスの分野で女性7.4%に対して男性は32.5%、2割近くを占める教育分野では女性4.6%、男性13.9%の割合だった。

これらの男女格差は、AIのバイアス問題の背景となる、AI関連職種における多様性確保の問題とリンクすることになる。

人材採用におけるAIの「女性嫌い」として、最も知られているのは昨年10月にロイターが報じたアマゾンの事例だろう。

2014年にチームを立ち上げて、AIによる採用システム開発に取り組んできたアマゾンが、女性を差別的に扱ってしまうアルゴリズムを修正しきれず、プロジェクトを断念した、というニュースだ。

このケースでは、技術系職種で「女性嫌い」が発覚したという。そして、AIシステムの開発には過去10年間の応募・採用実績のデータを学習させたという。

IT業界ではAI職種に限らず男女格差があることが知られており、ロイターの調べでは、技術職種の割合はアップルで女性23%、男性77%、フェイスブックで女性22%、男性78%、グーグルで女性21%、男性79%、マイクロソフトで女性19%、男性81%。

当のアマゾンは、全社員の割合(女性40%、男性60%)は明らかにしているものの、技術職種の割合は非公開だという。

ただ過去の応募・採用実績の男女格差が、データを通じてAIの「女性嫌い」に反映されたと、ロイターは報じている。

●30年前の「女性嫌い」アルゴリズム

同種の問題は、30年以上前にも指摘されていた

英BMJ(ブリティッシュ・メディカル・ジャーナル)によると、舞台となったのはロンドン大学セントジョージ医学校の入学試験だ。

bmj

同校では1970年代から、入学選考の振り分けを行うコンピューターシステムの開発に着手。79年までには、その判定結果は、人間による選考委員会の判断と90~95%の割合で合致するようになっていた。

これを受けて、82年までには入学志願者の1次選抜を、すべてこのコンピューターシステムに担わせるようになった、という。

ところが、このシステムの判定結果は、女性志願者と、移民とおぼしき名前の志願者を差別的に扱っていることが判明。同校の2人の上級講師が1986年に、その事実を明らかにした。

それによると、毎年2000人ほどの志願者のうち、60人ほどが、女性、もしくは人種を理由として1次選抜で落とされていた、という。

日本では昨年8月、東京医科大学など医学部入試で、女子や浪人年数の長い男子の受験生が不利になる、不正な得点操作が行われていたことが明らかになった。

同様のことは、データを通じてアルゴリズムにも正確に反映される、という実例だ。

●それでもバイアスは残る

30年以上前に指摘されながら、なお、アルゴリズムとバイアスの問題は残っている。

「それでもなお、表示される結果には意図せぬバイアスが紛れ込んでしまう」

リンクトインのブルー氏の問題提起は、AIリスクの対処の難しさも物語っている。

——–
■最新刊『悪のAI論 あなたはここまで支配されている』(朝日新書、2月13日発売)

書影_1013_1

信じてはいけない_書影

■フェイクニュースの本当の怖さとは?『信じてはいけない 民主主義を壊すフェイクニュースの正体

■デジタルメディア・リテラシーをまとめたダン・ギルモア著の『あなたがメディア ソーシャル新時代の情報術』(拙訳)全文公開中

広告

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト /  変更 )

Google フォト

Google アカウントを使ってコメントしています。 ログアウト /  変更 )

Twitter 画像

Twitter アカウントを使ってコメントしています。 ログアウト /  変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト /  変更 )

%s と連携中

アーカイブ

ブログ統計情報

  • 785,820 ヒット
%d人のブロガーが「いいね」をつけました。