アマゾンが自社で開発を続けてきた人材採用AIが、女性差別的傾向を持つとして稼働停止になったというニュースが世界中を駆け巡っています。
AIが女性差別をするというのにかなりびっくりしたのですが、
人材採用業務に人工知能を取り入れようという動きは、昨年頃から欧米だけではく、日本や韓国などアジア圏でも活発化しているそうです。
それだけに、今後も物議が続きそうな話題です。
アマゾンの人材採用にAI?
AIが女性差別?
なぜAIは女性差別をしたのか?
AIに罪はない!?
などについて書いてみました。
スポンサードリンク
アマゾンの人材採用にAI?
アマゾンの人材採用AIについてですが、
アマゾンは2014年頃から、スコットランドの首都・エディンバラにエンジニアチームを結成しています。
そしてアマゾンは採用を効率化するための人工知能システムを開発してきました。
これは、機械学習をベースにしたもので、500台ほどのコンピューターが採用希望者の願書(履歴書など)に書かれている約5万個のキーワードを抽出・分析するのだそうです。
自社に適した人材を機械が自動的に選びだすというものです。
なんと、
100枚ほどの願書をプログラムに入れると、数秒で“最良”の条件を持った5名ほどの書類が選び出されるといいます!
すごく優秀ですよね!!
スポンサードリンク
AIが女性差別?
開発も終盤に差し掛かった時に問題が起こりました。
それはAIが“女性嫌い”で、「女性の評価を低く見積もる」というものでした。
開発開始から1年ほどが経過した頃にAIは経歴が10年以上ある男性求職者にのみフォーカスしだし、
雇用すべき候補として選び出し始めたといいます。
IT企業に志願する人物の圧倒的多数が男性なので、
AIが男性の願書(=データやキーワード)に偏向して高い評価を与えるようなったというのがそうなった原因ではないか?
と言われています。
さらに、
「女性」もしくは大学時代の活動として「女性チェスクラブ」に所属していたなどのデータ、キーワードが見つかると、採用対象から除外されるというようなケースが見つかりました。
女子大を卒業した2人の求職者の願書も、選定対象から除外されていたとのこと。
スポンサードリンク
なぜAIは女性差別をしたのか?
話を聞いていると、今年8月に問題となった東京医科大学の一律原点問題を彷彿されますが、
人工知能が女性を差別するという現象には、人間の恣意性以上に複雑な問題があると考えさせられます。
今回のアマゾンの採用AIの女性差別の原因として、出た答えは結局、
「プログラムの修正を試みたが、最終的に原因や理由を特定できなかった」というものでした。
それでは納得がいきませんよね?
今回、データ量の不均衡が問題視されていますが、
それは人間側が調整すればよいだけの話ですし、
理由としてはあまり根拠とはならないような気がしますよね。
今回の「アマゾンAI女性差別騒動」には、企業側の本音と建て前が隠されているのかもしれません。
男女の機会平等、もしくは多様性こそ企業の力であると本気で考えているのならば、
アルゴリズム設計と企業の利益(ここでは採用者の選定)は矛盾しないはずですが、
結論としては「女性差別」が生まれてしまっていますよね。
そう考えると、今回の問題はアマゾンの開発チームだけの問題というよりも、
より大きな枠組みの問題であり、「女性差別」に関する社会的哲学が不足していることが原因との考えられますね。
つまり、男女の機会平等や多様性が企業の利益と一致するというビジネスモデルの構築がなければ、
採用AIによる「女性差別」や「人種差別」は今後も問題になり続けてしまうでしょうね。
関連記事はこちら↓
林要(ロボット開発)の結婚した妻や子供は?いい人がいない?高校大学・経歴は?LOVOT(ラボット)の値段は?【情熱大陸】
AIに罪はない!?
AIがやってることをざっくり言うと、「過去データを元に、そこに潜む傾向を抽出し、それを使って将来の事象を予測する」という事です。
AI(を支えている機械学習)には色んな実装方法があります。
(ディープラーニングもその一つ)どれも簡単に言うとやってるのはこれです。
今回話題になったAI採用の場合は、AIが導き出すのは「過去の採用データの傾向を元に推測すると、
過去と同じ採用方針の場合、この人は採用する可能性が高いか低いか」という過去の傾向に基づいた推測を行った場合に発生する事、つまり今まで行っていた事実に基づいているという事です。
AIは決して「採用すべき、すべきでない」という規範的事実を導き出しているのではなく、
データを出しているだけです。
この結果を人間がどう扱うか次第ですよね。
スポンサードリンク
コメントを残す