【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

スポンサーリンク
◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面
人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。
IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。
マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。
いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。
さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。
アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。
原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。
●学習データに基づくAI、正確で中立だとは限らない
システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。
するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。
「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。
社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。
アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。
「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。
「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。
※続きは下記のソースでご覧ください
AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1
なにこの先に結論ありきの強引な論理展開は?
AIが正しい判断をしたという最も素直な可能性をなぜ考えようとしないんですかね
それは、政治的に許されていないからだな。
AIとかけ離れた結果を施行する事が多ければ多いほど感情的だとしたなら、政治ほど感情的なものは無いということですね
というか、政治的に許されないとか共産主義国家かよw
>>10
神の意志に反するからだよ。
今の欧米は「平等」という神を信仰していて
平等神の教えに反することは、絶対に事実であってはならないのさw
その平等神の教えというのは実際は
一部のリベラル連中(=聖職者)が勝手に決めたことに過ぎないのだがね。
AI「だって女って本当のことを指摘すると怒るんだもん」
>>629
全文まで読まずとも、記事の転載された部分だけでも読んでればわかると思うが
経歴の各所にある「女」という言葉に反応して評価落としてたんだよ
AIはどれが能力に関係して、どれが関係しないかを判断できないって問題があるってこと
それこそ、東京の企業で東京出身が多く採用されてたから
東京以外が出身の人は採用しないとか
トンデモAIが誕生しかねない
だね。本末転倒もいいとこ
これなw
バイアスをいかに排除するかがAIの力の見せ所なのに
…だな
AIに機械学習させる過去の採用データそのものを再現しているに過ぎない。
本当の意味でのAIなんて
世の中を大量にシミュレートした上で判断する囲碁将棋タイプでない限り
単なる早く結果を出す計算機でしかないよな
目的はまさにそれだもんな
ほんと、AIに何を求めてるのやら
AIの基本学習データなんて単純なものだろうさ
言わばテスト段階にあるんだから。事細かに設定するよりはAI独自の進化経過データがほしいからね
そうなると打ち込まれるデータはモラル的な物もあるだろ
人を殺してはいけません。友を愛しなさい、よく学びよく働きなさい。幼稚園児に教えるレベルの内容
そんなデータから導きだされた答えは「まん様は人としてどうなの?」ってことだろ
バイアスではなく、過去の結果だろ
単純に勤続年数を考えても短ければマイナス評価にならざるえない
当然女性には不利になる
だけど、それは会社にとってだからいいのでは?
社会にとっては男女どちらも必要なんだから
一部の比較で語るのはアホだよ
結果は結果で女性が低かった(会社)でいい
学習するデータの偏りがそのまま出てるだけだろ結局のところ
女性に有利な条件で再度AIに仕分けさせても、少なくとも資本主義社会において男性優位の結果に落ち着くと思われます
なぜなら女性自身が職場の女性を疎ましく思うケースが多いので
でも統計を公表する人が嘘をつく世の中
こういう場合には男性ならこうなるが女性だとこうなる、という状況を数値化した時に
差が出てきたのを
納得できない人が「AIの女性嫌い」とか言ってるだけで
多分、AIの通りに選ばれた人材とそうじゃない人材では企業にとってそれなりの結果になりそうな気がする
使い物にならないのはどちらですか?って話になりそうなニュースだな
肉体労働を除けば別に女性の能力は男性に比べて低くない
ただ、性質の問題なんでしょうね
限りなく合理性を求めようとした結果、現代社会の働き方には男性の性質のが合致してるってだけでしょう
それを能力が低い、という実に言いやすい表現にしてしまっているのが現状なんでしょうかね
その可能性は職種によってはあるのですが、特定職種に絞って統計を出すのはもってのほかなので、職種別にも分けて統計をちゃんと出した可能性のが高いです
それでどの業種でもどうにもならない結果になったために、こういった差別論の記事に誤魔化したのかと
人間の集中力は大きく体力に依存してるっていう研究もあるからな
男女の体力差が自明なら
デスクワークの集中力も体力差によって開くというな
知的能力が同じなら労働時間が長い方が生産性は上がるだろうし
そういう事なのでしょうね
そもそも性質が違うものを同じ土俵で戦わせること自体が間違いなのかと
ポケモンと妖怪ウォッチは似て非なるものです
これを機に差別という言葉そのものの捉え方を変える人が増えることを望みます
AIが平等な視点で評価した結果だと思う。
別にAIにデータ仕分けさせなくても明らかな事ではありますね
しかしこういったデータ仕分けは人間では発見できなかった項目同士の意外な共通点が見つかる事が醍醐味なのですが、
推測するにどの企業が行った調査でも女性労働者にとって絶望的な結果を生み出しすぎたのかもしれません
男女の賃金格差の原因を調べたアメリカの研究で
実は男女の賃金格差は差別じゃなくて
嫌な仕事や残業を男の方が快く引き受ける場合が多いから
男性の賃金が高くなると分かったものがあるんだよな
合理的に正しい理由のある偏見というのも世の中にはある
たぶんそれをやると本末転倒なことになる
多分トドメを刺すことになるかと
性別を書かないにも拘らず女性を弾く傾向が見られた、
とかなったらまた盛り上がるな
いや、実際以前の記事だと、アマゾンのやつは性別欄なかったと思う。
ただ、女子校とかガールスカウトとか、得られる情報はあったので、それらのキーワードがネガティブパラメータになったって話だったと思う。
途中で退社してしまう率は男の倍
管理職になる率は男の半分以下…
っていうデータを読ませれば、そりゃ
「女は男よりもレベルが低い」って学習しちゃうでしょう…
「今後は過去のような恣意的な人事評価が起こらないように」ってAIを導入してるのに
その判定の元になるのが過去の恣意的な評価じゃ、同じ事にしかならんよね
管理職のキャリアが少ないのはともかく
離職率が高いというデータがあるなら
考慮されるべき要素のひとつじゃないのか
なら一体何のデータを読み込ませればいいんでしょう?
AIはしっかり女性がいる事での職場での士気の上昇などの結果も踏まえているはずです
データ無しでの「女は職場にいらない」という言葉は単なる妄言です
しかし、その妄言を裏付けるデータが今回の結果です
今回の記事では複数社で同じような傾向が出たとされてますし、その中には女性が多い部門も存在していたはずです
しかし、その結果はこうなってしまった
>>83
日本では知られてないが、既にアメリカではキャリア職に女性を増やすことが不可能だと結論付けられている。
なぜなら、大半の女性自身がそれを拒絶するから。もちろん例外はあるが裾野が狭ければキャリアに登用出来る女性も減る。
だからこの結果は事務職、ブルーワーカーの調査かも知れない。
そこでの偏見は確かにあるかもね。キャリアは男性だから。
しかし一つ言うとAERAの記事はそこを解ってて誤認させようとしてるかも知れない。
>>110
望まぬ結果をミスリードして誤魔化す事はマスコミ業界では良くあるようですが、この記事それよりも女性への慰めのような感覚を植え付けられます
そもそもの事仰ってる通り女性のキャリアは少なくそれが現代社会の事実であり、AIはそれをそのまま反映してるに過ぎず、それはありのままの真実です
しかしながら、キャリアを考慮しない事務職のみとした場合、日本なら意外と女性の方が有力という結果が出る気がしますけどね
データは過去10年の履歴書だけ
その後の出世や離職をデータに入れてるとは書いてない
つまり、AIに履歴書見せて合否を計算させて
実際の採用不採用と合致するかどうかで採点し
上位の得点を取ったパラメータが生き残る、って学習方法だろ
そりゃ、人間の判断に近いAIが出来上がるに決まってるわ
それを都合が悪いから嘘にしたいと思う人間という生物が欠陥品なだけ
桜田ぐらいじゃね?
ホーキング博士はそれを危惧していたな
AIが自己を持つと愚かな人類は粛清されるって


管理人コメ
少子化の原因、Fラン大学のせいだった
歴史上最も世界統一に近いとこまでいった人物ランキング1位って
勇者「勇者パーティーの独立を決心した」
【朗報】波瑠さん、可愛すぎるwwwww(※画像あり)
なんJ、恵方巻対策本部
お前らが人生で後悔していること上げていけ
スポンサーリンク
ディスカッション
コメント一覧
まだ、コメントがありません