RSSおすすめ記事です

スポンサーリンク

【機械は正直】AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

ニュースAI

AI3

スポンサーリンク

1: 名無しのシステムエンジニアさん 2019/02/21(木) 06:26:15.81 ID:fpLqAPn29

◆ AIは中立ではなく「女性嫌い」 検証結果で見えてきた負の側面

人工知能(AI)による採用審査など、日本でもAI社会の広がりを身近に感じるようになった。
だが、AIには「女性嫌い」という厄介な偏見があり、「ヘイト」を増幅させる危険性もある。
朝日新聞IT専門記者の平和博氏がAIの実態をレポートする。

IT5社の人工知能(AI)が男性を女性に間違える割合はコンマ以下。
一方、女性を男性に間違える割合は最大で2割近い──。
マサチューセッツ工科大学(MIT)メディアラボの研究者、ジョイ・ブォラムウィニ氏らは今年1月28日、ハワイ・ホノルルで開かれていた米国人工知能学会と米国計算機学会の会議で、AIが人の顔の画像から性別などの特徴を識別する「顔認識」について、IT各社の機能を比較した結果を発表した。
比較したのは、IBM、マイクロソフト、アマゾン、さらに米国のベンチャー「カイロス」と中国のサービス「フェイス++」の5社。
その結果には、共通する傾向があった。

いずれも男性を女性に間違える割合は1%未満なのに、女性を男性に間違える割合は、はるかに高かった。
最大のアマゾンでは19%。5人に1人の割合で女性を男性と判定するということだ。
つまり、いずれも女性に不利な傾向を示していたのだ。

さらにアマゾンでは、別の観点からもAIによる女性の扱いが問題となっていた。
AIを使った人材採用システムをアマゾンが開発しようとしたが、AIが「女性嫌い」で使い物にならず、断念した──ロイターが2018年10月にそう報じている。
アマゾンは14年に専任チームを立ち上げ、AIによって履歴書を審査するためのシステム開発に取り組み始めた。
AIが応募者の履歴書の内容を評価し、5点満点でランク付けする、という仕組みだった。
だが不具合が明らかになる。ソフトウェア開発などの技術職で、女性に対しての評価が低くなるという偏りが生じていたのだ。

原因は、AIが学習したデータにあった。
AIは、あらかじめデータを使って学び、その中からモデルとなる特徴を見つけ出す。
このモデルに基づいて新しいデータの仕分けなどの作業を行う。
だから、学習するデータに問題があれば、AIから出てくる判定結果にも問題が生じる。

●学習データに基づくAI、正確で中立だとは限らない

システム開発に際して担当者たちは、過去10年にわたって同社に提出された履歴書をAIに学習させた。
問題は、その大半が男性からのものだったということだ。そして、採用された技術職も大半が男性だ。

するとどうなるか? AIは男性の方が採用に適した人材と判断し、男性の履歴書の評価を高くするようになってしまう。
その結果、履歴書に「女性チェス部部長」のように「女性」という言葉が入っていると評価を下げていたのだ。
女子大卒業という履歴書で評価を下げられたケースもあったという。

「女性」に関連する言葉での差別が行われないよう、システムに修正を加えたが、そのほかの差別が生じる可能性を否定できず、アマゾンは17年初めに開発を断念。専任チームは解散した。
AIに期待されるのは、正確さや中立性、そして高速で大量のデータ処理をすることだ。
ただ、AIが正確で中立だとは限らない。

社会に差別や偏見があれば、AIもデータを通じて差別や偏見を学ぶ。
しかも単に反復するだけでなく、高速な自動処理によって、それを増幅させてしまう危険性もある。
平成も終わろうといういま、なお「女性嫌い」の価値観が、AIから吐き出されるかもしれないのだ。

アマゾンでは開発を断念したが、AIを使った採用システムは様々な企業で取り入れられ、日本でも導入が始まっている。
ソフトバンクは17年5月から、新卒採用選考のエントリーシート評価に、IBMのAI「ワトソン」を導入した。

「ワトソン」の自然言語処理の機能を使い、エントリーシートの内容を判定。
合格基準を満たした項目は選考通過とし、その他の項目は人間の人事担当者が確認して最終判断を行う。
「応募者をより客観的に、また適正に評価する」としている。
「ワトソン」は11年、米国の人気クイズ番組で人間のクイズ王者2人に圧勝したことで知られる。
導入することで、書類評価にかかる時間を75%削減し、面接にあてるという。

※続きは下記のソースでご覧ください

AERA 2019.2.20 17:00
https://dot.asahi.com/aera/2019021900059.html?page=1

10: 名無しのシステムエンジニアさん 2019/02/21(木) 06:32:07.31 ID:Hf/DzWkX0
>>1
なにこの先に結論ありきの強引な論理展開は?
AIが正しい判断をしたという最も素直な可能性をなぜ考えようとしないんですかね

 

246: 名無しのシステムエンジニアさん 2019/02/21(木) 09:00:27.78 ID:jVDT27Y70
>>10
それは、政治的に許されていないからだな。

 

252: 名無しのシステムエンジニアさん 2019/02/21(木) 09:02:32.95 ID:oh0LjAwR0
>>246
AIとかけ離れた結果を施行する事が多ければ多いほど感情的だとしたなら、政治ほど感情的なものは無いということですね

 

257: 名無しのシステムエンジニアさん 2019/02/21(木) 09:10:22.01 ID:D+HBdjy50
>>252
というか、政治的に許されないとか共産主義国家かよw

 

487: 名無しのシステムエンジニアさん 2019/02/21(木) 11:39:06.58 ID:jXMbOi3s0

>>10
神の意志に反するからだよ。
今の欧米は「平等」という神を信仰していて
平等神の教えに反することは、絶対に事実であってはならないのさw

その平等神の教えというのは実際は
一部のリベラル連中(=聖職者)が勝手に決めたことに過ぎないのだがね。

 

492: 名無しのシステムエンジニアさん 2019/02/21(木) 11:43:24.28 ID:qWpoUkpf0
>>1
AI「だって女って本当のことを指摘すると怒るんだもん」

 

632: 名無しのシステムエンジニアさん 2019/02/21(木) 15:28:27.60 ID:juzK1yWA0

>>629
全文まで読まずとも、記事の転載された部分だけでも読んでればわかると思うが
経歴の各所にある「女」という言葉に反応して評価落としてたんだよ

AIはどれが能力に関係して、どれが関係しないかを判断できないって問題があるってこと
それこそ、東京の企業で東京出身が多く採用されてたから
東京以外が出身の人は採用しないとか
トンデモAIが誕生しかねない

 

7: 名無しのシステムエンジニアさん 2019/02/21(木) 06:29:16.29 ID:iGohmwDU0
もはや都合の悪いことは修正ばかりでAIである必要がなくなってる

 

116: 名無しのシステムエンジニアさん 2019/02/21(木) 08:02:39.95 ID:MVNKFmeF0
>>7
だね。本末転倒もいいとこ

 

416: 名無しのシステムエンジニアさん 2019/02/21(木) 10:10:50.42 ID:r2aQk5M00
>>7
これなw

 

8: 名無しのシステムエンジニアさん 2019/02/21(木) 06:29:48.07 ID:HlI4IpyB0
AIがここまで正しい判断ができるとはな

 

9: 名無しのシステムエンジニアさん 2019/02/21(木) 06:30:43.78 ID:XebPeHu90
そりゃ学習データにバイアスが入ってるなら結果にバイアスも入るってものすごく当たり前の話やん
バイアスをいかに排除するかがAIの力の見せ所なのに

 

26: 名無しのシステムエンジニアさん 2019/02/21(木) 06:44:10.86 ID:fFoiPh8s0
>>9
…だな
AIに機械学習させる過去の採用データそのものを再現しているに過ぎない。

 

130: 名無しのシステムエンジニアさん 2019/02/21(木) 08:14:27.03 ID:ysYDbv6Q0
>>26
本当の意味でのAIなんて
世の中を大量にシミュレートした上で判断する囲碁将棋タイプでない限り
単なる早く結果を出す計算機でしかないよな

 

134: 名無しのシステムエンジニアさん 2019/02/21(木) 08:16:12.81 ID:4ey6pMJW0
>>130
目的はまさにそれだもんな
ほんと、AIに何を求めてるのやら

 

403: 名無しのシステムエンジニアさん 2019/02/21(木) 10:04:55.71 ID:gFs57Ar10
>>9
AIの基本学習データなんて単純なものだろうさ
言わばテスト段階にあるんだから。事細かに設定するよりはAI独自の進化経過データがほしいからね
そうなると打ち込まれるデータはモラル的な物もあるだろ
人を殺してはいけません。友を愛しなさい、よく学びよく働きなさい。幼稚園児に教えるレベルの内容
そんなデータから導きだされた答えは「まん様は人としてどうなの?」ってことだろ

 

459: 名無しのシステムエンジニアさん 2019/02/21(木) 11:01:36.75 ID:BFRVpXnp0
>>9
バイアスではなく、過去の結果だろ
単純に勤続年数を考えても短ければマイナス評価にならざるえない
当然女性には不利になる
だけど、それは会社にとってだからいいのでは?
社会にとっては男女どちらも必要なんだから
一部の比較で語るのはアホだよ
結果は結果で女性が低かった(会社)でいい

 

11: 名無しのシステムエンジニアさん 2019/02/21(木) 06:32:22.85 ID:HNK/va+K0
女性であることが有利な職場や女性の方が有意に採用が多いならば女性有利になるだけでしょ?
学習するデータの偏りがそのまま出てるだけだろ結局のところ

 

13: 名無しのシステムエンジニアさん 2019/02/21(木) 06:34:01.64 ID:oh0LjAwR0
困ったことに統計は嘘をつかない
女性に有利な条件で再度AIに仕分けさせても、少なくとも資本主義社会において男性優位の結果に落ち着くと思われます
なぜなら女性自身が職場の女性を疎ましく思うケースが多いので

 

552: 名無しのシステムエンジニアさん 2019/02/21(木) 12:47:38.49 ID:dZiPC8Jr0
>>13
でも統計を公表する人が嘘をつく世の中

 

14: 名無しのシステムエンジニアさん 2019/02/21(木) 06:35:47.58 ID:b6qI30BO0
つーかAIが思ったより優秀w

 

17: 名無しのシステムエンジニアさん 2019/02/21(木) 06:36:54.66 ID:9IBx0TZ90
AIがラーニングのサンプルから「性差」を冷静に判断した結果ってだけなんだろうな
こういう場合には男性ならこうなるが女性だとこうなる、という状況を数値化した時に
差が出てきたのを
納得できない人が「AIの女性嫌い」とか言ってるだけで
多分、AIの通りに選ばれた人材とそうじゃない人材では企業にとってそれなりの結果になりそうな気がする
使い物にならないのはどちらですか?って話になりそうなニュースだな

 

23: 名無しのシステムエンジニアさん 2019/02/21(木) 06:40:29.22 ID:oh0LjAwR0
>>17
肉体労働を除けば別に女性の能力は男性に比べて低くない
ただ、性質の問題なんでしょうね
限りなく合理性を求めようとした結果、現代社会の働き方には男性の性質のが合致してるってだけでしょう

 

41: 名無しのシステムエンジニアさん 2019/02/21(木) 06:53:23.70 ID:P4HFCDel0
>>23
それを能力が低い、という実に言いやすい表現にしてしまっているのが現状なんでしょうかね

 

44: 名無しのシステムエンジニアさん 2019/02/21(木) 06:58:59.18 ID:oh0LjAwR0
>>41
その可能性は職種によってはあるのですが、特定職種に絞って統計を出すのはもってのほかなので、職種別にも分けて統計をちゃんと出した可能性のが高いです
それでどの業種でもどうにもならない結果になったために、こういった差別論の記事に誤魔化したのかと

 

43: 名無しのシステムエンジニアさん 2019/02/21(木) 06:57:14.83 ID:TEW8LvsO0
>>23
人間の集中力は大きく体力に依存してるっていう研究もあるからな
男女の体力差が自明なら
デスクワークの集中力も体力差によって開くというな
知的能力が同じなら労働時間が長い方が生産性は上がるだろうし

 

48: 名無しのシステムエンジニアさん 2019/02/21(木) 07:02:07.44 ID:oh0LjAwR0
>>43
そういう事なのでしょうね
そもそも性質が違うものを同じ土俵で戦わせること自体が間違いなのかと
ポケモンと妖怪ウォッチは似て非なるものです
これを機に差別という言葉そのものの捉え方を変える人が増えることを望みます

 

30: 名無しのシステムエンジニアさん 2019/02/21(木) 06:46:29.10 ID:VnpKO52p0
単純に労働力と考えた場合、男性の方が適した職が多いからでは。
AIが平等な視点で評価した結果だと思う。

 

40: 名無しのシステムエンジニアさん 2019/02/21(木) 06:52:32.77 ID:oh0LjAwR0
>>30
別にAIにデータ仕分けさせなくても明らかな事ではありますね
しかしこういったデータ仕分けは人間では発見できなかった項目同士の意外な共通点が見つかる事が醍醐味なのですが、
推測するにどの企業が行った調査でも女性労働者にとって絶望的な結果を生み出しすぎたのかもしれません

 

38: 名無しのシステムエンジニアさん 2019/02/21(木) 06:51:21.43 ID:TEW8LvsO0

男女の賃金格差の原因を調べたアメリカの研究で
実は男女の賃金格差は差別じゃなくて
嫌な仕事や残業を男の方が快く引き受ける場合が多いから
男性の賃金が高くなると分かったものがあるんだよな

合理的に正しい理由のある偏見というのも世の中にはある

 

53: 名無しのシステムエンジニアさん 2019/02/21(木) 07:04:39.05 ID:3K3n+53B0
データから性別を外して、履歴書にも性別を書かせなければいいんじゃないか。

 

54: 名無しのシステムエンジニアさん 2019/02/21(木) 07:05:43.34 ID:6E9CgOVk0
>>53
たぶんそれをやると本末転倒なことになる

 

56: 名無しのシステムエンジニアさん 2019/02/21(木) 07:07:43.52 ID:oh0LjAwR0
>>53
多分トドメを刺すことになるかと

 

399: 名無しのシステムエンジニアさん 2019/02/21(木) 10:03:07.61 ID:hDf6xzW70
>>53
性別を書かないにも拘らず女性を弾く傾向が見られた、
とかなったらまた盛り上がるな

 

419: 名無しのシステムエンジニアさん 2019/02/21(木) 10:13:02.08 ID:yYnK21te0
>>399
いや、実際以前の記事だと、アマゾンのやつは性別欄なかったと思う。
ただ、女子校とかガールスカウトとか、得られる情報はあったので、それらのキーワードがネガティブパラメータになったって話だったと思う。

 

73: 名無しのシステムエンジニアさん 2019/02/21(木) 07:23:50.47 ID:wv6jfvy20

途中で退社してしまう率は男の倍
管理職になる率は男の半分以下…
っていうデータを読ませれば、そりゃ
「女は男よりもレベルが低い」って学習しちゃうでしょう…

「今後は過去のような恣意的な人事評価が起こらないように」ってAIを導入してるのに
その判定の元になるのが過去の恣意的な評価じゃ、同じ事にしかならんよね

 

80: 名無しのシステムエンジニアさん 2019/02/21(木) 07:30:58.85 ID:4mDcX5Gb0
>>73
管理職のキャリアが少ないのはともかく
離職率が高いというデータがあるなら
考慮されるべき要素のひとつじゃないのか

 

83: 名無しのシステムエンジニアさん 2019/02/21(木) 07:33:12.79 ID:oh0LjAwR0
>>73
なら一体何のデータを読み込ませればいいんでしょう?
AIはしっかり女性がいる事での職場での士気の上昇などの結果も踏まえているはずです
データ無しでの「女は職場にいらない」という言葉は単なる妄言です
しかし、その妄言を裏付けるデータが今回の結果です
今回の記事では複数社で同じような傾向が出たとされてますし、その中には女性が多い部門も存在していたはずです
しかし、その結果はこうなってしまった

 

110: 名無しのシステムエンジニアさん 2019/02/21(木) 07:57:26.37 ID:uOD6jasXO

>>83
日本では知られてないが、既にアメリカではキャリア職に女性を増やすことが不可能だと結論付けられている。
なぜなら、大半の女性自身がそれを拒絶するから。もちろん例外はあるが裾野が狭ければキャリアに登用出来る女性も減る。

だからこの結果は事務職、ブルーワーカーの調査かも知れない。
そこでの偏見は確かにあるかもね。キャリアは男性だから。

しかし一つ言うとAERAの記事はそこを解ってて誤認させようとしてるかも知れない。

 

120: 名無しのシステムエンジニアさん 2019/02/21(木) 08:07:48.79 ID:oh0LjAwR0

>>110
望まぬ結果をミスリードして誤魔化す事はマスコミ業界では良くあるようですが、この記事それよりも女性への慰めのような感覚を植え付けられます
そもそもの事仰ってる通り女性のキャリアは少なくそれが現代社会の事実であり、AIはそれをそのまま反映してるに過ぎず、それはありのままの真実です

しかしながら、キャリアを考慮しない事務職のみとした場合、日本なら意外と女性の方が有力という結果が出る気がしますけどね

 

86: 名無しのシステムエンジニアさん 2019/02/21(木) 07:38:39.63 ID:hptjTQ3KO

データは過去10年の履歴書だけ
その後の出世や離職をデータに入れてるとは書いてない

つまり、AIに履歴書見せて合否を計算させて
実際の採用不採用と合致するかどうかで採点し
上位の得点を取ったパラメータが生き残る、って学習方法だろ

そりゃ、人間の判断に近いAIが出来上がるに決まってるわ

 

121: 名無しのシステムエンジニアさん 2019/02/21(木) 08:08:09.39 ID:sxJYYafC0
AIは単にデータに基づく傾向データを出しただけ
それを都合が悪いから嘘にしたいと思う人間という生物が欠陥品なだけ

 

135: 名無しのシステムエンジニアさん 2019/02/21(木) 08:16:17.39 ID:lZgOvGqv0
今時これを驚く人間がいるのか?
桜田ぐらいじゃね?

 

138: 名無しのシステムエンジニアさん 2019/02/21(木) 08:18:14.77 ID:IrqbqO600
AIに人間の愚かさを学習させると人間が不要な存在だと判断されるな

 

149: 名無しのシステムエンジニアさん 2019/02/21(木) 08:20:28.28 ID:sxJYYafC0
>>138
ホーキング博士はそれを危惧していたな
AIが自己を持つと愚かな人類は粛清されるって
 
 
Left Caption

管理人コメ

「正確」と「中立」は別ですから

Posted by flac