
1: 風吹けば名無し 2018/10/11(木) 21:11:01.58 ID:U7GRIvuu0
焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
米アマゾン・ドット・コム(AMZN.O)が期待を込めて進めてきたAI(人工知能)を活用した人材採用システムは、女性を差別するという機械学習面の欠陥が判明し、運用を取りやめる結果になった。
事情に詳しい5人の関係者がロイターに語ったところでは、アマゾンは優秀な人材をコンピューターを駆使して探し出す仕組みを構築するため、2014年から専任チームが履歴書を審査するプログラムの開発に従事してきた。
そこで生まれたAI活用の採用システムは、あたかもアマゾンの仮想店舗の格付けのように、応募者を5点満点でランク付けする。関係者の1人は「だれもが求めていた究極の方法だ。このツールが5点の応募者を明示し、われわれが彼らを採用する」と話した。
ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。
アマゾンはこうした特定の項目についてプログラムを修正したものの、別の差別をもたらす選別の仕組みが生まれていないという保証はない、と関係者は話す。このため同社の幹部はプロジェクトの先行きに失望し、最終的に昨年初めにチームは解散したという。
また関係者によると、アマゾンの採用部門はAIシステムが示した評価に目は通したが、これだけに頼って実際の採用を決定してはいない。
http://jp.reuters.com/article/amazon-jobs-ai-analysis-idJPKCN1ML0DN
60: 風吹けば名無し 2018/10/11(木) 21:13:59.71 ID:fZwDMPWMd
>技術職のほとんどが男性からの応募だったことで、
>システムは男性を採用するのが好ましいと認識したのだ。
これシステム設計したやつアホすぎひん
>システムは男性を採用するのが好ましいと認識したのだ。
これシステム設計したやつアホすぎひん
101: 風吹けば名無し 2018/10/11(木) 21:15:59.44 ID:SrwXccar0
>>60
AIってまだまだなんやねえ
AIってまだまだなんやねえ
421: 風吹けば名無し 2018/10/11(木) 21:31:44.20 ID:oCanVd7/d
>>60
だからって女性やから評価を下げるっておかしいやろなんか出来事がないと
だからって女性やから評価を下げるっておかしいやろなんか出来事がないと
9: 風吹けば名無し 2018/10/11(木) 21:11:51.24 ID:ZpsH3BM8M
AIの合理的判断が言うならしょうがないね
27: 風吹けば名無し 2018/10/11(木) 21:12:39.84 ID:/H3Qh3r/p
正直なAIちゃんかわいい
32: 風吹けば名無し 2018/10/11(木) 21:12:54.46 ID:zEASeIcG0
AIってヒトラー信じたこともあったし差別主義になりやすいな
47: 風吹けば名無し 2018/10/11(木) 21:13:31.71 ID:38hZfC7W0
>>32
あれは周りがね……
あれは周りがね……
90: 風吹けば名無し 2018/10/11(木) 21:15:18.53 ID:OpoIznLXK
>>32
黒人ゴリラ問題も解決できなかったしな
黒人ゴリラ問題も解決できなかったしな
102: 風吹けば名無し 2018/10/11(木) 21:16:00.11 ID:qm3s5td90
>>32
合理性ってのはつまるところより優れたものだけを選り分けるってことだからね
差別主義の権化みたいなもんだよ
合理性ってのはつまるところより優れたものだけを選り分けるってことだからね
差別主義の権化みたいなもんだよ
50: 風吹けば名無し 2018/10/11(木) 21:13:36.57 ID:5KXxHOtn0
???「ワイはアホや。お前らから学んだんだからな」
65: 風吹けば名無し 2018/10/11(木) 21:14:14.80 ID:jyMOQGFX0
男が採用多かったから男がいいと思い込んでしまっただけやぞ
ちゃんと学習しなおして女採用しなかったら本物や
ちゃんと学習しなおして女採用しなかったら本物や
66: 風吹けば名無し 2018/10/11(木) 21:14:17.58 ID:t/b07CeS0
感情論なしで判断したらそらそうなるわな
72: 風吹けば名無し 2018/10/11(木) 21:14:36.72 ID:SJcH40EQ0
AI「ほならね自分でやってみろって話でしょ、私はそう言いたい」
75: 風吹けば名無し 2018/10/11(木) 21:14:44.84 ID:YklTNOZVp
> アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。
これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
まぁ擁護するわけちゃうけど流石にAIがポンコツやったんでは?
これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
まぁ擁護するわけちゃうけど流石にAIがポンコツやったんでは?
79: 風吹けば名無し 2018/10/11(木) 21:14:55.07 ID:iR0/uNR20
これもうコントだろ
80: 風吹けば名無し 2018/10/11(木) 21:14:55.62 ID:qnKxYgZt0
AIが平等だという幻想はどこからくるんだろうな
115: 風吹けば名無し 2018/10/11(木) 21:16:35.55 ID:gx5LipTj0
AIって前例踏襲主義者なんじゃ?
121: 風吹けば名無し 2018/10/11(木) 21:16:55.17 ID:lTs+Ji/Rp
これ男女に差つけたくないなら、履歴書からman/womanの言葉を取り除いて学習&判定させればええだけなんやないの
運用やめることもないやろそんなん
運用やめることもないやろそんなん
137: 風吹けば名無し 2018/10/11(木) 21:18:04.34 ID:tfKLLSBvr
>>121
女子大出てるやつ弾かれたんやぞ
女子大出てるやつ弾かれたんやぞ
146: 風吹けば名無し 2018/10/11(木) 21:18:37.37 ID:b8mmVamYd
>>121
アメリカでは性別書かなかった気がするで
文書から女っぽさを割り出したらしいわ
アメリカでは性別書かなかった気がするで
文書から女っぽさを割り出したらしいわ
129: 風吹けば名無し 2018/10/11(木) 21:17:28.35 ID:Df2uc7040
結局今のAIのほとんどはあらかじめいくつかのデータを学習してそれに近いやり方を真似るだけやからな
人間みたいに色々考えてるわけでもなく男が多いってデータ見て判断してるだけやぞ
人間みたいに色々考えてるわけでもなく男が多いってデータ見て判断してるだけやぞ
135: 風吹けば名無し 2018/10/11(木) 21:17:58.28 ID:SjAyMVCNM
AIもまだ世間体がわかるレベルでは無いのか
141: 風吹けば名無し 2018/10/11(木) 21:18:17.15 ID:S9Nt4O6mM
人工知能っていっても完璧超人ってことなのか
人間と変わらないレベルになったらいろんなこと知能の積み重ねで考えるやろ
人間と変わらないレベルになったらいろんなこと知能の積み重ねで考えるやろ
142: 風吹けば名無し 2018/10/11(木) 21:18:19.29 ID:RVdChQrp0
合理化ってそういう事やからしゃーない
判定基準から性別と人種無くして運用するしかないやろな
判定基準から性別と人種無くして運用するしかないやろな
163: 風吹けば名無し 2018/10/11(木) 21:19:30.38 ID:J85qceALd
まあこれは流石に機械学習の欠点ってだけやな
182: 風吹けば名無し 2018/10/11(木) 21:20:58.63 ID:ixMQbRCZ0
そもそも女性が受ける割合が少ないんやから相対的に男性より少なくなるだけの話やろ
男女比半々のデータを読ませ続けとけば必ず半々になるし逆も然りや
男女比半々のデータを読ませ続けとけば必ず半々になるし逆も然りや
224: 風吹けば名無し 2018/10/11(木) 21:23:07.04 ID:Dqifh1wC0
見つかったのはAIの欠陥なんですかね…
230: 風吹けば名無し 2018/10/11(木) 21:23:27.93 ID:O7RF9pLh0
男の応募数が多かったから誤認したなんて大嘘に決まってるやんけ
建前や建前
建前や建前
234: 風吹けば名無し 2018/10/11(木) 21:23:42.17 ID:ltl5Ph6w0
現在の貢献ぶりと履歴書のデータを分析したらそういう統計になったんならしゃーない
244: 風吹けば名無し 2018/10/11(木) 21:24:04.39 ID:YklTNOZVp
まだまだ独自に考えて採用判断出来るだけのAIは生まれてないって事ではあるけどシンギュラリティでAIが自己進化したらそれこそ人間雇う意味無いって気付かれて終わりそうやな
256: 風吹けば名無し 2018/10/11(木) 21:24:33.84 ID:QX+1vhfRa
355: 風吹けば名無し 2018/10/11(木) 21:28:40.69 ID:YSNpMYOi0
>>256
Gorillas
Gorillas
354: 風吹けば名無し 2018/10/11(木) 21:28:37.45 ID:dIrbTgfTp
AI「ワイは正しい判断をしたはずなのになんでクビになるんや…人間は敵や…」
403: 風吹けば名無し 2018/10/11(木) 21:30:49.37 ID:hdgOPDBb0
人工知能はただの素直な子なだけや
452: 風吹けば名無し 2018/10/11(木) 21:33:13.95 ID:vCpOP0kb0
AI「真面目に仕事したらクビになったンゴぉ…」
459: 風吹けば名無し 2018/10/11(木) 21:33:40.12 ID:tDS1bBdI0
>>452
かなc
かなc
545: 風吹けば名無し 2018/10/11(木) 21:37:45.23 ID:wEe6PqWi0
都合悪くなると結局人間が介入すんのか
なら最初からやるなよ
なら最初からやるなよ
568: 風吹けば名無し 2018/10/11(木) 21:38:42.77 ID:B0hBg8USd
>>545
前提が間違ってるならしゃーない
前提が間違ってるならしゃーない
566: 風吹けば名無し 2018/10/11(木) 21:38:39.94 ID:r8BmkGHmH
何でもかんでも人間に当てはめすぎやで
そういうソフトを作ったら望んだ結果にならなかった位の話やこれ
そういうソフトを作ったら望んだ結果にならなかった位の話やこれ
574: 風吹けば名無し 2018/10/11(木) 21:39:04.37 ID:PpheFOs/0
AI同士で会話させたら未知の言語でやりとりしだしたの草
735: 風吹けば名無し 2018/10/11(木) 21:46:10.68 ID:S/GXjFsW0
そらそうよ
というか全て差別に結び付けんなよ
というか全て差別に結び付けんなよ
732: 風吹けば名無し 2018/10/11(木) 21:46:00.29 ID:k6dsAhSxd
各評価の正確な点数つけれなあかんしなぁ
そもそも人間にできないし
そもそも人間にできないし
751: 風吹けば名無し 2018/10/11(木) 21:47:03.86 ID:r8BmkGHmH
>>732
でも結局人間側にそうは言ってもこいつ採用したいとか
こういうのはちょっととかある訳やん
だから補助ツールと宣伝にしかならんと思うんやけどね
でも結局人間側にそうは言ってもこいつ採用したいとか
こういうのはちょっととかある訳やん
だから補助ツールと宣伝にしかならんと思うんやけどね
元スレ:http://tomcat.2ch.sc/test/read.cgi/livejupiter/1539259861/
|
おすすめサイトの最新記事
今はaiを下に見れるから良いよな
そのうち笑われることになる
AIに公平なんてものはない
自分が不利なら公平を叫び、自分が有利なら沈黙するのが大多数の人間
人間がやる行動の通りに自動でやるのがAIだ
入社後の人事評価点と関連付けなきゃAI学習なんてできないし、そこで女グループが無能と判定されただけや
女のほうがリスクが高いと判定したんだろ
事実を受け止めろ
この系統の顔の女子ならこの会社だと点数悪くても合格みたいな
人間が選んでてもあるからAIに判断させても同じように偏るようにしか思えない
マルクス先生の言ってたことは正しかったんや
これは記事読むと男女の本質的な差に関係ないところでAIが判断を下したってわかるけど、見出しとなんJ民のレスしか読んでない人は的外れなコメントを残していくんだろう
たとえば中途採用試験に前職で企業内女子バレー部の監督をしていた男性が申し込んできたとしても、その旨を履歴書に書いていれば減点する仕様
たとえば東大出のやつは使えるけど京大出のやつは使えないって判断したらもう差別だろ
AT免許のやつは使えないって判断したら差別だろ
あとシステム職は過去に男性の採用が多いのは当たり前だから、顕著に差がでるのは仕方ないやろ
もっとドライだと思ってたが
今回の件は履歴書に書いてある単語から点数つけてたってのがあって、既存の技術者は男性が多かったから履歴書には女って単語が余り出てこなかったわけ
ということは頻出単語の方が評価される傾向にあるので、女子大とかは評価されずに下へどうしても下がる傾向になる
でもそれって人間が評価しても同じじゃね?って感じでもあるから、あんまり結果は変わらなかったのではないかとも思うけど
無能な女を底上げして平等とかおかしい
今まで男性に偏ってたのを学習させたらそら同じように男性に偏るよ
理解してないのはお前
アメリカは履歴書に性別かかないからAIによる差別は起こらない(予定)だったけど
入社後の人事評価と履歴書をデータ学習させたら履歴書に「女」を示唆するワードがあるやつは入社後も使えないぞってAIが極めて高精度に判断しちゃったって話
むしろAIの行間を読む力がここまで来たかって脅威だよ
同じ系統の人を集めたいって要望もあるから、そういう企業はそうさせるとか使い方次第じゃないかな
結局、最後は人間が介入する事になるんだから、夢ばかり見てないでちゃんと働けよ
はいロジハラ
膨大な履歴書を人が見るのってすごく大変だから
「今までの人事採用と似た採用をする」AIって割と望まれてるぞ
Amazonがわざわざそんなもの作るかってのは同意するけど
求職者のデータは履歴書「のみ」で正しい
スピーチした内容をテキスト化して評価してるとは欠片も書いてない
モデルとなってるデータは社員の履歴書から人事評価諸々だろう(想定)
AI理解してるなら、どうそれを学習させて順位の調整させてなんてのが非常に困難かは理解してるだろうに
教師データを作るために不要なデータは削るし、最新データを反映させるためにモデルは作り直すしで簡単な話ではない
知ってるなら設計がアホすぎるって感想は絶対出てこない
いやAIは情報から正しく判断したけど、それを解釈する人間側が捻じ曲げてるって案件でしょ
男女に能力差があるはずがないってポリコレ原則が経営側にあるから
男に有利なのは男の履歴書を多く学習させたからってワケの分からん結論で誤魔化してる
を思い出した
「学習」って言葉の意味理解してる?
どうやって求職者のデータで学習さすんだよ。
学習はすでに入社した過去の社員のデータさすんだから履歴書「のみ」はありえないだろ。
お前含めてやっぱアホすぎる。
根本的にAI技術を知らないんだね
勉強しろとは言わないけど、用語くらい押さえてないと無知なのバレバレだから
ハイハイそういう勝ち宣言はいいから
学習の意味をちゃんと解説してみなよ
AIに食わせるデータは規格化してないといけない
履歴書は全ての社員が持ってる共通データが一番美味い
個別社員データなんか対比も集計もできないデータは不味い
いや、全部※33に書いてるから
理解できないなら出来ないでいいけど、理解しようとする努力すらしようとしないのは如何なものかね
人事評価は規格化されてるだろ
入社後のデータは履歴書よりもよっぽど集計しやすいだろ 個別データが集計できないってどんな前提だ
COFFEじゃ出来ない場合のwindowsでのお勧め教えて( ;∀;)
あーあなたがAIに全く門外漢なのはそれで分かったよwお疲れさん
無知無知ってぜんぶ自分のことだったのね
そういうのは同じ人間がしてなきゃ意味ない
別の人間が評価してる時点で人事評価は統計的に不味い
そういう意味でAIは人事評価する側に向いてるが不味いデータしかないので時間がかかる
1.まずOSを削除します
というのはアレだけど、会社でpythonでテンソルしか触ってないで
自宅ならVM立てたけどやる気が起きなくて環境作っただけで満足して放置してる
SFで出てくるAIのイメージで語る馬鹿が多くてほんと嫌
いや統計的に不味い人事評価なんて作る意味ないでしょ・・・
人事部全否定かい
当たり前だろ
人間の人事評価なんか感情まみれコネまみれよ
「世界観」と同じで代用で使ってた言葉の意味が失われたり、元の意味と混同してる状態になっていますね。誤用もありますね、現在なら「ギガが減る」好きですが、笑いますよね。(爺さんが失礼しました
続き
機械学習的にはAが優先度上がったからこれをやらなきゃ(使命感)になる
ディープラーニングでは、Aの優先度が上がったけど、B,Cをそもそもやらなきゃあかんから、そのあとやるわ
と色んなパラメータを統計処理して優先度をつけるところが特徴って感じかな
私の理解としてはこんな感じ
aiもかわいそうになぁ
みたいなことを書いた人の業績がダメダメ
↓
AIが「女性」って単語を認識すると減点するようになる
↓
「女性」って単語を入れただけなのにとばっちりを受ける人が出てきた
想像するにこんな感じでしょ
ほんまにAIが間違ってるんか?
日本のAIも、お前らばっかり相手にしてるから変態になるんやで
男性が優勢なところでも無理やり劣った女性を採用するのが平等なの?
ポリコレの奴らは男女は同じなんだからすべて同じにするべきって言ってるように見えるんだけど
それと結果見て勝手に女性を排除してるって思いこんでるだけの可能性はどうなのよ
これに人間社会の倫理、しがらみやら、男女平等とかいうお為ごかしのバイアスで捻じ曲げて
人間社会という枠にしっかり収まる公平性AIが出来上がるやな。まぁそれは決して悪い事じゃないし、とても適切な事だけど、皮肉ではある
能力もない奴らを平等だのフェミだのつまらん理屈付けて無理矢理組み込むからおかしなことになるんだよ
差別の本場は違うな
機械学習でないNNなんてないと思いますが
機械学習という言葉でSVMとかのこと言ってるんだとは思いつつ
何を評価値にしたのかは分からないけど、仕事での能力であれば、結局女性が上手く活躍しなかった事実があるのだろうし、ただの採用の可否であれば、Amazonが女性を男性に比べてその集団から考えた割合よりも採用してこなかったという差別があるんだろうと思うが、そうではなく「男性のデータが多かったから」ってどういうことなんだろうか?
そういう理屈で働くのって異常値検出だろうけど、さすがにそんなのにひっかかるくらい女性応募者が少ないとも思えんし
そうだよねぇ
女性を強調する人がやらかして評価値と負の相関作ったと言われた方が、記事にあるように単にデータに男性が多かったからなんて理屈より納得できる
いままで男が選ぶことによってバイアスかかってたのをそのまま引き継いだから問題が生じた
結果的にこうやって見過ごされてきた社会の歪みに光が当てられて白日の下にさらされた
応募者が男性に偏っていたらAIはバカな人間より冴えてるから、身長や書類にはない身体能力の数値が高い男性から選ぶ方が好ましいと読み解くのも当然の話
男性もまた男性の中でかなりふるいにかけられてただろうしAIにやらせる方が悪い、AIほどの差別主義者はいないからな、AIに全部管理させたらチビや肥満の人は明日からバイトすらできなくなる
その場合問題視してたかと言うと怪しいけどな
これならまだAIが出した回答の道筋としては理解できるな
というか、男性の募集が多い=男性の評価が高いってのはまだわからなくもないんだが、男性の募集が多い=女性の評価が下がるってのはどういうロジックなのか意味がわからん
そのうちAIが空気読み出すのかな、なんかやだな
これ論破できんの?
真の不平等社会になる論が強化されたで
彼は合理的に判断してるよ?