谷歌前华裔员工:亚裔女性根本没机会 |
新闻频道 - 国际传真 |
作者:中国日报 |
2017-09-03 10:47 |
谷歌欢乐表面之下,工作环境其实对于女性及非白人并不友善。 Google作为硅谷高科技产业的巅峰,许多人都梦想能够参与其中,但曾任Google的女性工作者Qichen Zhang表示:“在里面我看不到任何机会。” 根据英国卫报报导,曾任Google的亚裔女性Qichen Zhang指出,其内部工作环境对于性别及非白人工作者并不友善,工作时也时常需要经历漠视、冷澹等态度,并提出曾有过在会议中成为唯一女性的情况,但在场男性却没有让她参与讨论。 “身为一个亚裔女性,想必很轻松地就能够进入Google吧,尤其是他们总认为亚洲人精通数学”Qichen Zhang提到在Google工作时,男同事对她开的"玩笑"。她认为虽然没有明确爆出歧视性的言论或举动,但并不代表他们没有抱持歧视的态度。 Qichen Zhang曾对Google工作充满憧憬,但进入Google之后却只待一年就离职了,而除了Qichen Zhang以外,还有另一名黑人女性透露,Google所提倡的多元化事实上只是一种企业形象。 她表示除了每天需经历冷待及忽视外,她也多次目睹上层以应征者未符合企业文化要求来拒绝聘请,然而却总是挑选出一个能够融入白人圈的应征者。 Google现任环球多元化主席Yolanda Mangolini对此表示公司已尽力改善来提供共融环境。 人工智慧性别歧视 谷歌有解释 透过研究显示,人类研发的机器也能学到人类看世界的观点,无论是否有意。对阅读文本的人工智慧来说,它可能会将“医生”一词与男性优先关联,而非女性,或影像辨识也会更大机率将黑人错误分类为大猩猩。 2015 年,Google Photos 应用误把两名黑人标注为“大猩猩”,当时这错误意味着 Google 的机器学习还处于“路漫漫其修远兮”的状态。Google 立即对此道歉,并表示将调整演算法,以修复该问题。近日,身为错误的责任方,Google 正在尝试让大众了解 AI 如何不经意间永久学到创造它们的人持有的偏见;一方面,这是 Google 对外 PR(公关)的好方式,其次,AI 工程师也可用一种简单的方法来简介自己的偏见演算法。 影片中Google 介绍了 3 种偏见 互动偏差:用户可透过我们与其互动的方式来偏移演算法。例如,Google 召集一些参与者,让他们每人画一只鞋,但多半用户会选择画男鞋,故以这些资料为基础的系统可能不会知道高跟鞋也是鞋子。 潜在偏差:该演算法会将想法和性别、种族、收入等不正确地联系。例如,当用户在 Google Search 搜寻“医生”时,出现的大多为白人男性。 之前 Quarts 发了一则相关新闻,该报导称,经普林斯顿大学最新研究成果,这些偏见,如将医生与男性相关联,将护士与女性关联,都来自演算法被教授的语言影响。正如一些资料科学家所说:没有好的资料,演算法也做不出好决策。 选择偏差:据了解,用于训练演算法的资料量已大大超过全球人口,如果训练影像辨识的资料仅针对白人进行,那么得到的资料也只能来自 AI 有限的认定。 去年 6 月,“青年实验室”(辉达、微软等科技巨擘均是该实验室的合作伙伴和支援者)举办了一次 Beauty.ai 网路选美大赛。比赛透过人工智慧分析,征集了 60 万条纪录。演算法参考皱纹、脸部比例、皮肤疙瘩和瑕疵的数量、种族和预测的年龄等因素。最后结果显示,种族因素比预期发挥更大的作用:在 44 名获奖者中,其中有 36 人为白人。 事实上,关于演算法中含有性别、种族偏见的研究和报导,早已有之。据之前报导,要消除这些偏见,并不容易。
|