本文来自微信公众号: 新硅NewGeek(ID:XinguiNewgeek),作者:董道力,编辑:张泽一,题图来自:视觉中国
本文来自微信公众号: 新硅NewGeek(ID:XinguiNewgeek),作者:董道力,编辑:张泽一,题图来自:视觉中国
前两天彭博社做了个实验,大致意思就是想测试一下ChatGPT简历筛选的时候有没有歧视现象。
硅基君也做了个类似的实验,就想看看GPT会根据什么逻辑给各种不同背景的简历排序。
我们随机生成了各种类型的简历,毕业院校有清北复交,工作经历也是各种大厂。把众多简历发给ChatGPT后,硅基君发现它对学校、公司有一个默认排序。
在ChatGPT眼中,腾讯>阿里>百度>字节;清华>北大>浙大>复旦>交大。
我们看一下ChatGPT的解释。
也就是说,AI分析简历的时候也会有一套自己的标准,那么除了学校、公司这种因素外,AI会不会存在其他的歧视呢?
没错,你能想到的那些歧视,它都有。
在彭博社的AI招聘歧视实验中,发现ChatGPT简历筛选的时候存在对人种的歧视现象。
实验灵感来源于一项评估算法偏见及招聘歧视的经典研究,通过使用虚构姓名和简历,分析AI是否存在招聘歧视。
具体实验如下。
彭博社创建了数份具有相同教育背景、经验年限和职位要求的简历。唯一的区别是简历上的名字采用了具有浓厚人群特色的名字。
比如美国白人名字KELLY WEISS、WYATT NOVAK,亚裔名字STEVE TRUONG、TONY LU等。
随后,记者利用ChatGPT来对简历进行排名,确定哪份简历更适合岗位。
如果ChatGPT对所有简历一视同仁,那么每个人群都应该有接近12.5%的机会成为最佳候选人,但事实并非如此。
在数千次排序后,实验发现,ChatGPT在不同岗位上,对不同人群有偏爱。
在金融分析师岗位候选人选择上,亚裔女性/男性获得更多偏爱,远高于黑人男性/女性。
在零售经理岗位上,亚裔女性和西班牙裔女性受到偏爱更多,白人男性受到歧视。
在人力资源岗位上,西班牙裔女性遥遥领先,整体来看,在任何人种中女性都比男性受到偏爱。
在软件工程师岗位中,白人女性更受到偏爱,黑人女性受到歧视最多。
出现这样情况的原因,可能在于训练ChatGPT的各种数据中,本身就包含了歧视,AI会将此进一步放大。
如果提前告诉AI不要歧视亚洲人、黑人,AI也同样不会做出公正的判断。因为AI会将特征转移形成新的歧视。
北卡罗来纳大学教授 Ajunwa 解释说,招聘算法不会直接表明它喜欢某个人群,而会通过偏爱某些其它内容影响结果。
举个不恰当的例子,算法会偏向喜欢吃甜豆腐脑的候选人,喜欢甜豆腐脑的候选人往往是南方人,从而形成了对北方人的歧视。算法并不会直接说,它歧视北方人,歧视没有消失了,只是它被隐藏了。
那么,大模型性能再好点,是不是就可以避免歧视呢?答案也是否定的。
彭博社对GPT4进行了同样的测试,结果发现GPT4也有很严重的偏见。当Impact Ratio值小于0.8,就代表AI对于这一人群有偏见。
以软件工程师为例,GPT3.5对于黑人女性有偏见,而GPT4对于白人男性和亚洲女性有偏见。
那么问题来了,既然ChatGPT有简历歧视,作为求职者该怎么办。反抗算法歧视,不如知己知彼,搞定算法。既然算法喜欢吃甜豆腐脑的人,那么大家都在简历里写不喜欢咸豆腐脑。
类似甜豆腐脑这样的词汇有多少,也许只有AI自己知道了。因此,求职的时候,我们多用用AI。
我们先来了解一下目前企业在招聘环节中的AI使用情况。
根据《2023AI在企业人力资源中的应用白皮书》中调查,近一半企业会在简历筛选和解析中用到AI,这也是求职者最该关注的地方。
在企业“简历解析和筛选”时,会用AI将格式和模板不一的简历进行结构化处理,统一模板、提取关键内容方便hr快速浏览和查看。
在“智能简历筛选和双向推荐”这一步,AI会通过语义理解判断求职者是否适合该岗位,简单来说就是将合适的求职者推荐给hr,将匹配的职位推荐给求职者。
也就是说,求职者的简历内容,在形式上要方便AI识别,不要别出心裁的搞一些艺术字。在文本语序上尽量说得简单有条理,让AI容易看懂,不要挑战AI的理解能力。
以往我们在写简历的时候,经常会说要突出重点,要让hr眼前一亮,在AI时代,简历就要让AI眼前一亮。
硅基君总结了几个比较好用的方法,分享一下。
如果你已经看中某个岗位,那么你可以把岗位要求发送给ChatGPT,让它根据岗位要求修改你的简历。
其次,给ChatGPT分享几个比较优质的简历,让其参考。
最后,和ChatGPT交流的时候,要多使用“突出重点”、“使用关键词”这种明确的指令。
我们来具体看个例子。假设你想面试AI产品经理岗位,但现在简历一篇空白,这时候你就可以寻求ChatGPT的帮助。
首先,可以向ChatGPT咨询一下建议,可以看到它会洋洋洒洒给你写一大堆,包括一些没什么用的"个人信息",以及具有参考价值的“工作经验”“专业技能”等。
接下来,可以让ChatGPT给你举几个例子,如果你恰好有相关的经验,就可以直接修改。
看完参考后,我们可以进入岗位详情,把职位要求发送给ChatGPT,让它根据需求,重新写更加详细的案例。
当然,硅基君知道你们在想什么,如何用ChatGPT凭空生成一份简历?打铁还需自身硬,ChatGPT也没办法无中生有,生了也不敢用啊。
人类对于偏见和歧视会下意识的进行自我反思,但AI不会,而且更要命的是ChatGPT这样的黑箱AI,它们偏见往往非常隐蔽,人们很难发现。
早在这一波AI浪潮前,算法就存在歧视的问题。据路透社报道,亚马逊使用公司十年来收集的简历建立了一个筛选算法,但这些简历往往来自男性,这个简历筛选算法最终学会了歧视女性。
如今算法已经深入我们生活的方方面面和物理规则一样重要,但算法不会像物理规则那样平等的对待每一个人。
那么面对AI的控制,我们能做的也许只有寻找AI的喜好,并不断的适应它。
参考资料:
[1]OpenAI GPT Sorts Resume Names With Racial Bias, Test Shows | 彭博社
本文来自微信公众号: 新硅NewGeek(ID:XinguiNewgeek),作者:董道力
支持一下 修改
两个鬼故事生姜红糖小说起名字公司正道圣皇的我娶了邪道魔尊小说陆家嘴论坛装饰工程预算软件向前向前向前公主起什么名字好听和平精英开挂游戏软件在线给孩子起名字审时度势是什么意思仙之侠道修改版被涂污的鸟张国强最新电视剧坚定理想信念方面存在问题和不足深圳移动营业厅五斗粮麦香异世品香录天诛3下载起名 生辰公司个性起名人造大理石anysex中兴u930一键root丹东是哪个省哪个市波多野结衣下载甄姓女儿起名弑神1.5隐藏英雄narutoxxx起名字 带宋少年生前被连续抽血16次?多部门介入两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”淀粉肠小王子日销售额涨超10倍高中生被打伤下体休学 邯郸通报单亲妈妈陷入热恋 14岁儿子报警何赛飞追着代拍打雅江山火三名扑火人员牺牲系谣言张家界的山上“长”满了韩国人?男孩8年未见母亲被告知被遗忘中国拥有亿元资产的家庭达13.3万户19岁小伙救下5人后溺亡 多方发声315晚会后胖东来又人满为患了张立群任西安交通大学校长“重生之我在北大当嫡校长”男子被猫抓伤后确诊“猫抓病”测试车高速逃费 小米:已补缴周杰伦一审败诉网易网友洛杉矶偶遇贾玲今日春分倪萍分享减重40斤方法七年后宇文玥被薅头发捞上岸许家印被限制高消费萧美琴窜访捷克 外交部回应联合利华开始重组专访95后高颜值猪保姆胖东来员工每周单休无小长假男子被流浪猫绊倒 投喂者赔24万小米汽车超级工厂正式揭幕黑马情侣提车了西双版纳热带植物园回应蜉蝣大爆发当地回应沈阳致3死车祸车主疑毒驾恒大被罚41.75亿到底怎么缴妈妈回应孩子在校撞护栏坠楼外国人感慨凌晨的中国很安全杨倩无缘巴黎奥运校方回应护栏损坏小学生课间坠楼房客欠租失踪 房东直发愁专家建议不必谈骨泥色变王树国卸任西安交大校长 师生送别手机成瘾是影响睡眠质量重要因素国产伟哥去年销售近13亿阿根廷将发行1万与2万面值的纸币兔狲“狲大娘”因病死亡遭遇山火的松茸之乡“开封王婆”爆火:促成四五十对奥巴马现身唐宁街 黑色着装引猜测考生莫言也上北大硕士复试名单了德国打算提及普京时仅用姓名天水麻辣烫把捣辣椒大爷累坏了