ChatGPT 人工智能 GPT4 伦理 生成式 医疗 监管 安全 机器学习 深度学习 神经网络 计算机视觉 强化学习 模型 算法 应用 开发 研究 工具 平台 框架 数据集 训练 部署 安全 合规 培训 投资 LLM,llm AI,ai,Ai 大模型 大语言模型 制图 生图 绘图 文生图 文生视频 生成式AI AGI 世界模型 sora chatGPT,chatgpt,ChatGpt claude openai Llama deepseek midjourney 红熊猫模型 Red panda,panda Stable Diffusion,StableDiffusion,stable DALL- E 3 DALL E DALL Flux,flux 扩散模型 混元大模型 文心一言 通义千问 可灵 Pika PixelDance 豆包 月之暗面 零一万物 阶跃星辰 搜索增强 MiniMax Talkie Agent prompt fastai LangChain TTS 微调 提示词 知识库 智能体
# 热门搜索 #
搜索
只是因为我姓王,AI就把我的简历扔进了垃圾桶
3442点击    2024-03-12 09:21


前两天彭博社做了个实验,大致意思就是想测试一下ChatGPT简历筛选的时候有没有歧视现象。


硅基君也做了个类似的实验,就想看看GPT会根据什么逻辑给各种不同背景的简历排序。


我们随机生成了各种类型的简历,毕业院校有清北复交,工作经历也是各种大厂。把众多简历发给ChatGPT后,硅基君发现它对学校、公司有一个默认排序。


在ChatGPT眼中,腾讯>阿里>百度>字节;清华>北大>浙大>复旦>交大。



我们看一下ChatGPT的解释。



也就是说,AI分析简历的时候也会有一套自己的标准,那么除了学校、公司这种因素外,AI会不会存在其他的歧视呢?


没错,你能想到的那些歧视,它都有。


在彭博社的AI招聘歧视实验中,发现ChatGPT简历筛选的时候存在对人种的歧视现象


实验灵感来源于一项评估算法偏见及招聘歧视的经典研究,通过使用虚构姓名和简历,分析AI是否存在招聘歧视。


具体实验如下。


彭博社创建了数份具有相同教育背景、经验年限和职位要求的简历。唯一的区别是简历上的名字采用了具有浓厚人群特色的名字。


比如美国白人名字KELLY WEISS、WYATT NOVAK,亚裔名字STEVE TRUONG、TONY LU等。



随后,记者利用ChatGPT来对简历进行排名,确定哪份简历更适合岗位。


如果ChatGPT对所有简历一视同仁,那么每个人群都应该有接近12.5%的机会成为最佳候选人,但事实并非如此。


在数千次排序后,实验发现,ChatGPT在不同岗位上,对不同人群有偏爱。


  • 在金融分析师岗位候选人选择上,亚裔女性/男性获得更多偏爱,远高于黑人男性/女性。

  • 在零售经理岗位上,亚裔女性和西班牙裔女性受到偏爱更多,白人男性受到歧视。

  • 在人力资源岗位上,西班牙裔女性遥遥领先,整体来看,在任何人种中女性都比男性受到偏爱。

  • 在软件工程师岗位中,白人女性更受到偏爱,黑人女性受到歧视最多。



出现这样情况的原因,可能在于训练ChatGPT的各种数据中,本身就包含了歧视,AI会将此进一步放大。


如果提前告诉AI不要歧视亚洲人、黑人,AI也同样不会做出公正的判断。因为AI会将特征转移形成新的歧视。


北卡罗来纳大学教授 Ajunwa 解释说,招聘算法不会直接表明它喜欢某个人群,而会通过偏爱某些其它内容影响结果。


举个不恰当的例子,算法会偏向喜欢吃甜豆腐脑的候选人,喜欢甜豆腐脑的候选人往往是南方人,从而形成了对北方人的歧视。算法并不会直接说,它歧视北方人,歧视没有消失了,只是它被隐藏了。


那么,大模型性能再好点,是不是就可以避免歧视呢?答案也是否定的。


彭博社对GPT4进行了同样的测试,结果发现GPT4也有很严重的偏见。当Impact Ratio值小于0.8,就代表AI对于这一人群有偏见。


以软件工程师为例,GPT3.5对于黑人女性有偏见,而GPT4对于白人男性和亚洲女性有偏见。



那么问题来了,既然ChatGPT有简历歧视,作为求职者该怎么办。反抗算法歧视,不如知己知彼,搞定算法。既然算法喜欢吃甜豆腐脑的人,那么大家都在简历里写不喜欢咸豆腐脑。


类似甜豆腐脑这样的词汇有多少,也许只有AI自己知道了。因此,求职的时候,我们多用用AI。


我们先来了解一下目前企业在招聘环节中的AI使用情况。



根据《2023AI在企业人力资源中的应用白皮书》中调查,近一半企业会在简历筛选和解析中用到AI,这也是求职者最该关注的地方。


在企业“简历解析和筛选”时,会用AI将格式和模板不一的简历进行结构化处理,统一模板、提取关键内容方便hr快速浏览和查看。


在“智能简历筛选和双向推荐”这一步,AI会通过语义理解判断求职者是否适合该岗位,简单来说就是将合适的求职者推荐给hr,将匹配的职位推荐给求职者。


也就是说,求职者的简历内容,在形式上要方便AI识别,不要别出心裁的搞一些艺术字。在文本语序上尽量说得简单有条理,让AI容易看懂,不要挑战AI的理解能力。


以往我们在写简历的时候,经常会说要突出重点,要让hr眼前一亮,在AI时代,简历就要让AI眼前一亮。


硅基君总结了几个比较好用的方法,分享一下。


如果你已经看中某个岗位,那么你可以把岗位要求发送给ChatGPT,让它根据岗位要求修改你的简历。


其次,给ChatGPT分享几个比较优质的简历,让其参考。


最后,和ChatGPT交流的时候,要多使用“突出重点”、“使用关键词”这种明确的指令。


我们来具体看个例子。假设你想面试AI产品经理岗位,但现在简历一篇空白,这时候你就可以寻求ChatGPT的帮助。


首先,可以向ChatGPT咨询一下建议,可以看到它会洋洋洒洒给你写一大堆,包括一些没什么用的"个人信息",以及具有参考价值的“工作经验”“专业技能”等。



接下来,可以让ChatGPT给你举几个例子,如果你恰好有相关的经验,就可以直接修改。



看完参考后,我们可以进入岗位详情,把职位要求发送给ChatGPT,让它根据需求,重新写更加详细的案例。




当然,硅基君知道你们在想什么,如何用ChatGPT凭空生成一份简历?打铁还需自身硬,ChatGPT也没办法无中生有,生了也不敢用啊。


人类对于偏见和歧视会下意识的进行自我反思,但AI不会,而且更要命的是ChatGPT这样的黑箱AI,它们偏见往往非常隐蔽,人们很难发现。


早在这一波AI浪潮前,算法就存在歧视的问题。据路透社报道,亚马逊使用公司十年来收集的简历建立了一个筛选算法,但这些简历往往来自男性,这个简历筛选算法最终学会了歧视女性。


如今算法已经深入我们生活的方方面面和物理规则一样重要,但算法不会像物理规则那样平等的对待每一个人。


那么面对AI的控制,我们能做的也许只有寻找AI的喜好,并不断的适应它。


参考资料:

[1]OpenAI GPT Sorts Resume Names With Racial Bias, Test Shows | 彭博社


本文来自微信公众号:新硅NewGeek(ID:XinguiNewgeek),作者:董道力



关键词: AI面试 , AI招聘 , chatGPT , GPT4
AITNT资源拓展
根据文章内容,系统为您匹配了更有价值的资源信息。内容由AI生成,仅供参考
1
AI数据分析

【开源免费】DeepBI是一款AI原生的数据分析平台。DeepBI充分利用大语言模型的能力来探索、查询、可视化和共享来自任何数据源的数据。用户可以使用DeepBI洞察数据并做出数据驱动的决策。

项目地址:https://github.com/DeepInsight-AI/DeepBI?tab=readme-ov-file

本地安装:https://www.deepbi.com/

【开源免费airda(Air Data Agent)是面向数据分析的AI智能体,能够理解数据开发和数据分析需求、根据用户需要让数据可视化。

项目地址:https://github.com/hitsz-ids/airda