警惕“AI招聘”背后的就业歧视
作者:侦探调查
时间:2023-09-13 11:12
在涉及机会公平、权益保障等领域,不能让效率成为放大不平等的工具。
“你的简历可能根本过不了人工智能(AI)这一关。”
据《工人日报》报道,利用算法进行“AI招聘”已成为职场中的一大新热点,如何规避AI算法可能带来的歧视问题成为保障就业公平面临的一个新问题。近日,上海市政协在一场重点提案督办专题调研暨办理推进会上,就针对这一问题进行了重点讨论,旨在通过加强监管、强化技术手段等,更好维护劳动者权益。
当下,大数据、大模型等AI算法,正不断进入各场景进行探索应用,互联网招聘平台也是其中之一。而利用AI技术进行简历筛选和人力资源开发,也被视为当前招聘领域的发展趋势。
在劳动力就业市场加深依赖“AI”做决策的背景下,潜伏在AI算法背后的就业歧视等问题不容忽视。提前针对劳动者权益保护等关键议题公开讨论,是公共政策应对技术挑战的应有之策。
从技术特征上看,AI短期内无法代替自主决策,更多是以效率提升工具的方式在各行业发挥作用。但随着AI不断突破封闭场景,进入人与社会互动的多个领域,相关的伦理、权益保护等复杂问题,也成了技术发展的潜在风险。
以就业歧视来看,AI算法本身不具备歧视的动机与能力,但在本身就存在潜在就业歧视的环境之中,AI可能会成为部分偏见的放大器。AI提升效率的本质逻辑,是结合数据积累和运算能力,给予使用者以最符合其期待的答案。
那么,倘若一个原本就带有性别、地域、年龄等偏见的企业招聘者,再利用这一算法系统进行简历筛选,那么客观上就在流程中创造了一个“歧视信息茧房”:能被算法检索和推送的,都是经过偏见过滤后的简历。
在这样的情境之中,AI首先成了放大偏见的工具,效率提升的同时,也提高了“就业歧视”的范围与伤害。其次,AI帮助部分招聘者进行了“道德回避”,即原本应承担伦理道德风险的个体,可以在这一过程中将全部的偏见歧视问题,归结为“算法的错”。
这就使得原本就相对隐形的“歧视”问题变得更加隐形。在共同的监管和社会舆论压力下,可能不会有任何一个AI工具公开将涉嫌歧视的标签作为“过滤选项”,但算法推荐“讨好使用者”的技术特征,却使得这一过程在实践中难以完全避免。
换言之,一个有严重就业歧视的招聘者,可能会训练出一个“更懂我的偏见和喜好”的算法模型。
事实上,不只是在就业招聘领域,在多数处理“人的问题”的领域中,都可能存在类似问题。而旨在提升效率的科技进步,不能以颠覆、挑战人类社会赖以生存的伦理底线为代价,尤其在涉及机会公平、权益保障等领域,更不能让效率成为放大不平等的工具。
引入外部监督,同时用技术手段解决潜在问题,是解决技术进步与引发社会问题之间矛盾的两个主要手段。
在上述的调研推进会上,与会者也提出了让劳动者参与算法治理、避免算法滥用等社会化监管的建议。引入外部的充分监督,尤其是让相关利益主体参与其中,推动算法的公开透明,是值得效仿与鼓励的做法。
而从根本上看,可以进一步讨论,在相关的算法规则中纳入对公平等价值观的红线规则。比如,在与使用者互动中,对疑似歧视的使用行为本身进行定义、监测和限制,甚至可以设置算法推荐的底线机制。
再比如,在推荐规则之中,必须实现性别、学历等比例,最大程度确保每一个求职者都有同等被看见的机会。
防止技术对弱势群体造成冲击,既要未雨绸缪,又需在探索中反复测试技术手段的最优解,这是摆在各行各业面前的新挑战。
唯有小心构筑起公共政策的防火墙,让AI既是社会生产力解放与提升的工具,同时也能成为维护社会公平正义底线的帮手,这才是科技进步的长期价值与方向所在。