🤼黑白体育直播🥀
黑白体育直播眼下,在企业招聘过程中,越来越多求职者在面试中面对的不是人类面试官,而是人工智能(AI)面试官。《2023年中国网络招聘市场发展研究报告》的统计显示,AI视频面试的应用场景已占到31.8%。专业招聘平台大力推动人工智能招聘系统研发和应用的背后,是庞大的市场需求。
第二,公平性问题。AI可能对求职者作出不公正的评价,甚至引发算法歧视。算法歧视主要源于两方面因素:一是招聘者在设计算法时有意植入带有歧视性的参数,刻意排除某些求职群体;二是数据训练或算法设计本身存在科学性缺陷。就业权是一项基本人权,AI招聘关系到求职者能否获得工作,因此招聘算法属于高风险算法。AI招聘系统的设计者、使用者除了不断加强数据训练和改进算法以提升其科学性之外,还负有对招聘算法进行周期性风险评估的法律义务,应通过评估发现并消除歧视性风险。对于遭受不公正对待的求职者,可主张反歧视救济,既有的反歧视法对AI招聘仍然适用。
第一,透明度问题。许多求职者不明白,自己为什么被AI打了低分而出局?这背后反映的是算法黑箱问题。AI对求职者作出评价和决策的依据等算法运行机制应透明可释。招聘者负有对关键算法进行公开的法律义务,以便于求职者理解的方式进行解释。从求职者的角度看,法律已经赋予了其算法解释权,可拿起法律武器积极维护自身权益。
但是,在享受AI招聘带来的科技红利同时,还应当警惕其可能带来的负面效应。面对智能招聘热潮必须作出的冷思考是:在科技上有能力做到的,在法律上是否都允许?AI招聘不是法外之地,必须在法律的轨道上运行,而这一点在技术迅猛发展的背景下常常被忽略。笔者归纳出在现行法律框架下,AI招聘过程中可能存在的法律风险,并尝试探索应对之道。
第三,个人信息与人格尊严保护问题。AI面试中的人脸识别、语音分析、情感识别等技术手段的运用,不可避免地要大量收集求职者的个人信息,其中包括人脸信息、声纹信息等敏感个人信息,这些信息的收集处理受到严格的法律限制。招聘者须依据个人信息保护法的规定履行个人信息处理者的义务。一是对求职者信息的收集必须以明确的招聘目的为限制,不能为其他目的所使用。二是遵循最小化原则,以满足招聘目的为必要限度,尽可能少收集个人信息,对已收集的信息不能永久保存,应在招聘完成后的合理时间销毁。三是应就收集个人信息向求职者履行告知义务并征得其同意。四是履行个人信息保护风险评估义务。五是对收集的信息采取脱敏化、去标识化、匿名化等保密措施。对在AI面试中被收集的个人信息,求职者依法享有查阅、复制以及删除的权利。除了个人信息保护之外,AI招聘还可能涉及人格尊严问题。值得关注的是,根据新近颁布的欧盟《人工智能法案》,分析雇员情绪的人工智能系统因属于不可接受的风险等级而被禁止,这恰恰是很多AI招聘系统宣称的先进技术。我国对此虽尚无明确禁止的立法,但是对于AI招聘可能给人格权带来的挑战应当持谨慎态度。
AI招聘之所以受到青睐,源于它的多种优势。首先是高效,面对成千上万的简历,AI算力比人力的筛选效率高很多。其次是客观,AI摆脱了人的主观偏见,对求职者的评价更加中立。最后是低成本,AI招聘节省了大量的时间、人力和物力成本。在不断发展过程中,AI招聘系统越来越智能,从最初的简历筛选到人岗匹配,再到AI面试,AI在招聘中能完成的任务越来越多,实践中,最新的AI面试系统已经具备了个性化追问功能。
第四,对AI的人力监督问题。在赋予AI招聘功能之后,人类应当扮演什么角色值得反思。由于AI的局限性可能导致的算法失准、歧视等风险,招聘者不能完全袖手旁观,而应做好AI监督者。随着技术的升级,AI在招聘中的角色从最初的辅助性工作逐渐向独立作出自动化决策的方向发展。个人信息保护法第24条规定,如果一项决定是仅通过自动化决策的方式作出的且对于个人权益有重大影响,那么个人有权利拒绝该决定。招聘中的自动化决策影响到劳动者的就业权,显然符合该规定。这意味着,招聘者应当对AI形成的自动化决策作出人工审查。
🥁(撰稿:鹤山)普京警告“冲突质变”后,他俩推迟决定
11-20拓爱博🥎
以《人民的名义》打开中国足球假赌黑
11-21名罗🥏
湖南:88名公职人员被追责问责
11-21子豪丰🥐
台风“摩羯”过后,海南文昌的配电网几乎要重建
11-22学生之选🥑
“几名美国前官员打电话,都来问我普京这句警告什么意思”
11-21嘉创羽🥒
首份国务院政府债务管理报告,有何看点
11-20梦幻女郎🥓
9月14日《新闻联播》 主要内容
11-22旺广聚🥔
在中东部署两个月后,“罗斯福”号启程返回美国
11-21典惠k
王楚钦1比4不敌林诗栋,无缘决赛
11-20百超达l
国乒会师决赛!孙颖莎4比2战胜张本美和
11-21双永🥕