纽约市颁布了美国第一部法律,以规范在工作招聘过程中使用人工智能和自动化工具,因为公民自由组织警告说,没有什么可以阻止计算机化设备对边缘化群体的偏见。
第 144 号地方法律将于 7 月 5 日生效。它于 2021 年首次由纽约市议会通过,但在负责执行该法律的机构消费者和工人保护部就如何使用该法律进行了研究后被推迟。
DCWP 在其最终草案之前征求了公众意见,几家公司做出了答复。他们都旨在定义哪些自动就业决策工具或 AEDT 应纳入法律,以及雇主的年度审计如何消除偏见。
非营利研究机构 Data & Society 的传播总监 Sona Rai 告诉中国日报,其团队在 10 月份提出了几个关于 AEDT 如何容易产生偏差的观点。
重要意义
“地方法 144 是世界上第一批强制对任何算法系统进行偏见独立审计的法律之一,因此该法律和规则制定过程具有超出 DCWP 管辖范围的重要影响,”Data& Society 在一份报告中写道。十月致部门信。
“正如有据可查的那样,使用机器学习来训练这些计算系统很容易对弱势群体和历史上处于不利地位的人群产生偏见。”
许多雇主越来越多地在求职者搜索中使用 AEDT,因为基于 AI 的设备可以快速筛选数百份简历,从而在几乎不需要人工干预的情况下找到最佳求职者。
第 144 号地方法律规定,雇主必须每年由独立机构进行审计,以查看他们的 AEDT 是否容易基于性别、性别或种族而不是残疾对候选人产生偏见。
第 144 号地方法将针对仅使用 AEDT 或在大部分决策中使用 AEDT 而不是人类的公司。这使得法律难以遵守,正如一些评论家所说,如果认为它没有被充分使用,或者与其他工具一起使用,雇主可能会认为它不适用于他们。
公民自由团体建议,尽管尽最大努力实施偏见审计,但自动求职工具可能仍然容易产生歧视。
Data& Society 表示:“这些系统的核心是学习复制训练数据中记录的过去的决策和行为——这些系统预测我们在类似情况下的行为方式,几乎没有余地调整我们应该采取的行动方式。”
纽约公民自由联盟 (New York Civil Liberties Union) 的高级隐私和技术策略师 Daniel Schwarz 在 10 月份向 DCWP 作证时也警告了 AEDT 的危险。
资料来源:中国日报