人工智能如何重塑商业规则

IP归属:黑龙江

原文来源 | VentureBeat

原文编译 | 潮外音

过去几周,关于人工智能风险和监管的全球讨论取得了一些重大进展。无论是美国与 Sam Altman 举行的 OpenAI 听证会,还是欧盟宣布修订后的人工智能法案,都出现了一个新的主题,那就是呼吁加强监管。

但令一些人感到惊讶的是,政府、研究人员和人工智能开发人员就监管的必要性达成了共识。在国会作证时,OpenAI 首席执行官 Sam Altman 提议创建一个新的政府机构,为开发大规模人工智能模型颁发许可证。

他就这样一个机构如何监管该行业提出了几项建议,包括“许可和测试要求的结合”,并表示像 OpenAI 这样的公司应该接受独立审计。

然而,尽管人们对这些风险(包括对人们工作和隐私的潜在影响)的看法日益一致,但对于此类法规应该是什么样子或潜在的审计应该关注什么,仍然没有达成共识。在世界经济论坛举办的第一届生成式人工智能峰会上,来自企业、政府和研究机构的人工智能领导人齐聚一堂,就如何应对这些新的道德和监管考虑因素达成一致,出现了两个关键主题:

image.png

首先,我们需要更新对开发和部署人工智能模型的企业的要求。当我们质疑“负责任的创新”的真正含义时,这一点尤其重要。英国一直在引领这场讨论,其政府最近通过安全、透明和公平等五项核心原则为人工智能提供指导。牛津大学最近的一项研究也强调,“像 ChatGPT 这样的法学硕士迫切需要更新我们的责任概念。 ”

推动新职责背后的核心驱动力是理解和审核新一代人工智能模型的难度越来越大。为了考虑这种演变,我们可以在推荐工作候选人的示例中考虑“传统”人工智能与 LLM 人工智能或大型语言模型人工智能。

如果传统人工智能接受的数据训练能够识别出担任更高级别职位的特定种族或性别的员工,那么它可能会通过推荐相同种族或性别的人来担任职位而产生偏见。幸运的是,可以通过检查用于训练这些人工智能模型的数据以及输出建议来捕获或审核这一点。

借助新的法学硕士驱动的人工智能,这种类型的偏见审计变得越来越困难,甚至有时不可能测试偏见和质量。我们不仅不知道“封闭式”法学硕士接受的培训数据是什么,而且对话式推荐可能会引入偏见或更主观的“幻觉”。

例如,如果你要求 ChatGPT 总结一位总统候选人的演讲,谁来判断它是否是有偏见的总结?

因此,对于包含人工智能建议的产品来说,考虑新的责任(例如建议的可追溯性)比以往任何时候都更加重要,以确保建议中使用的模型实际上可以进行偏见审计,而不仅仅是使用法学硕士。

正是这种建议或决策的界限才是新的人力资源人工智能法规的关键。例如,新的纽约市 AEDT 法正在推动对专门涉及就业决策的技术进行偏见审计,例如那些可以自动决定雇用谁的技术。

然而,监管环境正在迅速演变,不仅仅是人工智能如何做出决策,还包括人工智能的构建和使用方式。

image.png

这就引出了第二个关键主题:政府需要为人工智能技术的构建方式以及如何向消费者和员工明确这些标准制定更清晰、更广泛的标准。

在最近的 OpenAI 听证会上,IBM 首席隐私和信任官克里斯蒂娜·蒙哥马利 ( Christina Montgomery)强调,我们需要制定标准来确保消费者在每次与聊天机器人互动时都能了解情况。这种关于人工智能如何开发的透明度以及不良行为者使用开源模型的风险是最近欧盟人工智能法案考虑禁止 LLM API 和开源模型的关键。

在风险与收益之间的权衡变得更加清晰之前,如何控制新模式和新技术的扩散问题还需要进一步辩论。但越来越明显的是,随着人工智能影响的加速,标准和法规的紧迫性以及对风险和机遇的认识也在增加。

image.png

人力资源团队可能最迅速地感受到人工智能的影响,他们被要求应对新的压力,为员工提供提升技能的机会,并为他们的执行团队提供围绕所需新技能调整后的预测和劳动力计划调整他们的业务策略。

在最近举行的两场关于生成式人工智能和未来工作的世界经济论坛峰会上,我与人工智能和人力资源领域的领导者以及政策制定者和学者进行了交谈,达成了一个正在形成的共识:所有企业都需要推动负责任的人工智能采用和意识。世界经济论坛刚刚发布了《未来就业报告》,其中强调,未来五年,预计 23% 的工作岗位将发生变化,创造 6900 万个工作岗位,但淘汰 8300 万个工作岗位。这意味着至少 1400 万人的工作面临风险。

该报告还强调,在 2027 年之前,不仅十分之六的员工需要改变自己的技能来完成工作——他们需要提高技能和重新技能,而且目前只有一半的员工能够获得足够的培训机会。

那么团队应该如何让员工参与人工智能加速的转型呢?通过推动以员工为中心的内部转型,并仔细考虑如何创建一组合规且相互联系的人员和技术体验,使员工能够更好地了解自己的职业生涯并获得自我发展的工具。

新一波的法规正在帮助人们了解如何考虑与人相关的决策中的偏见,例如人才方面的偏见,然而,随着这些技术被工作中和非工作的人们采用,责任比以往任何时候都更大让业务和人力资源领导者了解技术和监管环境,并致力于在其团队和业务中推动负责任的人工智能战略。

声明:潮外音编译作品,内容仅代表作者立场,且不构成任何投资建议,请谨慎对待,如文章/素材有侵权,请联系官方客服处理。

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

潮外音专栏: https://www.tuoluo.cn/columns/author1889768/

本文网址: https://www.tuoluo.cn/article/detail-10108235.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章