技术大爆炸时代,如何避免 AI 走向失控?

IP归属:重庆

来源/technologyreview

编译/章鱼哥

350多名科技公司高管和科学家签署了一份联合声明,表达了他们对人工智能(AI)潜在危险的担忧和警告,甚至表示人工智能带来的失控不亚于大流行病和核战争。这份声明由非营利组织人工智能安全中心(Center for AI Safety)发布,部分科技界大腕签署了该声明,其中包括来自Open AI、微软和谷歌的领导者,而这些公司正是从生成式人工智能中获益最多的公司。

然而,许多人仍然担心人工智能的危险。耶鲁大学CEO峰会的一项调查发现,42%的与会高管认为,人工智能有可能带来灭顶之灾,在10年内毁灭人类。

AI的失控,指的是AI系统在运行中出现了不可预见的行为或结果,这些结果可能与人类的期望不一致,甚至可能带来负面影响。例如,一个自动驾驶汽车系统出现了故障,导致车辆失控,这将会对驾驶员和其他交通参与者的安全带来严重威胁。又或者,一个AI系统误判了某个人的行为,导致该人受到了不公正的待遇或惩罚,这将会对该人的权益和自由带来严重影响。

目前尚未明确知晓AI将会如何毁灭人类。许多专家推测,它可能是由不良行为者利用其海量数据集制造生物武器或引入新病毒造成的。也可能意味着利用AI侵入关键任务计算机系统或故意发布虚假信息,从而可能在全球范围内引起恐慌。在另一种情况下,变得高度准确的人工智能本身可能会成为一个问题。想象一下一种人工智能算法,它致力于消除一种特定的疾病,以至于摧毁了其路径上的一切。

虽然许多世界末日场景可能永远不会发生,但人工智能确实有能力造成正在讨论的危险。部分问题在于,技术的发展速度超出了任何人的预期。以ChatGPT为例,它是OpenAI推出的一款火热的生成式人工智能解决方案。今年4月,当《今日会计》杂志对它进行注册会计师考试时,它惨败而归,但在短短几周内,它就以优异的成绩通过了考试。

01

为人工智能制定监管法规

随着大大小小的科技公司纷纷加入生成式人工智能潮流,建立起短短几个月前还难以想象的海量数据集,这显然需要监管部门的监督。

2022年10月,白宫科技政策办公室发布了《人工智能权力法案》蓝图,要求在使用或构建人工智能时尊重隐私和公平。蓝图确定了指导设计、使用和部署以保护美国公众的五项原则。这些准则包括:

  • 安全有效的系统:人工智能解决方案应经过全面测试,以评估关切、风险和潜在影响。

  • 算法歧视保护:解决方案应以公平的方式设计,以消除偏见的可能性。

  • 数据隐私:人们应有权决定如何使用自己的数据,并受到保护,以免隐私受到侵犯。

  • 通知和解释:在使用人工智能时,应该有明确的透明度。

  • 人工替代方案、考虑因素和后备方案:你应该能够选择退出与人工智能的互动,转而选择人工替代方案。

  •  
  •  

自蓝图确立、ChatGPT和其他生成式人工智能解决方案发布以来,拜登政府一直定期召开会议,以便更好地了解它并制定监管策略。

2023年6月中旬,欧洲议会起草了自己的人工智能安全使用条例,并正一步步接近通过。“人工智能法案”禁止在公共场所进行实时面部识别,禁止使用操纵技术的评分系统和模型,禁止在生成人工智能系统开发内容时进行全面披露,禁止在被要求时提供数据来源。

02

如何执行法规

虽然建立透明、公平、安全和公正的人工智能的行为准则需要包括哪些内容已经很清楚,但如何执行它却是一个价值百万美元的问题,以下是一些考虑因素。

建立一个标准机构

与美国食品和药物管理局(FDA)为生命科学公司制定的《良好生产规范》(GMP)条例一样,需要制定明确的指导方针,并传达给希望获得 "良好人工智能实践 "称号的公司。这将需要一个类似于美国食品及药物管理局的联邦机构进行监督,负责对任何开发人工智能解决方案的公司进行检查并收集所需文件。

强制执行免责声明

无论生成式人工智能是用于开发内容、营销材料、软件代码还是研究,都应要求有一个高度可见的公开免责声明,表明其中部分或全部内容是机器生成的。

进行独立风险评估

谷歌及其人工智能研究实验室DeepMind建议采取若干措施,确保"高风险人工智能系统”提供有关其解决方案的详细文件。在这些建议中,最重要的是应强制要求独立机构进行风险评估。

确保人工智能可解释

当人工智能做出影响人们生活的决策时,个人应该能够充分了解算法是如何做出决定的。

在云端建立人工智能监管

在公共云中部署人工智能时,不仅需要获得联邦政府的许可,而且联邦政府要派专人密切监控云和云中部署的项目,使邪恶的人工智能无法进入。

让人工智能伦理成为所有数据科学家的必修课

所有软件工程和数据科学专业的学生都必须完成人工智能伦理方面的必修课程,然后才能在该行业工作。可以创建并实施一种人工智能伦理认证。就像《希波克拉底誓言》中医生承诺的 "首先不伤害他人 "一样,数据科学家在构建人工智能解决方案时也必须发誓做到这一点。

03

结论

我们正处于历史技术发展的新周期,生成式人工智能有可能彻底改变社会的方方面面,有好的一面,也可能有坏的一面。然而,与历史上所有其他重大转折点一样,人类需要掌控好AI发展的“方向盘”,在公平、透明和尊重人权的基础上做出相应判断,并确保利用人工智能的潜力去造福人类。

陀螺财经的联系方式

商务合作|投稿:

小黄(微信号 18925291949)

Ning(微信号 13631579042)

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

大章鱼哥专栏: https://www.tuoluo.cn/columns/author417412/

本文网址: https://www.tuoluo.cn/article/detail-10109020.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章