LOADING...
LOADING...
LOADING...
当前位置: 玩币族首页 > 新闻观点 > Web2.0 概念提出者 Tim O'Reilly:为什么 AI 法规应从强制披露开始

Web2.0 概念提出者 Tim O'Reilly:为什么 AI 法规应从强制披露开始

2023-06-17 Yangz 来源:区块链网络

撰文:Tim O’Reilly

图片来源:由无界 AI工具生成

你无法监管你不了解的东西。

2022 年 11 月 30 日,世界发生了变化,就像 1908 年 8 月 12 日第一辆 T 型车离开福特装配线时一样。那是 OpenAI 发布 ChatGPT 的日子,也是人工智能从研究实验室进入毫无戒心的世界的一天。两个月内,ChatGPT 拥有了超过一亿的用户,比历史上任何技术的采用都要快。

争论随即暴发。最值得注意的是,生命未来研究所(The Future of Life Institute)发表了一封公开信,呼吁立即暂停先进的人工智能研究,并问道:“我们应该让机器用宣传和谎言充斥我们的信息渠道吗?我们应该把所有的工作都自动化吗,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过我们,胜过我们的智慧,淘汰和取代我们?我们是否应该冒着失去对我们文明的控制的风险?”

作为回应,人工智能促进会(Association for the Advancement of Artificial Intelligence)发布了自己的信函,列举了 AI 已经在我们的生活中产生的许多积极变化,并指出了现有的改善人工智能安全和了解其影响的努力。事实上,目前关于人工智能监管的重要会议正在进行,如 Partnership on AI 上周召开的负责任的生成式 AI 会议。此外,英国已经宣布打算对人工智能进行监管,尽管是以一种轻度的、“支持创新”的方式。在美国,参议院少数党领袖 Charles Schumer 已宣布计划为人工智能引入“一个概述新监管制度的框架”。而欧盟肯定也会跟进,在最坏的情况下,导致法规相互冲突。

所有这些努力都反映了一个普遍共识,即法规应解决数据隐私和所有权、偏见和公平、透明度、问责制和标准等问题。OpenAI 自己的 AI 安全和责任指南引用了相同的目标,但还提出了许多人认为最核心、最普遍的问题:我们如何使基于 AI 的决策与人类价值观保持一致?他们写道:

“人工智能系统正在成为日常生活的一部分。关键是要确保这些机器与人类的意图和价值观保持一致”。

但应该与谁的价值观保持一致?是大多数人工智能评论家所向往的仁慈的理想主义者的价值观?那些注定要把股东价值置于客户、供应商和整个社会之上的上市公司的价值?那些一心想要伤害他人的罪犯或无赖国家?那些像阿拉丁一样,向一个全能的人工智能精灵表达了一个未经深思熟虑的愿望的善意人士?

解决一致性问题没有简单的方法。但是,如果没有强大的披露和审计机构,就不可能实现一致。如果我们想要亲社会的结果,我们需要设计和报告明确以这些结果为目标的衡量标准,并衡量其实现程度。这是关键的第一步,我们应该立即行动起来。这些系统在很大程度上仍由人类控制。至少在现在,它们按照要求运作,当结果不符合预期时,它们的训练会很快得到改善。我们需要知道的是它们被告知的内容。

此外,应该披露什么?对公司和监管机构来说,在监管公司的规则中有一个重要的教训——科幻作家 Charlie Stross 将其称为“慢人工智能”(slow AIs)。我们让公司负起责任的一种方式是要求他们按照公认会计原则(GAAP)或国际财务报告准则(IFRS)分享财务结果。如果每家公司都有不同的财务报告方式,就不可能对其进行监管。

今天,已有几十个组织发布了人工智能原则,但它们提供的详细指导很少。这些原则都说着“维护用户隐私”和“避免不公平的偏见”,但并没有确切说明公司在什么情况下可以从监控摄像头中收集面部图像,以及如果因肤色而出现准确性差异,该怎么办。今天,当披露发生时,它们是随意且不一致的,有时出现在研究论文中,有时出现在收益电话中,有时来自举报人。几乎不可能将现在所做的事情与过去所做的事情或未来可能做的事情进行比较。公司以用户隐私问题、商业秘密、系统的复杂性以及其他各种理由来限制披露。相反,他们只提供关于他们对安全和负责任的人工智能承诺的一般性保证。这是不可接受的。

想象一下,如果指导财务报告的标准只是说公司必须准确地反映其真实的财务状况,而没有详细说明报告必须包括什么,以及“真实的财务状况”等同于什么,会发生什么。相反,当独立的标准机构,如创建和监督 GAAP 的财务会计标准委员会,对这些事情做了极其详细的规定,又会如何。证券交易委员会等监管机构将随后要求上市公司根据 GAAP 提交报告,并聘请审计公司审查和证明这些报告的准确性。

人工智能安全也应如此。我们需要的是一个相当于 GAAP 的东西,用于人工智能和更普遍的算法系统。或许,我们可以把它称为“公认的人工智能原则”。我们需要一个独立的标准机构来监督这些标准,需要相当于美国证券交易委员会和欧洲证券交易所的监管机构来执行这些标准,此外还需要一个由审计师组成的生态系统,以确保公司及其产品做出准确的信息披露。

但是,如果我们要为人工智能创建公认会计原则,就应该从公认会计原则本身的演变中吸取教训。我们今天认为理所当然并用于追究公司责任的会计系统,最初是由中世纪的商人开发出来供自己使用的。它们不是从外部强加的,而是被采用的,因为它们允许商人跟踪和管理自己的贸易企业。出于同样的原因,它们今天也被企业普遍使用。

那么,有什么比开发和部署高级人工智能系统的公司使用的管理和控制框架更好的起点来制定人工智能法规呢?

生成式 AI 系统和大型语言模型的创建者已经拥有用于监控、修改和优化它们的工具。RLHF(“从人类反馈中强化学习”)等技术用于训练模型以避免偏见、仇恨言论和其他形式的不良行为。这些公司正在收集有关人们如何使用这些系统的大量数据。他们正在对这些系统进行压力和“红队”测试,以发现漏洞,也在对输出结果进行后处理,建立安全层,并开始加强他们的系统,以防止“对抗性提示”和其他试图颠覆他们所实施的控制的企图。但是,这种压力测试、后处理和巩固究竟是如何运作的 -- 或者说有没有起到作用 -- 对监管者来说大多是不可见的。

监管机构应首先正式化并要求详细披露开发和运营高级人工智能系统的人员已经使用的测量和控制方法。

在缺乏那些实际创建和管理高级人工智能系统的操作细节的情况下,我们面临的风险是,监管机构和倡导团体会像大型语言模型那样产生“幻觉”,并用看似合理但不切实际的想法来填补他们的知识空白。

创造先进人工智能的公司应该共同制定一套全面的运营指标,可以定期和一致地向监管机构和公众报告,以及在出现新的最佳实践时更新这些指标的流程。

我们需要的是一个持续的过程,通过这个过程,人工智能模型的创造者全面、定期和一致地披露他们自己用来管理和改进服务并禁止滥用的指标。然后,随着最佳实践的发展,我们需要监管机构将其正式化并加以要求,就像会计法规将公司已经用于管理、控制和改善其财务的工具正式化一样。披露数据并不总是舒服的,但事实证明,强制披露是确保公司真正遵循最佳实践的有力工具。

开发高级 AI 的公司披露他们控制 AI 的方法和他们用来衡量成功的指标,并与同行合作制定此类披露的标准,符合他们的利益。就像公司所需的定期财务报告一样,这种报告必须是定期和一致的。但与通常只针对上市公司的财务披露不同,我们可能需要 AI 披露要求也适用于规模小得多的公司。

披露的内容不应局限于金融领域所要求的季度和年度报告。例如,人工智能安全研究员 Heather Frase 认为,“应该建立一个公共分类账,以报告大型语言模型产生的事件,类似于网络安全或消费者欺诈报告系统。”此外,还应该有动态的信息共享,如在反垃圾邮件系统中发现的那样。

由外部实验室进行测试以确认是否符合最佳实践以及未达到最佳实践时应该怎么做也可能是值得的。产品测试的一个有趣的历史相似之处可以在外部非营利审计机构 Underwriter's Laboratory 对消防安全和电气设备的认证中找到。UL 认证不是必需的,但它被广泛采用,因为它增加了消费者的信任度。

这并不是说对于这些系统现有管理框架之外的尖端人工智能技术可能没有监管要求。有些系统和用例比其他系统风险更大。国家安全考虑就是一个很好的例子。特别是对于可以在笔记本电脑上运行的小型 LLM,存在着不可逆转和不可控的技术扩散风险,而我们对这些技术知之甚少。这就是 Jeff Bezos 所说的“单向门”,一个一旦做出就很难撤销的决定。单向决定需要更深入的考虑,并可能需要来自外部的监管,而这种监管要领先于现有的行业惯例。

此外,正如斯坦福大学人类中心人工智能研究所的 Peter Norvig 在审查这篇文章的草稿时指出的,“我们认为‘以人为本的 AI’具有三个领域:用户(例如,对于发布 - 保释推荐系统,用户即法官);利益相关者(例如,被告及其家人,以及过去或未来潜在犯罪的受害者和家人);整个社会(例如受到大规模监禁的影响)。”

普林斯顿大学计算机科学教授 Arvind Narayanan 指出,这些对社会的系统性伤害超越了对个人的伤害,需要更长远的眼光和更广泛的衡量方案,而不是那些通常在公司内部进行的评估。但是,尽管诸如“生命未来研究所”这样的团体作出了预测,并撰写了“暂停 AI”的呼吁信,但提前预见到这些危害通常很难。1908 年的一次“流水线暂停”是否会让我们预见到 20 世纪工业生产即将给世界带来的巨大社会变革?这样的暂停会让我们变得更好还是更糟?

鉴于人工智能的进展和影响存在巨大的不确定性,我们最好规定透明度并建立执行问责制的机构,而不是试图阻止每一个想象中的特定危害。

我们不应该等到这些系统失控的时候才去监管它们。但监管者也不应该对媒体上的人工智能恐慌做出过度反应。监管应首先关注当前监控和最佳实践的披露。这样一来,公司、监管机构和公共利益的捍卫者可以一起了解这些系统如何运作,如何最好地管理它们,以及系统性风险到底是什么。

—-

编译者/作者:Yangz

玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。

知识 监管 AI
LOADING...
LOADING...