努力驯服人工智能:首尔峰会指出监管难题
身为人工智能监管上的一个里程碑事件,2023年的B莱切利公园人工智能峰会单单因其存在而变得重要。
在宣布举办该活动与首个会议召开之间,主流对话从轻微的困惑转变为普遍认同,认为讨论人工智能监管也许是值得的话题。然而,本周在首尔郊外的一个研究园区举行的峰会面临的任务更艰巨:英国和韩国能否展示政府不仅仅在谈论人工智能监管,而且正在实际推行呢?在首尔峰会结束时,英国宣扬的主要成就是建立了一个全球人工智能安全研究院网络,借鉴了上次会议后成立的英国先驱组织。英国技术大臣米歇尔·多内兰将这些新研究院归功于正在发挥作用的“B莱切利效应”,并宣布计划领导一个体系,让美国、加拿大、英国、法国、日本、韩国、澳大利亚、新加坡和欧盟的监管机构分享有关人工智能模型、危害和安全事件的信息。
“两年前,政府几乎完全由私营部门和学者向他们介绍人工智能,但他们自己没有真正开发自己的证据基础的能力,”人工智能实验室Anthropic的联合创始人兼政策负责人杰克·克拉克称,“在首尔,我们从英国安全研究院获悉:他们对各种模型进行了测试,包括Anthropic的模型,并为各种滥用行为提供了匿名化的结果。他们还讨论了他们如何构建自己的越狱攻击,以打破所有这些模型的安全系统。”
克拉克称,这一成功使他比在参加B莱切利峰会的前一年时更“略微乐观”。但新安全研究院的权力仅限于观察和报告,存在着他们可能不得不被迫坐视人工智能危害肆虐的风险。即便如此,克拉克认为,“尴尬他人和公司具有巨大威力”。
“你可以成为一个安全研究院,只能测试公开的模型。如果你发现模型存在严重问题,你可以发表文章 - 就像今天学术界所发生的一样。你会发现公司会采取非常重要的行动来应对。没有人愿意成为排行榜上的倒数第一。”
即使观察本身也能改变事物。例如,欧盟和美国的安全研究院已设定了“计算”阈值,试图通过各自聚集的计算能力来定义哪些公司落入他们安全研究院的监管范围。反过来,这些阈值已经开始变成明显的分界线:最好是略低于阈值,避免与监管者合作的麻烦,而不是略高于阈值并增加很多额外工作,一位创始人表示。在美国,该限额高得只有最富裕的公司才能负担得起,但欧盟较低的限额已将数百家公司纳入其研究院的管辖范围。
然而,IBM的首席隐私和信任官克里斯蒂娜·蒙哥马利表示:“计算阈值仍然存在,因为这是一条非常明确的线。很难想出其他能力是什么。但这将快速改变和发展,也应该如此,因为考虑到围绕如何调整和训练模型的新技术,模型有多大并不重要。”她建议,政府将开始关注人工智能系统的其他方面,例如暴露于模型的用户数量。
前Google Brain主管安德鲁·吴认为,人工智能的应用应该受到监管,而不是仅专注于人工智能技术本身。他提出,“监管人工智能与监管‘电动机’一样毫无意义:‘如何让电动机安全’非常困难,除非只构建非常非常小的电动机。”
新加坡通讯、信息和卫生高级部长贾尼尔·普图恰里也表达了这一观点。他说:“在很大程度上,当今人工智能的使用并非没有受到监管。公众并非没有保护。”他说:“如果在医疗领域应用人工智能,医疗领域的所有监管工具必须被用来应对风险。如果人工智能被应用在航空工业中,我们已经有了一个机制和平台来监管风险。”
但是,将关注点放在应用而非基础人工智能系统可能忽略了一些人们认为是人工智能最大安全问题的问题:“超智能”人工智能系统可能导致文明的终结。麻省理工学院教授麦克斯·泰格马克将GPT-4的发布比作“费米时刻”,第一座核反应堆的建成几乎肯定不远就会出现原子弹,他说类似风险的强大人工智能系统需要一直保持警惕。
多内兰为关注点变化进行了辩护。“今天的关键支柱之一是包容性,这可能意味着很多事情,但也应该包括所有潜在风险的包容性,”她说,“这是我们不断努力实现的目标。”
对于克拉克来说,这带来了冰冷的安慰。“我只能说,你尝试做的事情越多,你成功的可能性就越小,”他说,“如果最终采用包罗万象的方法,那你实现任何事情的能力会被大大削弱。”
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
努力驯服人工智能:首尔峰会指出监管难题