大科技公司从人工智能的存在性风险转移了世界的注意力,顶级科学家表示
大科技公司已成功将世界从人工智能对人类构成的存在性风险转移,一位领先的科学家和人工智能倡导者警告称。
在首尔举行的人工智能峰会上,马克斯·泰格马克表示,从关注生命的灭绝转向更广义的人工智能安全概念,可能会延误对创造最强大程序的人强制实施严格监管,这是不可接受的延迟。
“1942年,恩里科·费米在芝加哥一个足球场下建造了第一个自持续核链反应的反应堆,”作为物理学家训练过的泰格马克说。“当时的顶尖物理学家们知道后真的很恐慌,因为他们意识到跨过了制造核弹的最大障碍。他们意识到核弹离实现只剩几年时间,事实上,三年后1945年的三一试验就取得了成功。‘能够通过图灵测试’(在对话中无法辨别他们不是在与另一个人交谈)的人工智能模型是对你可能失去控制的人工智能的警告。这就是为什么像杰弗里·欣顿和约书亚·本吉奥以及很多科技公司的CEO,在私下里至少都在感到恐慌。”
泰格马克的非营利性未来生命研究所去年呼吁在这些担忧背景下对先进人工智能研究进行为期六个月的“暂停”。他说,那年三月OpenAI的GPT-4模型的发布是煤矿中的一只警示鸟,并证实风险是不可接受地接近的。尽管有来自欣顿和本吉奥这两位当今机器学习领域开创性人物之一的专家的数千份签名,但没有同意暂停。相反,人工智能峰会,首尔峰会是继去年11月英国布莱切利公园之后的第二次,引领了新兴的人工智能监管领域。“我们希望那封信使对话具有正当性,并且很高兴看到效果如何。一旦人们看到像本吉奥这样的人担心时,他们在想,‘我担心这个问题是可以的。’就连我加油站的那个家伙在那之后对我说他担心人工智能会取代我们。“但是现在,我们需要从口头上的谈论转变为具体行动。”
然而,在最初宣布成为布莱切利公园峰会的焦点之后,国际人工智能监管的重点已经从存在性风险转移到其他方面。在首尔,只有三个“高级”团体中的一个直接涉及安全问题,并且审视了“从隐私侵犯到就业市场扰乱和潜在的灾难性后果”等“全谱”风险。泰格马克认为,对最严重风险的淡化不健康,也不是偶然的。“这恰恰是我预测由于行业游说会发生的事情,”他说。“1955年,第一批有关吸烟导致肺癌的期刊文章问世,你可能认为很快就会出台一些监管措施。但是不,直到1980年才有,因为业内存在极力转移注意力的巨大推动。我觉得现在就是这种情况。”
泰格马克的批评者提出了与他自己的说法相同的观点:行业希望每个人都谈论未来的假设风险以转移对现实中具体伤害的注意力,这一指控他予以驳回。“即使从其本身的价值观来看,这也相当牵强:认为像OpenAI的老板山姆·奥尔特曼为了避免监管而告诉大家可能会所有人都灭亡,然后劝说像我们这样的人发出警报,这会是颇具战略眼光的四维棋局。”他认为,一些科技领袖的温和支持是因为“我认为他们都觉得自己陷入了一个无法解决的困境,即使他们想要停止,也无法。如果一个烟草公司的CEO某天早上醒来觉得自己在做的不对,那会发生什么?他们会替换CEO。因此,唯一可以实现安全第一的方式是政府为所有人设立安全标准。”
探索更多关于这些话题的内容
人工智能 (AI)
科技产业
计算
意识
新闻
分享
重新使用此内容
感谢阅读!如果您对AI的更多资讯感兴趣,可以查看更多AI文章:GPTNB。
大科技公司从人工智能的存在性风险转移了世界的注意力,顶级科学家表示