“驯服”AI还是被AI驯服:人工智能全球治理上海宣言出炉

才艺展示 2024-07-09 12963人围观

ChatGPT唤醒了AI的黄金时代。

自上个世纪提出AI至今,这一技术与产业几经起落,终于从科幻小说走入生产生活的现实。

但AI在解放生力可能性的同时,其带来的新风险也无法忽视。

图灵奖获得者、中国科学院院士姚期智就在WAIC 2024上指出,AI运行存在神秘的“黑盒子”;同时,它又具备强大的能力,如同火车、蒸汽机发明一样,会使全人类生活发生巨变。两个现状叠加,使得治理迫在眉睫。

在现实世界中,人工智能的迅猛发展,似乎也将人类带入了“黑暗森林”。和未知的外星文明一样,AI身周环绕着许多想象。

在完全了解AI之前,没人知道对面是拯救人类的“面壁者”,还是封锁一切希望的“智子”。

《三体》里叶文洁曾说过一句话:“我点燃了火,却控制不了它”。如今面对汹涌而来的AI,人类希望在某种意义上希望能够“驯服”AI。

在今年WAIC会议期间,多个与AI治理相关的论坛密集举办,上海向全球发布了《人工智能全球治理上海宣言》。宣言提出要促进人工智能发展,维护人工智能安全,构建人工智能治理体系,加强社会参与和提升公众素养,提升生活品质与社会福祉。

联合国人工智能高层顾问机构专家曾毅认为,这是在世界人工智能大会系列当中第一次发表了以大会为名义的共识,人工智能安全和治理可以说是人工智能发展过程当中的国际共识。

图源:主办方供图

AI黑暗森林

人工智能的未来充满不确定性,唯一可以确定的是,技术迭代、应用落地的速度越来越快。

然而,当AI走进现实,人类似乎成为了《三体》中看到了宇宙倒计时的汪淼,不可思议与无能为力的情绪同时产生。

一个疑问浮现:AI的背后到底是什么,会让人类如此恐惧?

清华大学苏世民书院院长、人工智能国际治理研究院院长薛澜指出,人工智能技术目前存在三重风险:技术内在问题、技术开发伴生风险以及技术误用和滥用可能带来的影响。

技术内在问题,是指包括“幻觉”在内的人工智能系统内生问题。

所谓“AI幻觉(AI Hallucinations)”,是指大语言模型有时会提供看似合理但错漏百出的答案的现象。

另外,大模型的能力与其训练数据高度相关。然而,数据也是个“是非之地”。高质量数据的难以获得是业界亟待解决的难题。如果数据质量不高,其后期展现出的能力将无法保证。

在智能社会与全球治理框架论坛中,同济大学经济与管理学院副院长、长江学者特聘教授钟宁桦表示:“对于人工智能模型的训练,数据(的重要性)占70%-80%,而后才是算法。”

薛澜担忧的第三重风险,来自商业实践中的技术误用或滥用。AI技术最终要走向应用,相比于技术和代码,应用会直接影响到更多用户的感知与体验。

比如,通过对抗性输入、“越狱”(jailbreaking)操作等方式,可以让大模型突破安全限制,帮助操作者实现不法目的。

问题总是新的,治理工作或多或少都可能有一定的滞后性。

为什么对AI治理的要求如此紧迫?

驯服还是被驯服?

因为,没有人知道大模型和AI的边界在哪。如同人类发现火种、使用电力,AI不止作为一种工具介入生活,AI本身可能就意味了新的生活。但也意味着新变量。

2015年,全世界193个国家在联合国共同签署了人类可持续发展目标(SDGs)。SDGs包括17个目标,下设169个具体的指标,它们希望用这些目标考察2015-2030年人类社会如何实现更好发展。“但去年有研究机构发现,人工智能会对169个指标里的134个带来积极促进作用;但同时也有可能对其中59个左右指标产生不利影响。 ”薛澜指出。

“如何推动人工智能健康发展,尽可能地让它收益最大化?同时把风险降到最低?”在WAIC开幕式上,他这样发问。

其实如同《三体》里,地球三体组织里出现了拯救派、降临派、幸存派等不同派别。当前AI治理也出现了不同派系。

其一是“乐观派”,其信仰者提倡加速技术创新,快速推出新技术并应用,从而颠覆社会结构。Sam Altman被认为是隐藏的有效加速主义者。

而在WAIC 2024上,中国工程院院士,之江实验室主任,阿里云创始人王坚也表达了他的乐观,“我是个无药可救的技术乐观主义者。”王坚坦陈。在他看来,任何人类产生的问题,最后都会在发展中被解决。过去每一个变革节点带来的恐慌不一定比今天的AI带来的小。“但我们都走过来了。”他说。

他认为,环绕人工智能的疑问、担忧与风险十分复杂,解决它们不可能一蹴而就。“未来十年将是人工智能发展激动人心的关键时期。”王坚指出,人工智能是少数几种会对人类的基础设施建设产生极大影响的技术。它带来的变化可能改变人类的行为习惯,甚至将重新定义社会规范。

马斯克一直对人工智能的态度较为悲观,他多次强调AI的危险性,甚至认为AI的危险要远大于核武器,“我想我们不会允许任何人都去制造核武器,请再次记住我的话,AI要比这危险得多。”

在今年戛纳国际广告节上,马斯克在接受采访时引用了Geoffrey Hinton的观点,认为存在10%到20%的可能性AI会“导致糟糕的情况发生”。他还提到,人工智能应用可能会带来意义危机:”如果AI能完成一切事情,甚至比人类做得更好,那我们工作的意义何在?“

在更早的2023年年末,OpenAI反转不断的“宫斗”剧中,Sam的反对者――OpenAI首席科学家Ilya Sutskever则相对中立。

Ilya曾在去年7月组建OpenAI超级对齐团队。这个团队的核心理念是要求AI能够在各种环境下自发推导出符合人类价值观的行动方针。

在AI领域里,意图和结果的偏差被称为“对齐问题(The Alignment Problem)”。因此,“价值对齐”可以理解为是让人工智能系统与人类价值观保持一致。确保AI以对人类和社会有益的方式行事,不对人类造成干扰和伤害。

尽管当下各种观点各有拥趸,但价值对齐可能是人工智能治理较为普遍的“核心价值”。

在更为落地的层面,各国监管部门也陆续出手AI治理。

今年5月,欧盟理事会正式批准欧盟《人工智能法案》,这被认为是全球首部综合性人工智能治理立法。欧盟方案以“风险分类分级”为核心思路,将人工智能系统按照对用户和社会的潜在影响程度将其分为4类:不可接受风险类、高风险类、有限风险类、最小风险类。不同风险等级,意味着不同力度的监管。

45°平衡率

治理的尺度应如何把控?

上海人工智能实验室主任、首席科学家,清华大学惠妍讲席教授周伯文尝试给出一个结论。

在人工智能领域有一条非常知名的定律――尺度定律(Scaling Law),这条大模型界的“摩尔定律”,简而言之,是指随着模型规模(数据、模型和算力规模)的不断提升,大模型的能力基本也能够不断提升。

周伯文指出,在Transformer为代表的基础模型架构下,尺度定律被不断印证,证明目前AI性能呈指数级增长。但与此形成对比的是,在AI安全维度典型的技术,呈现零散化、碎片化,且后置性的特性。

在他看来,人类最终应当以“AI-45°平衡律” (AI-45° Law)的技术思想体系作为人工智能产业健康发展的参考。

图源:主办方供图

“从长期的角度来看,我们要大体上沿着45度安全与性能平衡发展。”周伯文说。在他看来,短期内的波动可以被接受,但不能长期偏离45°的基准线。“太低了,AI安全性无法保障;如果太高,则意味着AI发展被抑制。”

百年后的功过暂且不论,处于当下的人们相信,ChatGPT唤醒了AI的黄金时代。

从哪走、如何走、走向哪,没有人能给出确切答案。但要发展、要健康地发展,这个共识跨越了时间和空间。

(责任编辑:郭健东 )

不容错过
Powered By Z-BlogPHP