科学家相信,AI 终有一天将取代人类工作,有些人乐观的相信,人类可以高枕无忧,一周多放几天假,但更多人担心的不只是失业问题,可能还会带来毁灭。德国研究让多数人暂时松口气,研究人员认为,像 ChatGPT 这样的大型语言模型无法独立学习或获得新技能,它们不会对人类构成生存威胁。
今天三月,美国国务院委托编写的一份新报告,指出最先进的 AI 系统在最坏的情况下可能「对人类构成灭绝等级的威胁」,警告联邦政府避免灾难的时间已经不多了。些调查结果是基於一年多来对 200 多人的采访,其中包括 AI 公司高层、网路安全研究人员、大规模杀伤性武器专家以及政府内部的国家安全官员。
世界各地一些顶尖的 AI 研究人员也表达这类担忧。但也有人认为这是无稽之谈,如 Meta 创办人祖克柏就说,目前的 AI 模型尚未达到引发问题所需的复杂程度,人们不应该担心这一点。他还断言,在不久的将来,任何 AI 都不会带来此类风险。
AI 没有突现能力
最近德国研究也认为,这种担忧是没有根据的,因为研究结果清楚显示,AI 缺乏复杂的推理能力。德国达姆施塔特工业大学教授领导的研究团队,测试在完成模型训练之前的 AI,是否具备执行新任务的能力,即所谓的突现力 (emergent abilities),譬如 AI 没有接受明确训练或程式指示,是否能回答与社会情境有关的问题。
透过数千次实验,研究团队证明,AI 遵循指示的能力、记忆力和语言能力的结合,反应 AI 只限制於情境学习,不是真正理解情境。人们担心模型会出现意外、有创新力或潜在危险,都是没有根据的猜测。
重要的是,这对最终用户来说,依赖 AI 解释和执行需要复杂推理而没有明确指令的复杂任务,可能是错的。相反,用户只要能下达明确指令,并经类似范例训练,就能从 AI 受益。
虽然 AI 的确有滥用可能性,如制造假新闻和增加欺诈风险,但只因觉得 AI 对人类有威胁而制定法规,还为时过早。研究员认为,随着 AI 模型成长,可能会产生更复杂语言,并更善於遵循明确详细的提示,但仍不太可能有复杂的推理技能。
AI 是可预测的安全技术
这项结果并不代表 AI 根本不是威胁,而是没有证据支持 AI 有复杂的思维技能。人类可以控制 AI 的学习过程,如果没有明确的指导,AI 就没有掌握新技能的潜力。
印度科学家也认为,AI 对人类构成威胁的普遍说法,阻碍这些技术的广泛采用和发展,也转移真正需要关注的问题的注意力。这项研究结论认为,AI 本质上仍可控、可预测和安全。正在接受更大资料库培训的 AI 可继续部署,不必担心出现安全问题,该担心的或许还是背後控制它的人,而不是技术本身。
- AI poses no existential threat to humanity, new study finds
- Mark Zuckerberg says AI is advancing but it is not good enough to become an existential risk
- AI could pose ‘extinction-level’ threat to humans and the US must intervene, State Dept.-commissioned report warns
(首图来源:Pixabay)