人工智能(AI)的飞速发展,正逐步改变着我们的世界。然而,随着技术的进步,AI安全问题也日益成为全球关注的焦点。近日,全球16家公司,包括OpenAI、微软、智谱AI等,共同签署了一份名为“前沿人工智能安全承诺”的协议,旨在确保AI技术的负责任发展和安全使用。

背景:AI安全问题日益凸显

近期,OpenAI的两位重要成员相继离职,引发了业界对AI安全问题的广泛关注。他们公开指责OpenAI及其领导层忽视安全问题,更偏爱光鲜亮丽的产品。此外,图灵奖得主Yoshua Bengio、Geoffrey Hinton和姚期智等多位专家在《科学》杂志上发表文章,呼吁全球领导人采取更有力的行动,以应对AI带来的潜在风险。

行动:签署前沿人工智能安全承诺

5月22日,人工智能历史上的一个重要时刻,OpenAI、谷歌、微软和智谱AI等公司签署了前沿人工智能安全承诺。这份承诺包括以下几个关键要点:

  1. 负责任的治理结构和透明度:确保前沿AI的安全性和负责任的治理。
  2. 风险衡量:基于AI安全框架,明确如何衡量前沿AI模型的风险。
  3. 风险缓解机制:建立明确的流程,以缓解前沿AI安全模型的风险。

影响:AI安全承诺的意义

这一承诺的签署,被图灵奖得主Yoshua Bengio视为“在建立国际治理制度以促进人工智能安全方面迈出了重要一步”。智谱AI首席执行官张鹏也表示,随着先进技术的发展,确保AI安全的责任也日益重要。

技术:超级对齐技术提升AI安全性

智谱AI在AI顶会ICLR 2024上分享了他们针对AI安全的具体做法。他们认为,超级对齐(Superalignment)技术将协助提升大模型的安全性,并已经启动了类似OpenAI的Superalignment计划。GLM-4V内置了这些安全措施,以防止产生有害或不道德的行为,同时保护用户隐私和数据安全。

法规:欧盟《人工智能法案》的批准

同日,欧盟理事会正式批准了《人工智能法案》,这是全球首部AI全面监管法规,将于下月生效。这一法规采用“基于风险”的方法,对社会造成伤害的风险越高,规则就越严格。

结语

AI技术的安全性已经成为全球科技公司和政府机构共同关注的议题。正如牛津大学工程科学系教授Philip Torr所言:“现在是时候从模糊的建议转变为具体的承诺了。”全球科技巨头的这一行动,无疑为AI安全的发展提供了坚实的基础,也为人类的未来带来了更多的希望和保障。