大模型之争:通往AGI之路的基石还是绊脚石?
在2024年智源大会上,国内大模型领域的四位领军人物——百川智能CEO王小川、智谱AI CEO张鹏、月之暗面CEO杨植麟、面壁智能CEO李大海,就“大模型是否是通往人工通用智能(AGI)之路的基石”这一话题展开了深入的讨论。他们分享了各自对大模型在AGI发展中所扮演角色的看法,以下是讨论的精彩摘要。
大模型:AGI的垫脚石?
王小川认为大模型是通往AGI的基石,但单靠规模法则(Scaling Law)无法实现AGI,需要进行范式转换,如数据算法算力的创新,以及探索新的学习范式和压缩模式。他提出,AGI的定义可以是能否造医生,因为医生是智力密度最高的职业之一。
张鹏表示,尽管目前无法确定大模型能否帮助人类达到AGI的顶峰,但在现阶段,大模型是有效的,并且Scaling Law在未来相当一段时间内仍然会发挥作用。他认为AGI是一个动态的概念,其内涵和外延会不断变化。
杨植麟强调,大模型是第一性原理,通过提升模型规模和进行更好的压缩,可以产生智能。但他同时指出,在数据稀缺或不存在的领域,需要解决数据问题。
李大海认为大模型是通往AGI方向上当前所有技术中能走得最远的,但能否直接达到AGI还存在未知因素。他提出,大模型目前主要处理人的大脑系统1的工作,未来需要通过agent技术将系统2的能力外部化或内化。
AGI的定义与发展
在讨论中,各位CEO对AGI的定义提出了不同见解:
杨植麟认为AGI的定义重要,但短期内难以精确量化,需要对评估维度进行拆分,以更好地衡量AGI的开发进度。
王小川则用能否造医生作为评测AGI的指标,因为医生职业需要多模态处理、少幻觉、记忆、推理、查文献等能力。
李大海从经济学角度定义AGI为执行任何任务的边际成本为零,并认为大模型的智能密度和小型化也是重要的发展方向。
大模型与AI安全
随着大模型的发展,AI安全问题也成为讨论的焦点:
杨植麟提出,AI安全是非常重要的,需要提前准备,关注模型本身可能因用户恶意意图而做出不当行为的问题。
王小川强调了意识形态安全、人类文明安全和现实安全三个层面,认为当前的安全问题应聚焦在意识形态安全上。
张鹏和李大海均表示,AI安全是重要议题,需要行业共同努力,确保技术用于正途。
结语
通过这次圆桌讨论,我们可以看到,尽管大模型在通往AGI的道路上扮演着重要角色,但其是否能够成为实现AGI的决定性因素,以及AGI的确切定义,仍然是一个开放的问题。同时,AI安全问题也不容忽视,需要行业内外共同努力,确保技术的健康、可持续发展。
智源大会作为AI领域的一次盛会,不仅为业界提供了交流思想、分享见解的平台,也为大模型和AGI的未来发展指明了方向。随着技术的不断进步和市场的日益成熟,我们有理由相信,大模型和AGI将为人类社会带来更多的可能性和机遇。