院士谈大模型:训练花钱少,性能会打折扣

发布时间:2024-12-21 16:34:03 来源: sp20241221

   中新网 6月6日电(中新财经记者 吴涛)针对目前市场上沸沸扬扬的大模型价格战,在6月5日举行的2024北京网络安全大会期间,有专家指出,训练大模型很费钱,任何说花很少一点钱就能做的,性能上肯定打了折扣。在大会上,很多院士还讨论了AI安全以及算力网络该如何更好地建设问题。

  大会现场。 中新网 记者 吴涛 摄

  谈训练:少花钱的性能会打折扣

  “任何说花很少一点钱就能训练大模型的,肯定是里面做了很多简化,性能会打折扣。”中国工程院院士、鹏城实验室主任、北京大学博雅讲席教授高文在大会上谈到大模型训练成本问题。

  高文称,训练模型很花钱,我们自己算了一下,2000亿参数的模型大约要花5亿元,如果是万亿模型,肯定要接近10亿元,或者更多才能训练好一个模型。

  近一段时间,不少大模型平台纷纷宣布对面向企业市场的API(应用程序编程接口)价格下调,动辄下调90%以上,甚至直接宣布免费。不少企业解释原因称,使用了更好的手段把成本降下来。

  高文称,现在国外有一个流派,叫做规模法则,要想做一个好的模型,机器的规模要够大,数据的规模也要大,只有规模到了才能做出好模型,所以现在要想训练一个好的模型,这是非常费钱的。

  不过在大模型的大小上,中国新一代人工智能发展战略研究院执行院长龚克称,“脑的规模、神经元的规模确实不能小,但是不是一直大就可以比人更聪明呢?也不是,如非洲大象,他们的脑子比人脑还发达,但并不比人聪明,说明光靠大也不能解决所有问题。”

  谈安全:协调推进发展和治理,不要妖化AI

  随着AI的发展,其安全越发引起重视。中国工程院院士、同济大学讲席教授蒋昌俊在大会上表示,安全性是不可忽视的,目前的现状是被动式攻击、孤立式安防。如何改变?必须通过一体化算网体系,以及专业化、多模态化和大规模形式,形成安全有效的算力方式。

  龚克认为,从现在的实践来看,如果大家真正使用AI,风险并不是来自于技术太强,而是技术并不够强,存在自己各方面的技术瓶颈,从而引发很多社会焦虑。

  “人工智能必须大力发展,不发展是最大的不安全;对于人工智能风险要实事求是具体分析,协调推进发展和治理,不要妖化和神化人工智能;人工智能和网络安全本身是密切相关的,应该全力推动人工智能和网络安全的融合创新。”龚克称。

  在具体实际操作层面,高文表示,在安全方面,有些用户希望他们的数据是别人看不见的,我们专门做了一个技术,使得数据可用不可见,只有数据应用者能看得见自己的数据,其他人都看不见,但可以用,在训练的时候就可以做到相对比较安全。

  谈算力:数据价值还没完全显现出来

  大模型的发展离不开算力。蒋昌俊表示,目前算力专用定价体系尚未建立,算力服务企业各自为战,算力数据相对比较孤立。要解决这些问题,要通过算力网络的一些新型需求来拓展它的业务。

  据了解,目前国内数据交易中心有十几家。蒋昌俊认为,目前来看,数据交易效果还不是很好,因为没有经过算力的加工,数据的价值没有完全显现出来。

  蒋昌俊支招,算网运营可以采取一些市场行为,为各行各业提供服务,这才形成了我们算力优配的价值所在,“未来算网重点将从建设逐步转向调度应用。”

  中国信息通信研究院院长余晓晖此前发文指出,算力开始赋能千行百业离不开多方合力。需要各级政府以及基础电信运营商、第三方数据中心服务商、互联网企业等各类经营主体在算力基础设施建设运营中发挥各自优势,互促互补、形成合力。(完)

【编辑:梁异】