llama3和李厂长一番话引来了开源闭源之争
多模态吧
全部回复
仅看楼主
吧务
level 10
命起涟漪💦
楼主
在Create 2024百度AI开发者大会上,李厂长发表的闭源模型优于开源模型的观点引来了轩然大波,带来了大范围的讨论。闭源ai包括gpt系列和claude系列确实领跑了大语言模型的赛道,但ai真的闭源就会优于开源吗?
以下是我的一些观点:
2024年04月26日 09点04分
1
吧务
level 10
命起涟漪💦
楼主
首先,ai模型性能不取决于是否开源,而取决于模型结构、模型训练、模型优化,而是否开源则仅是影响了模型是否会被其他人所使用、借鉴,对模型本身性能没有直接影响。
2024年04月26日 09点04分
2
吧务
level 10
命起涟漪💦
楼主
那么为什么会出现市面上闭源模型的领跑情况呢?现在不少ai模型厂家都采取了小参数模型开源、大参数模型闭源的方式,典型的就是ChatGLM,这是因为大参数模型训练成本花费奇高,厂商寄希望于通过小参数模型开源打开知名度,让开源的小参数模型的使用者转化为闭源的大参数模型的用户,从而通过大参数模型商业化盈利。
2024年04月26日 09点04分
3
吧务
level 10
命起涟漪💦
楼主
而其他厂家也有类似的思路,但凡训练大参数模型(30B以上)而且模型效果奇佳的,都更愿意闭源,毕竟训练大模型的成本可不低,花费大力气训练出来的模型无法盈利的话会亏死。但也确实存在一些开源大参数模型的厂家,如Meta的llama系列,马斯克的gork系列等,但也是财大气粗亏不死的典型。
2024年04月26日 09点04分
4
吧务
level 10
命起涟漪💦
楼主
闭源模型更好用的另一原因是因为构建的产品化及产品生态,但开源模型也有开源模型的社区生态。开源模型的厂家当然不会考虑做把开源模型不收费地产品化这么费力不讨好的事,将模型包装易用话的过程往往都是由开源社区完成,以非大语言模型举一个例子,比如stable diffusion就是一个非常庞大的开源生态,包括stable diffusion包装起来易用的webUI,comfyUI,Fooocus等都是社区自发产生的,其易用程度、插件丰富度已经不输产品化的其他图像生成模型,其图像精细度略低也不过是因为方便在个人用显卡上能使用而缩减的模型规模导致的。而闭源的大模型则能获得厂家更多的产品化优化,以便提升用户的体验。
2024年04月26日 09点04分
5
吧务
level 10
命起涟漪💦
楼主
总的来说还是模型训练花销过大时往往不愿意开源,开源的往往是效果不那么好的模型,以图通过开源获取获取更好的宣传效果、社区资源。
说闭源模型优于开源模型是先射箭再画靶。
开源对大模型环境起了促进作用,许多厂家或研究者,通过研究开源模型,进一步促进了整个大模型环境的进步。
2024年04月26日 09点04分
6
吧务
level 10
命起涟漪💦
楼主
闭源无可厚非,开源值得鼓励,但如果大家都闭源,甚至形成垄断,那么整个大模型环境的进步可能就结束了,更不用提实现AGI了。
2024年04月26日 09点04分
7
1