家人们,还是看看远处的开源语言模型们吧
newbing吧
全部回复
仅看楼主
level 7
发展是真滴快,已经追平GPT3.5
2023年07月26日 17点07分 1
level 7
只需要一台大概十万元的v100主机或者5万元的Mac Studio就能在本地上跑了。[太开心]
比起85万元一台的英伟达DGX-station多少算得上是飞入寻常百姓家了吧。(大嘘)
2023年07月26日 17点07分 2
v100现在只要5k一块
2023年07月27日 09点07分
@jiangbinzhe 便宜的v100,显存太小
2023年07月27日 13点07分
冒昧打扰各位,我不是来打礁的,其实我是来教各位折腾的[滑稽],凑够数字了,那我开始了[你懂的],众所周知,newbing和gpt是目前用的最多的,但是不少吧友不会蹬这两个官方的原版站,下面由我教各位,很简单的,用你们的瀏覽器在 wqw . fr 里面下个助手就可以解决了#(滑
2023年07月27日 14点07分
level 7
还有这个LLaMA2-13B,只有130亿训练参数,但是实力却超过了有着1750亿参数的GPT-3。其轻巧的体量甚至允许它在笔记本上跑起来(2070m-魔改16g及以上)。部署在笔记本上的本地ChatGPT3,是不是想想就很刺激?
2023年07月26日 17点07分 3
level 7
人呢?
如何评价
这几个月语言模型开源社区的迅猛发展?[阴险]
GPT3.5直接面临平替风险,Claude(v1)正在被火烧屁股,GPT4虽然暂时依然是江湖老大哥,但是在这群部署成本几乎不要钱的GPT3.5面前,市场最终会选择何方还真不好说。
2023年07月26日 17点07分 4
感觉后期有监督学习才是更麻烦的部分,这些训练集是够大,但是就凭openai这大半年的领跑就已经积累太多调教经验了,再加上名声积累,用户反馈等,短期gpt还是很稳的。
2023年07月27日 02点07分
@AuonvA 不过本地部署带来的好处可能是会有很多第三方内容使用,可以自己训练自己调教,虽然综合效果不太能比得上gpt,但是只用于特定场景可能会比单纯调gpt的api要好用一些。
2023年07月27日 02点07分
你但凡上手试过就不会信这个表单排行,距离OpenAI差距还是很远的。
2023年07月27日 06点07分
别的模型不知道,但claude我问过cgal问题,回答实在太脱线了,给出的代码没一句可用。gpt3.5虽然小错误不断也经常犯蠢但差距还是很明显的。另外好想用gpt4啊,被这两个模型蠢哭了[喷]
2023年07月29日 23点07分
level 12
人间一天,AI一年
2023年07月27日 00点07分 5
level 1
我想知道这些开源想在本地跑,到底吃那个硬件,显存?硬盘?有没有大佬懂得。
2023年07月27日 00点07分 6
gpu
2023年07月27日 04点07分
显存大小决定能不能跑,显卡性能决定跑的多快
2023年07月27日 05点07分
小一点的模型3090/4090就可以跑,我之前下了一个大概占用显存10-20G左右
2023年07月27日 07点07分
level 4
配置都太高了
2023年07月27日 01点07分 7
要啥配置呢?
2023年07月27日 01点07分
@咕咕咕咕2488 如果是要普及大众的话,750ti显卡[滑稽] 大部分家用的配置都不咋滴。
2023年07月27日 19点07分
level 2
可爱滴楼主,请问这个榜单在哪里看的
2023年07月27日 01点07分 8
huggingface的openllm leaderboard之类的吧
2023年07月27日 01点07分
https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu
2023年07月27日 02点07分
level 12
[呵呵]
2023年07月27日 01点07分 10
level 1
快吧gpt4搞出来啊啊啊
2023年07月27日 02点07分 12
level 1
目前4090能跑的最大本地模型是哪个呢?LLaMA 2 34b嘛?
2023年07月27日 03点07分 13
level 1
站有本地cpu和内存部署13b和7b的视频,我试了一下,效果不好。13b容易崩坏,用英文解答,7b因为参数原因不如65b聪明,65b太慢了,7秒1个字符。[小乖]
2023年07月27日 04点07分 14
level 6
配套的东西有吗?gpt有很多实用的插件,这些呢
2023年07月27日 09点07分 15
level 7
实际使用感受不如gpt一根毛
2023年07月27日 09点07分 16
1 2 尾页