广告合作

斯坦福“草泥马”火了:100美元就能比肩gpt-九游会国际

来源:it之家 时间:2023-03-15 13:28:22

一夜之间,大模型界又炸出个 big news!

斯坦福发布 alpaca:

只花 100 美元,人人都可微调 meta 家 70 亿参数的 llama 大模型,效果竟可比肩 1750 亿参数的 gpt-3.5。

而且还是单卡就能运行的那种,甚至树莓派、手机都能 hold 住!

还有一个更绝的“骚操作”。

研究所涉及到的数据集,是斯坦福团队花了不到 500 美元用 openai 的 api 来生成的。

所以整个过程下来,就等同于 gpt-3.5 自己教出了个旗鼓相当的对手 ai。

然后团队还说,用大多数云计算平台去微调训练好的模型,成本也不到 100 美元:

复制一个 gpt-3.5 效果的 ai,很便宜,很容易,还很小。

而且团队还把数据集、代码统统都给开源了,这下子人人都能去微调个效果炸裂的对话 ai:

项目在 github 发布才半天时间,便已经狂揽 1800 星,火爆程度可见一斑。

django 联合开发者甚至对斯坦福的新研究用“惊天大事”来形容:

不仅如此,斯坦福团队还搞了个 demo,在线可玩的那种。

话不多说,我们现在就来看看这个“草泥马”的效果。

比肩 davinci-003 的草泥马 aplaca

在斯坦福官方的演示中,他们先小试牛刀地提了一个问题:

什么是羊驼?它和美洲驼的区别是什么?

草泥马 aplaca 给出的答案较为干练:

羊驼是一种小型骆驼科动物,原产于秘鲁、玻利维亚、厄瓜多尔和智利;它比美洲驼小,羊毛更细,也没有驼峰。

而后又简单的介绍了二者群居生活的不同。

同样的问题若是交给 chatgpt,则答案就不会像草泥马 aplaca 那般简洁:

对此,团队给出的解释是:

alpaca 的答案通常比 chatgpt 短,反映出 text-davinci-003 的输出较短。

而后团队演示了让草泥马 alpaca 写邮件:

写一封 e-mail 祝贺被斯坦福大学录取的新生,并提到你很高兴能亲自见到他们。

草泥马 alpaca 对于这个任务也是信手拈来,直接给出了一个像模像样的邮件模板:

难度再次进阶,团队这次提出了让草泥马 alpaca 写论文摘要的需求:

写一篇经过深思熟虑的机器学习论文摘要,证明 42 是训练神经网络的最优 seed。

草泥马 alpaca 给出的答案从内容上来看,非常符合大多数论文的摘要形式:试图回答什么问题、用了什么方法、结果如何,以及未来展望。

当然,也有迫不及待的网友亲自下场试验,发现草泥马 alpaca 写代码也是不在话下。

不过即便草泥马 alpaca 能够 hold 住大部分问题,但这并不意味着它没有缺陷。

例如团队便演示了一个例子,在回答“坦桑尼亚的首都是哪里”的问题时,草泥马 alpaca 给出的答案是“达累斯萨拉姆”。

但实际上早在 1975 年便被“多多马”取代了。

除此之外,若是亲自体验过草泥马 alpaca 就会发现,它…… 巨慢:

对此,有网友认为可能是使用的人太多的原因。

笔记本、手机、树莓派都能跑

meta 开源的 llama 大模型,刚发布几周就被大家安排明白了,单卡就能运行。

所以理论上,基于 llama 微调的 alpaca 同样可以轻松在本地部署。

没有显卡也没关系,苹果笔记本甚至树莓派、手机都可以玩。

在苹果笔记本部署 llama 的方法来自 github 项目 llama.cpp,使用纯 c / c 做推理,还专门对 arm 芯片做了优化。

作者实测,m1 芯片的 macbook pro 上即可运行,另外也支持 windows 和 linux 系统。

还是这个 c 移植版本,有人成功在 4gb 内存的树莓派 4 上成功运行了 llama 的 70 亿参数版本。

虽然速度非常慢,大约 10 秒生成一个 token。

更离谱的是仅仅 2 天之后,有人把 llama 模型量化压缩后成功在 pixel 6 安卓手机上运行(26 秒一个 token)。

pixel 6 使用谷歌自研处理器 google tensor,跑分成绩在骁龙 865 到 888 之间,也就是说新一点的手机理论上都能胜任。

微调数据集也开源

斯坦福团队微调 llama 的方法,来自华盛顿大学 yizhong wang 等去年底提出的 self-instruct。

以 175 个问题作为种子任务,让 ai 自己从中组合出新的问题以及生成配套答案实例,人工过滤掉低质量的,再把新任务添加到任务池里。

所有这些任务,之后可以采用 instructgpt 的方法让 ai 学会如何遵循人类指令。

套娃几圈下来,相当于让 ai 自己指导自己。

斯坦福版 alpaca,就是花了不到 500 美元使用 openai api 生成了 5.2 万个这样的示例搞出来的。

这些数据同样开源了出来,并且比原论文的数据多样性更高。

同时还给出了生成这些数据的代码,也就是说如果有人还嫌不够,可以再去自行扩充微调数据,继续提高模型的表现。

微调代码也会在 huggingface 官方支持 llama 后放出。

不过 alpaca 最终的模型权重需要 meta 许可才能发布,并且继承了 llama 的非商用开源协议,禁止任何商业用途。

并且由于微调数据使用了 openai 的 api,根据使用条款也禁止用来开发与 openai 形成竞争的模型。

one more thing

还记得 ai 绘画的发展历程吗?

2022 年上半年还只是话题热度高,8 月份 stable diffusion 的开源让成本下降到可用,并由此产生爆炸式的工具创新,让 ai 绘画真正进入各类工作流程。

语言模型的成本,如今也下降到了个人电子设备可用的程度。

最后还是由 django 框架创始人 simon willison 喊出:

大语言模型的 stable diffusion 时刻到了。

206

推荐阅读

  • a股三大指数涨跌不一煤炭与军工板块涨幅居前

    a股三大指数涨跌不一煤炭与军工板块涨幅居前

  • 薄膜电容行业报告:新能源车、光伏、风电驱动薄膜电容市场潜力巨大

    薄膜电容行业报告:新能源车、光伏、风电驱动薄膜电容市场

  • 目前医疗技术条件下近视不能治愈提升视力的说法不靠谱

    目前医疗技术条件下近视不能治愈提升视力的说法不靠谱

  • stepvr发布元宇宙登入门产品“国承1号”

    stepvr发布元宇宙登入门产品“国承1号”

  • 苹果汽车项目团队又一高管跳槽:去年11月份加入任职不到7个月

    苹果汽车项目团队又一高管跳槽:去年11月份加入任职不到

网站地图