已删库!硅谷团队抄袭清华系大模型?面壁智能李大海独家回应:套壳现象难规避

大模型厂商你方唱罢我登场,“套壳”之争风云再起——神仙打架的战场又出现了软饭硬吃的戏码。

近日,一个来自斯坦福的研究团队发布了一款名为Llama3-V的多模态大模型,声称只要500美元(约合3650元)训练,就能在多个基准测试中实现与GPT4-V、Gemini Ultra、Claude Opus一较高下的性能。

Llama3-V团队中的两位作者Siddharth Sharma与Aksh Garg是斯坦福大学计算机系的本科生,曾发表过数篇机器学习相关的论文。因两人具备名校背景,且曾在特斯拉、SpaceX等大厂任职,Llama3-V一经发布迅速蹿红网络,还冲上了HuggingFace趋势榜首页(机器学习领域影响力平台)。

然而Llama3-V迅速跌落神坛。有网友指出,该模型跟“清华系”大模型创业企业面壁智能5月发布的MiniCPM-Llama3-V 2.5模型有不少相似处,模型结构、代码、配置文件堪称雷同,只是变量名称做了更改。

具体来看,Llama3-V的代码是对MiniCPM-Llama3-V 2.5的重新格式化,其模型行为检查点的噪声版本相似;Llama3-V使用了MiniCPM-Llama3-V 2.5的分词器(tokenizer),并且MiniCPM-Llama3-V 2.5定义的特殊符号也出现在了Llama3-V中;Llama3-V提供的代码无法与Hugging Face的检查点兼容,而将从HuggingFace下载的Llama3-V模型权重中的变量名改成MiniCPM-Llama3-V 2.5的,模型可以用MiniCPM-V代码成功运行。

此外,在未公开的实验性特征上,Llama3-V与MiniCPM-Llama3-V 2.5显示出了相似的推理结果。

时代周报记者注意到,6月3日上午,面壁智能CEO李大海在朋友圈发文称,团队核实发现,Llama3V展现出和小钢炮一样的清华简识别能力,连做错的样例都一模一样,而这一训练数据尚未对外公开。

他表示,清华简的识别能力是团队耗时数月,从卷帙浩繁的清华简中一个字一个字扫描下来,并逐一进行数据标注从而融合进模型中的。在对两个模型进行高斯扰动验证后发现,它们在正确和错误表现方面都高度相似。

已删库!硅谷团队抄袭清华系大模型?面壁智能李大海独家回应:套壳现象难规避

时代周报记者就如何规避相关现象询问李大海,他称,(想规避)应该很难。“这主要是个学术道德问题。”

对于质疑,Llama3-V项目的作者与外界进行一番辩驳后,删除了质疑者在Llama3-V上提交的质疑他们偷窃的问题,并将Llama3-V项目从开源网站中删除,且发文致歉。Siddharth Sharma与Aksh Garg解释道,他们并未参与代码工作,所有代码都是毕业于南加州大学的Mustafa Aljadery负责的,而他一直没交出训练代码。

业内关于“套壳”的争议由来已久。有人认为,开源就该被充分利用;有人则表示,闭源才是自主研发,参考开源就是套壳。

实际上,如今所有大模型都源于2017年谷歌大脑团队发布的Transformer神经网络架构,这些包含模型架构和算法的设计决定了模型如何处理输入数据并生成输出。在此基础上,厂商在大规模的数据上对大模型进行预训练,来提高模型的泛化能力,加速后续的学习任务推进。因神经网络架构和预训练这两项工作打造难度高、投入金额大、耗费数据量多,往往被称作大模型的内核。

而大模型的“壳”一般指调优。调优是指对已经预训练过的模型进行进一步的训练。这个过程通常是有监督的,需要使用标注好的数据来指导模型的学习。调优的目标是调整模型参数,使其更好地适应特定任务的需求。

“‘套壳’常指在调优阶段通过更改变量名称,在开源成果基础上调适出更加符合某些场景的大模型。”AI分析师张毅向时代周报记者称。

前语雀设计师、现AI助手Monica联合创始人Suki曾分享了“套壳”的四个阶段:一是直接引用OpenAI接口,ChatGPT 回答什么,套壳产品回答什么。卷UI、形态、成本。

二是构建prompt。如大模型可以类比为研发,Prompt可以类比为需求文档,需求文档越清晰,研发实现得越精准。套壳产品可以积累自己的优质Prompt,卷Prompt质量,卷 Prompt分发。

三是把特定数据集进行向量化,在部分场景构建自己的向量数据库,以达到可以回答 ChatGPT 回答不出来的问题。比如垂直领域、私人数据等。Embedding可以将段落文本编码成固定维度的向量,从而便于进行语义相似度的比较,相较于Prompt可以进行更精准的检索从而获得更专业的回答。

四是微调 Fine-Tuning。使用优质的问答数据进行二次训练,让模型更匹配对特定任务的理解。相较于 Embedding 和 Prompt 两者需要消耗大量的 token,微调是训练大模型本身,消耗的 token 更少,响应速度也更快。

“实际上,套壳是个相对正常的模式,针对某一垂直领域频繁进行调优司空见惯,该主题的研究论文也非常多。而抄袭框架和预训练数据的情况,一般得叫‘借壳’了。”张毅告诉时代周报记者,正因为大模型研发门槛高,入局者才更应审慎对待自研

    © 版权声明

    相关文章