中国房子盖了2000年,直至汉朝初期,才开始出现“建筑图纸”。
图纸的出现,使建筑史进入了快速发展期,汉朝之后,中国建筑类型开始百花齐放,也通过不同房屋类型,出现了餐厅、书房、旅馆等功能性建筑。
大模型的路,也正在经历从摸着OpenAI过河,到按图索骥的阶段。
不做通用大模型,做一个“卖铲人”,是火山引擎选择的路。
求本溯源,当下选择的路,往往在未来的目标之中。火山引擎总裁谭待在接受光锥智能等访谈时表示:“多云多模型时代将成为确定性的趋势。在未来,企业自身对于大模型的应用,将会是一个‘1 + N’的应用模式,即一个主力模型和N个模型协作的模式。”
多云多模型的时代,一定需要平台去建立生态,串联上下游。就像房子会越盖越多,需要不同公司满足多元化的住户需求,也需要建筑设计、钢筋水泥、软硬装修等一整套产业链。对应到大模型服务平台,就需要一边递图纸、锤子钉子、铲子等工具,帮大模型打造好;一边要对接模型方和需求方,通过链接完成商业闭环。
可以说,火山方舟作为一个大模型服务平台,是“模型商城+模型工具”的集合。
MaaS(模型即服务)的概念如火如荼,但想要落地却非常不容易。
整个大模型的产业链条中,分为三个重点角色:一是模型的提供方,如OpenAI、谷歌、百度、阿里、MiniMax等打造通用大模型的厂商,他们打造的通用大模型,被称为基座模型;二是模型的使用方,不同企业将基座大模型通过精调和特殊数据的喂养为行业大模型;三是,大模型的终端客户/用户。
相比海外市场在应用方面的火爆,中国市场仍然处在一个探索期。一方面,国内大模型百花齐放,但通用大模型仍然在不断训练和提升当中,追赶GPT-4的涌现能力;另一方面,想把大模型用起来的企业要么不知道如何决策,要么体验后效果并不尽如人意。
基于上述痛点,火山引擎将大模型服务平台的作用分为两个大方面,一个是模型商城,一个是模型工具。
模型商城,顾名思义,就是让市面上的大模型都尽量入驻,供模型需求方挑选。
据光锥智能了解到,目前,“火山方舟”集成了百川智能、出门问问、复旦大学MOSS、IDEA研究院、澜舟科技、MiniMax、智谱AI等7家AI科技公司及科研院所的大模型,统一对外提供服务。
这种吸纳多家初创大模型的做法,和此前业界初期普遍认为的“大模型是巨头的游戏”,“行业只需要极少数通用大模型,其余都是行业大模型”的想法并不完全一致。
火山引擎智能算法负责人吴迪认为,大模型市场会形成三级火箭:第一级是大模型提供商和研究机构,提供极具竞争性的通用基座模型或行业垂直模型。第二级是大量颇具技术能力的公司,形成1+N的模型格局,1个迭代自研模型的同时,引用若干商用模型。第三级则是千行百业都从大模型中获益,通过调用接口、精调模型,打造应用。在提升自身公司经营效率的同时, 把大模型能力输送到我们生活的方方面面。
如果未来的格局是多云多模型的情况,那一定需要一个“模型商城”来聚合提供商和使用方。
比如,在火山方舟“模型广场”中会有不同的模型供应商提供不同版本、参数、擅长不同领域的模型,使用方可以直接调用API 接入使用环境,也可以使用精调工具来做二次调优,再部署使用。
光锥智能曾在4月份调研多位SaaS厂商使用大模型的情况发现,大模型接入并不是“排他性”的,SaaS厂商更愿意同时接入多个大模型。这是因为接入成本并不高,多一个模型就多一个选择、多一个能力、多一重保障。比如,万兴科技就在海外业务中接入ChatGPT,国内业务接入文心一言。
而对于有大模型能力的厂商,不仅可以成为大模型的提供方,也能同时是需求方。比如,一家自研大语言模型的厂商,也可以接入其他大模型多模态的能力,让自己的产品更加多元化。
可以说,没有全能的大模型,但可以有全能的模型商城。
为了能帮企业选择与自己更适配的基座模型,火山方舟推出“模型评估”功能,支持用户基于自身数据、系统化地感知模型表现情况,并且给出详细的测评报告,为后续做决策提供数据基础。
对很多模型需求方来讲,并不是一味追求参数。参数大、性能强的,可能性价比不高。“一个经过良好精调的中小规格模型,在特定工作上的表现可能不亚于通用的、巨大的基座模型,而推理成本可以降低到原来的十分之一。”吴迪称。
而在模型评估之后,还需要进一步做模型精调,技术门槛和成本门槛是两个最大的拦路虎。
如果没有大模型服务平台,对于很多需求方而言,模型精调首先技术门槛比较高,既需要完整的数据能力,也需要有丰富的算法实践经验;其次对算力要求也不小,公有云的弹性廉价资源可以极大地降低成本。
为了解决上述问题,火山方舟提供“模型精调”能力,由平台提供极简精调流程,客户选择基础模型,上传标注数据集后即可精调;同时对于有复杂需求的场景,客户可以设置高级参数、验证集、测试集等更丰富功能,更自由的使用模型精调功能。
总之,火山方舟希望解决模型使用方的痛点,用更少的钱、更强的算力使用“更快的推理能力”。而对模型提供方来讲,只有把大模型用起来,才能进一步迭代成长。
仅仅完成商业逻辑上的闭环,对大模型生态来说,还远远不够。除了大模型的核心能力,还需要更深厚的内功。
“企业使用大模型,首先要解决安全与信任问题”,谭待表示。
据网络安全公司Cyberhaven的调查,至少有 4%的员工将企业敏感数据输入 ChatGPT,敏感数据占输入内容的比例高达 11%。2023 年初,三星公司在使用 ChatGPT不到20天时,就发现其半导体设备相关机密数据被泄露,并连续发生3起类似事故。
在多云多模型的时代,安全信任是所有大模型使用的底线。这里的安全,并不只是大模型内部的安全,而是模型提供方和使用方连接时的双向信任。谭待介绍到,大模型服务商会考虑到知识产权问题,不希望方案和代码被泄露;而使用者和企业更希望保障自身、prompt和精调数据的安全。
为此,火山方舟通过安全沙箱、联邦学习、硬件支持等方式保证双方的安全连接,类似于第三方托管平台的角色。
“火山方舟”已上线了基于安全沙箱的大模型安全互信计算方案,利用计算隔离、存储隔离、网络隔离、流量审计等方式,实现了模型的机密性、完整性和可用性保证,适用于对训练和推理延时要求较低的客户。
吴迪表示,“火山方舟”还在探索基于英伟达Nvidia新一代硬件支持的可信计算环境、基于联邦学习的数据资产分离等多种方式的安全互信计算方案,更全面地满足大模型在不同业务场景的数据安全要求。
在安全的基础上,大模型落地更多是一个事无巨细的工程化能力,这就需要许多工具帮助其实现。
回想ChatGPT从刚刚问世到如今,OpenAI一直在打造生态壁垒:
- 3月份,很快GPT-4问世,面向企业用户进行内测,与此同时,OpenAI开放了ChatGPT的API接口,一众企业和开发者蜂拥而至,据不完全统计,目前基于GPT接口打造的应用超过1000个;
- 6月份,OpenAI计划推出类似“APP Store”的大模型商店,将上面1000个应用能够上架在应用商店中,并可以开源垂直领域的聊天机器人和定制的模型;
如此一步步走来,OpenAI在4个月之内,从一个模型的提供方发展为了模型生态。换句话说,谷歌可以在不到一个月之内推出一个新的大模型,但无法短时间内再形成1000个应用。
火山方舟的价值也在于此,精调后的模型在具体的业务中历练,而应用端也有更加源源不断模型资源可调配。吴迪透露,后续火山方舟计划提供更多的插件,包括实时信息获取、私域文档问答召回、Prompt补全与构建等,并会为插件配套数据集。