自从ChatGPT问世以来,大模型成为了风口上的猪。现在的国内国外,少说也有上百个大模型了吧。
作为互联网行业巨头的字节跳动,一直没有大模型方面的消息,这下终于来了。
6月28日,火山引擎正式发布了大模型服务平台“火山方舟”。
面向企业开发者提供大模型精调、评测、推理、干预等全方位大模型服务的企业级大模型应用平台。
这个定义听起来可能过于技术性,简单来说,就是字节没有跟风搞大模型,而是搞了一个装大模型的盒子。
以后不管谁生产出来大模型,都可以直接部署在火山方舟上。
谁想使用大模型,也可以直接在火山方舟上调用。
这是不是和抖音有点像。
视频博主生产了视频可以在抖音上发布,用户在抖音上看视频学习、娱乐,用户满足了,视频博主也获得了收益。
所以,字节的火山方舟,正在大模型领域复刻抖音的模式。
字节为什么走这条路、怎么走,能走通吗?
咱们一个一个说。
首先,字节为什么走这条路。
我们都知道,大模型有三要素,分别是算法、算力和数据。
但是在字节看来,除了这三要素,还不够。还要安全与信任,还要性价比,还要生态系统。
对,你没有听错,大模型也要生态系统,而这也是火山方舟的出发点,一个多云多模型的生态系统。
现在大模型风起云涌,相关创业公司如雨后春笋般层出不穷。
对于体量大点的公司,做出来大模型可能会开一个小的发布会,向社会宣传自己的大模型特点。
但更多的是小体量初创公司,它们没有足够的资源来召开发布会。
所以,做出来大模型只是第一步,紧接着,就会出现一个问题,大模型做出来找不到客户,而有需求的客户又找不到适合自己的大模型。
而这,就是字节看到的机会,一端连接优质的大模型厂商,另一端连接大模型应用方。
那这条路怎么走。
如果只是做一个集成、分发的平台,绝对没有竞争壁垒。
就算头条、抖音沉淀了用户连接、流量分发、信息推荐这些经验,在大模型生态上,还远远不够。
火山引擎给出的答案是,安全和性价比。
自2022年底发布以来,ChatGPT迅速成为了人类历史上最快获得上亿用户的消费级互联网应用。
最新的GPT4更是在法律、数学、生物学等领域的多项测试中超过90%的人类。
但是,也就在ChatGPT问世后的短短几月,先后有亚马逊、摩根大通、三星、苹果等多家科技公司限制使用ChatGPT。
甚至有很多国家都限制使用ChatGPT,比如意大利、古巴、伊朗等。
之所以限制,一个很大的原因,就是担心信息安全。
为了解决这个问题,火山方舟提供可信的计算环境,通过联邦学习将数据资产分离,同时提供一个安全沙箱。
以此来保护模型提供方的知识资产,同时也让模型使用方调用的输入输出不被获取和记录。
作为中间商,火山方舟相比真正的模型提供方,的确更容易做成这件事。
另一方面,性价比。
在大模型搭建上,交给专门开发模型的公司,火山引擎则通过在云计算、销售网络、交付团队等方面的经验积累,可帮助模型提供方解决模型训练成本高、使用门槛高、用户触达壁垒高等问题。
对模型使用方而言。
GPT-4是厉害,但不是每个公司都需要一个GPT-4,更多公司需要的是小而精的中型模型。
实际场景上,不一定都要上千亿参数的模型,很多可能百亿量级,甚至十亿量级就足够了。
毕竟随着参数量的增加,就意味着计算成本的增加,如果坚持使用超大模型,有时候性价比就不够高了。
所以在字节看来,未来大模型领域,会是由少数超级大模型、多个大模型、很多行业/垂直领域模型组成一个生态系统。
这样按需使用,对使用方而言,性价比也是最高的。
最后,这条路,能走通吗?
这条路的商业模式,理论上是通的,而且,这也有可能是字节在大模型领域弯道超车的机会。
毕竟字节在大模型领域,相比百度、阿里、腾讯、华为这类公司的深耕来说,可以说丝毫不占优势。
但也正是如此,字节没有陷入任何一个具体的大模型中,让自己有更广的视角看待大模型行业。
也正因为没有自己的大模型,做集成平台,也更容易得到大家的信任。
所以,字节算是选了一条捷径,成功的可能性还不小。不过,咱们这里也为火山方舟泼点冷水。
在云计算方面,国内有阿里云、百度智能云、华为云、腾讯云等很多强劲的对手,国外还有亚马逊AWS、微软Azure、google cloud。
在隐私计算、可信计算等方面,国内外也有很多云上解决方案。
而至于性价比,则是在有较多生产者和消费者基础上,通过智能调度才能逐渐体现出来。
所以,火山方舟这条路,选择很聪明,可也并不好走,需要给市场一个选择自己的充分的理由。