豆包付费很正常,随着模型增大,推理一次的开销越来越夸张,更不提训练成本。
合理划分版本,比如基础版本只激活少量参数进行推理,上下文长度压缩到只有20万tokens以内,可以大幅压缩成本,获取效益,提高性能,提供更快的tokens输出。
当然了,国内市场一直是不喜欢付费软件的,豆包不一定有能够比肩闭源模型的实力。不过这未必是坏事儿。
绝大多数人的日常需求,只是超级简单的“智能的搜索引擎”。专业化需求,比如coding,才需要超长上下文和超大参数模型,实现更优效果。
字节跳动的商业化能力很强。不知不觉,已经缔造了一个年营收1.5万亿,利润率巨高的行业帝国。
我觉得,这是它的一次商业试探。如果成功,字节跳动可能会在人工智能领域,投入更多的算力人力财力。