|

股票

专家访谈:市场上有很多大模型注重市场化而非研发

来源:阿尔法工场

2024-05-06 11:05:49

(原标题:专家访谈:市场上有很多大模型注重市场化而非研发)

Q1: 目前大模型赛道可以粗略划分为偏重度研发的技术派和偏能快速商业化、 变现的市场派,所以想请教下智谱的战略定位?


A:首先, 创新是从思想、理论、方法、技术,到产品、市场。市场派关注更后端的产品和市场, 技术派关注前端的理论、方法和技术, 这其实是整个链条上不同层面的事情,不存在说非此即彼的关系。


只是有的公司会选择将大部分精力放到产品和市场上, 有的公司会把精力放在整个链条上, 重视理论、方法、技术、产品、市场的全链条创新。不同公司会从自身角度出发,做出不同的选择。智谱AI恰恰是属于后者。理论、方法、技术、产品、市场的全链条我们都坚持自研和创新。


智谱是由清华大学计算机系技术成果转化而来的公司,我们也全面对标OpenAI。我们不仅拥有世界领先性的AI技术水平,同时也在商业化层面获得了很大的进展。


在2023年,智谱AI已经合作了2000多家生态合作伙伴, 实现超1000个大模型规模化应用, 与超200家企业进行深度共创,期望实现全链条创新。


Q2:智谱AI当前的综合能力水平,以及相对于海外大模型的优势特点在哪里?


A:性能接近海外顶级模型。我们2024年1月份发布了基座大模型GLM-4,整体性能相比上一代大幅提升,逼近GPT-4。如果做一个比较量化的对比, 我们当时对标的对象是GPT-4,其性能的对比可以在很多方面上做到95%左右。

在比如中文对齐的任务下, 我们甚至可以略微超过它, 这就是我们与世界顶级水平能做到的相对水平(根据最新的海外伯克利Arena-Hard基准测试,GLM排名仅次于GPT-4 Turbo和Claude 3 Opus,在国内外模型中均处于领先地位)。也欢迎大家下载智谱清言体验下模型能力。

智谱是投入时间比较早,纯国产自研。我们从 2020 年就开始全面投入到大模型的研发里边, 拥有完全自主、自研、国产化的千亿级模型算法。并且, 我们实现了全栈国产化,从底层到模型层、应用层、应用接口PaaS层等,实现全栈的自主研发。

另外, 在整个大模型体系里边, 除了语言模型, 还有文生图模型、图生文模型、代码模型等多种模型。跟目前全球最先进的OpenAI相比, 我们的模型种类跟它形成了一一对标。

关于商业模式:

Q3:可不可以这么理解, 由于公司全栈自研, 底层安全, 所以在商业化上取得了头部的成绩?

A:是的。智谱确实做了比较多的商业化探索, 我们在2023年合作了2000多家生态合作伙伴,实现超1000个大模型规模化应用,与超200家企业进行深度共创。

具体的应用案例比如说, 德勤这样的会计师事务所用我们的大模型写报告、做数据分析等。金融机构用我们的大模型做客户经理赋能,还有做行业研究等工作。

我们的客户还包括蒙牛、上汽等行业龙头企业,这也给了我们在行业里很好的势能, 把大模型应用在千行百业。 尤其是在要保证数据安全和本地部署的企业。

安全角度来说, 智谱AI作为国内唯一全国产自研的大模型企业, 我们推出的GLM国产芯片适配计划, 面对不同类型的用户不同类型的芯片提供不同等级的认证和测试, 可真正实现安全可控。

今年3月,北京市人工智能产业投资基金参与我们最新的一轮融资, 也算是对我们的一种认可, 这个优势, 从某种意义上可以完全满足央国企以及有特殊要求的大型企业。

Q4:商业化方面,我们总被认为是偏2B的企业,2C方面怎么考虑?

A:我们认为C端和B端相辅相成,只是从商业模式上当前B端需求更成熟付费意愿更强,C端是未来我们布局的重点。B端保证了我们基础的规模化收入,并且B端收入还在迅猛增长, 现在我们这两块业务是属于齐头并进的发展态势。

我们认为,大模型是提供基础能力,基于大模型的开发未来会出现2C端的大模型杀手级应用,大模型会在生产端渗透和赋能, 跟千千万万的场景结合。所以我们希望跟更多的应用开发者合作, 研发出各种各样的垂类模型, 把大模型发挥出最大的效果。

比如今年1月,智谱清言上线的GLMs个性化智能体定制功能,能够根据用户意图, 自动理解、规划指令以完成复杂任务。用户用简单提示词指令就能创建属于自己的 GLM 智能体,让任何人都能实现大模型的便捷开发。

最近,智谱AI成为本届中关村论坛“科技办会合作伙伴 ”,基于智谱清言产品智能体能力, 打造了“2024中关村论坛年会”会务智能体,为与会者提供全面实时的会议信息、日 程查询、议题概览等服务。

类似这样的智能体在智谱清言已经有超过30万个,智谱开放平台的官方调用工具(包括搜索工具web search、函数调用function call和知识库retrieval)累积使用已超过3亿次,知识库沉淀超过100亿字内容。

Q5:OpenAI面向C端是收费的,现在国内面向C端的大模型应用还都没有收费,我可不可以这么理解, 正是由于国内C端付费现状, 所以我们B端的规模化收入保证了我们独特的先发或者竞争优势?

A:一定程度是的,B端的成熟商业模式让我们在盈利模式上领先于国内大模型公司,相对于纯研发, 我们有一定的自我造血能力,且能够获取B端客户的用户 需求做升级迭代。

关于文生视频模型

Q6:文生文大模型海内外呈现百花齐放的状况,以闭源为主的OpenAI的GPT4和Google的Gemini,以及开源为主的META的Llama 2和3,而国内大模型大部分也是基于开源的模式下进行再开发,但文生视频模型只有sora一枝独秀且是闭 源,当前国内文生视频大模型的突破关键和差距在哪里?

A:文生视频目前处于一个快速发展的阶段,预计今年将是文生视频大模型的爆发期,国内公司在文生视频技术方面的客户需求非常多样, 从电影拍摄到短视频、游戏制作等。智谱也将通过使用更高质量的数据和更大的参数,开发高质量的文生视频产品。

虽然Sora商业化还需要时间且当前未开源,国内此前落地的文生视频大模型基本上都是基于diffusion的扩散模型生成4s的“类视频”,4月份朱军老师团队VIDU的发布, 意味着国内开始真正实现突破, 时长达16s,且一致性和逻辑性都比较好。

他们的创始团队主要来自清华, 我们也都很熟悉, 智谱也参与了生数科技的投资,非常高兴看到他们在这个方向取得了很好的进展。

发展突破的关键,从技术选择和训练所用的高质量视频素材语料两个方面讲。

技术路线上,Transformer与Diffusion的结合架构如何在效率和效果上进行优化,如何解决连续帧之间的抖动问题, 如何在满足高分辨率的同时实现高一致性的长序列生成, 如何获取高质量数据泛化到更多更细节的真实场景, 都是技术上需要解决和通过大量实验试错的问题。

在数据集方面,此前Sora被评价模型对摄影术语(跟拍、平移、镜头切换)的 理解有限, 所生成的视频后期还需要对视频素材进行超分处理。公司会注重更全面的优质数据版权与使用,以做出高质量的文生视频模型。

出于公司一如既往与行业共创的战略, 我们同时也正在与行业头部公司深度探讨文生视频的行业应用与商业化落地,目前进展很快。

关于生态建设

Q7:智谱CEO曾提到“希望打造一个大模型生态,与生态中合作伙伴携手共进,把生态圈越做越大,这是更长远的商业化目标。”当前面壁智能、生数科技、无问芯穹等多家AI明星创业公司都出现智谱的身影,其具体战略和规划是怎样?

A:智谱AI一直专注技术实力, 对于中国的AI大模型创业圈, 清华大学背景团队的技术优势相对突出,智谱AI本身是由清华大学计算机系的技术成果转化而来,源自清华大学知识工程(KEG)实验室,投资AI创业公司是顺理成章的。

已投资十多家AI大模型产业相关创业公司 (面壁智能、生数科技、幂律智能核心团队等皆源自清华) ,投资案例的质量和数量处于行业领先位置。

智谱是少数极其看重生态圈建设的大模型公司, 因为就生态而言, 仅仅只有强大基座模型是不够的,只有打通大模型产业生态圈上下游,与客户、不同生态位的合作伙伴一道,才能推动中国人工智能产业全面发展。

包括GPU、服务器、算力集群,以及再往上还有底层软件、算力调度平台的支撑,到生态下游, 还有各场景中的应用。

智谱的对外投资,不仅仅是财务投资, 更多是通过各种形式与产业关键优质公司 “交朋友”,方式包括针对大模型创业者推出Z计划,以及相关公司投资持股、业务绑定,此外我们还有针对开源社区的开源基金,以及CCF-智谱大模型基金。

中文信息学会SMP-智谱大模型交叉学科基金等。 希望不断培育跟智谱大模型契合的生态体,在中国大模型的商业化、生态上迎来新进程。

Q8:展望未来,个人认为从AIGC到远景AGI,会极大的解放生产力和想象力, 会 极大的带来信息平权和促进自由平等, 想问下晓韬,您认为AGI什么时候能够真正到来?

A:2024年应该是向AGI发起冲锋的起始年份。Agent是通往AGI的关键,智谱最新一代GLM-4模型重点提升了Agent能力,在规划和执行方面相比之前几代模 型提升明显, 并且支持网页搜索、工具调用、代码执行、数据分析等操作,Agent能力大大提升。

在这一年里大概率可以看到比较实在的能够解决大家现实问题的应用出现。

证券之星资讯

2024-05-17

首页 股票 财经 基金 导航