LOADING...
LOADING...
LOADING...
当前位置: 玩币族首页 > 新闻观点 > 新巨头何时诞生?大模型等待“分水岭”

新巨头何时诞生?大模型等待“分水岭”

2023-07-07 AI之势 来源:区块链网络

来源 |?零壹财经

作者 | 沈拙言

图片来源:由无界 AI工具生成

2023年以来,科技圈最热的词语就是ChatGPT及其背后的大模型技术。

此前有百度文心一言、阿里云通义千问、华为盘古、科大讯飞星火等,近期李开复入局建立零一万物、火山引擎推出“火山方舟”。短短数月,各类企业研发和发布大模型应用已成潮流。

国内10亿级参数规模以上大模型已超80个,并且还在快速增加。一场围绕大模型的商业战争的备战氛围已经极为浓厚。

大巨头公司也好,小巨人企业也罢,都需要这样的动作展现自身对前沿科技的敏感度与长期以来的积累。早一步推出应用,便可早一日测试大模型与用户交互上的宝贵数据,在未来竞争中“广积粮,图称王”。

大模型的关键的还是AI领域要素——算法、算力、数据,以及场景/应用。算法代表策略,算力决定上限也设置了门槛,数据等同军粮也象征着优劣之分。三要素之外,场景/应用代表出兵方向。

“百模大战”一触即发, 要素齐备的巨头公司是否会演变成技术能力的无限内卷?垂直赛道的小巨头能否借助大模型夯实自己的领先地位?在获得门票的新玩家中,谁有可能是行业统治地位的有力竞争者?

通用大模型“实力分水岭”未现

大模型的玩家主要分为三类:一是在资源与场景上具备身位优势的互联网(百度、阿里、腾讯等)和产业巨头(中国电信与中国联通等),二是专研AI的人工智能公司(商汤、云从、光年之外等),最后一类则是以上海人工智能实验室、复旦大学、哈尔滨工业大学等为代表的科研院所单位。

根据公开数据,截至2023年7月初,我国10亿级参数规模以上大模型已超80个,且还在快速增加。该参数量的大模型越多,标志着竞争门槛将逐步拔高。

目前已经发布的大模型绝大多数属于通用大模型,原因主要有两种:一是大模型竞争尚不明朗,纯粹技术层面并未拉开代差,行业参与者都有机会称霸江湖;二是面向公众的应用型大模型仍未出现,缺乏较为明确的方向指引,在国内大模型的“Chat GPT时刻”出现前,投身通用大模型是既主动又被动的无奈之选。

何况,大模型领域极有可能走出一个新巨头。

周鸿祎认为,大模型必须“通用”,只有通用才能走进千家万户、赋能百行千业,进而主导人工智能新革命。

话中未尽之处是,需要多少投入和配合才能成为引领新革命的主导者。不管大模型是蓝海还是红海市场,必然要存在大鱼领衔、小鱼配合的生态结构,而目前大鱼和小鱼之间的实力分水岭仍未出现。

以当前局势看,10亿参数规模的大模型可以视为入局门槛,100亿参数规模的大模型可认为具备逐鹿天下的能力,但即使是1000亿参数规模的大模型也远未达到一骑绝尘的领先水平。

参数量并非决定战场局势的压倒性力量,资源调度能力、长期经验积累、大额科研投入等因素都是大模型竞争中长期存在的核心差异点。

要对标Open AI,需要看清Chat GPT爆发背后是微软在数据、算力、海量资金上的全面支持,才有了之后的厚积薄发。

大模型是长期投入的行业,简单来说就是“烧钱”。算力、算法与数据的积累非一夕之功,模型发布之后还需要反复训练、敏捷迭代,最终不断演变为“成熟体”。

放到现实环境下,大模型的玩家是技术驱动还是利益驱动?Open AI是当下全球最知名的大模型公司,即便手握Chat GPT这一爆款产品,其商业化能力仍然堪忧。作为一家逼近300亿美元市值的科技企业,2023年身处AI浪潮中心,Open AI至今收入仍不过2亿美元。

初期投入只是起始花费,之后每一次训练都需要真金白银往里砸,有多少公司能否接受大模型竞争中那少得可怜的投资回报率?Chat GPT的成功,证明了大模型在产品路径上的打通,但并不意味着商业层面的巨大成功。

至少在投入产出比层面,互联网巨头相对优势更大,他们有足够的动力和资源去支撑前期的战略性亏损,一如当年的阿里云。

至于到底烧钱要烧多久,何时才能看到喜人的投资回报,大公司不知道,创业公司的VC也不知道。这是一场随时可能离场的豪赌,而筹码动辄数十亿美金。

对于“人有我优”的大模型玩家而言,优先探索应用层,及早开放测试,谁能积累更为珍贵的交互数据,将是接下来竞争的破局点。

垂直之需与垂直之困

通用大模型的角逐,更多是基础设施制定权的争夺,而垂直大模型,则是在特定场景中依托开源大模型或API接口,在细分行业形成差异化竞争能力,更多聚焦在场景应用。

在通用大模型的战场上,随着时间推进,一些力有不逮的玩家会逐步掉队,最终只会存在寥寥数个通用大模型,起到基础设施的作用。同时,这些大模型还面临着同质化问题,应用层仍然要靠垂直大模型发力。

通用大模型像是多个垂直大模型的集合,训练场景越多,通用大模型的“通用性”越强。

作为国内最早发布类Chat GPT产品的公司,百度对大模型垂直应用层的需求十分紧迫。李彦宏表示:“比大模型数量更重要的是应用,是在垂直领域应用的突破。新的国际竞争战略关键点,不是有多少个大模型,而是大模型上有多少原生的应用,这些应用在多大程度上提升了生产效率。”

按照李彦宏的比喻,大模型尤其是通用大模型就像是AI时代的操作系统,所有的应用都将围绕着大模型开发,其上是应用层,包括各种各样的AI原生应用。

归根结底,所谓的“通用”只是一个相对概念,并不存在完全适用于所有领域、具备足够行业深度的通用大模型。以Chat GPT为例,真正得以广泛应用的仍是一些容错率较高的行业,即便大模型给出的解决方案出错,错误也局限在较为有限的范围内。而在重工业、航天、医疗等场景中,一次错误所造成的损失不可估量,即Chat GPT不能满足特定场景的垂直性、专业性要求。

要兼顾垂直性与专业性要求,数据是硬伤,数据深度足够且能形成稳定护城河的行业更少。这些行业的数据是否便于获得,已经获得的数据能否满足特定行业日新月异的要求,都很难具体评定。

互联网巨头拥有大量电商、社交、搜索等网络数据,但数据类型不够全面,数据质量也没有保障,中文可供训练的语料还需要做大量的挖掘工作。

近期在政务、公共安全、医疗等领域,垂直大模型正在陆续落地。例如,云知声在智慧医疗领域自研“山海”大模型,结合前端声音信号处理、声纹识别、语音识别、语音合成等全栈式智能语音交互技术,预计可提升医生的电子病历录入效率超过400%,节约单个患者问诊时间超过40%,提升医生门诊效率超过66%。

拓尔思基于自有的公文、政策文件、政务办事指南等数据作为专业训练数据,打造了政务专业大模型。

金融领域内,恒生电子2023年3月底开始筹划、设计金融大模型产品。6月末,恒生电子和旗下子公司恒生聚源发布基于大语言模型技术打造的数智金融新品——金融智能助手光子和全新升级的智能投研平台WarrenQ,恒生电子金融行业大模型LightGPT也首次对外亮相。

腾讯这种具备多个行业资源的互联网巨头则是多面下注。在6月下旬,腾讯公布的MaaS服务解决方案覆盖了金融、文旅、政务、教育等10个行业,共有超50个解决方案。

同时,垂直大模型所需要的数据往往并不局限在本行业,某些业务也许需要另一个或多个行业的数据整合,其模型训练和应用就依赖于企业的跨业合作或者互联网巨头的资源整合。

算力:力大砖飞?

在19世纪美国西部的淘金热中,淘金者能真正赚到钱是概率性事件,而卖铲子的人赚到钱则是必定性结果。

AI淘金热中,大模型的战场局势还不明朗,玩家尚在前赴后继,但“卖铲人”已经赢麻了。英伟达靠AI芯片与大模型的潮流拉开了与竞争对手AMD的差距,市值步入“万亿美元俱乐部”。

Open AI CEO萨姆·奥尔特曼提出了新版摩尔定律,即全球AI的运算量每隔18个月就会提升一倍。维持这些运算量需要AI训练芯片支持,而这一领域英伟达的市场份额超过90%。

英伟达的AI芯片产品被全球各大科技企业疯狂抢购:2023年3月,微软宣布已帮助OpenAI建设了一个新计算中心,配置了数万块A100;5月,Google推出了一个拥有2.6万块H100的计算集群ComputeEngineA3。另外,据国金证券信息,字节跳动今年已订购了超过10亿美元的GPU,到货和没到货的A100与H800预计有10万块。腾讯发布的腾讯云新版高性能计算服务中心也采用了上万块H800芯片。

英伟达CFO克雷斯表示,目前AI 算力市场的需求已经超出了公司对未来数个季度的预期,订单已经多到做不过来了。

当然,英伟达赚的钱,我们羡慕也没用。

国内GPU赛道也在迎头追赶,既有互联网巨头自研AI芯片,如百度AI芯片昆仑、腾讯视频处理芯片“沧海”和AI芯片“紫霄等,也涌现出燧原科技、天数智芯、摩尔线程等研发通用GPU的新兴公司。通用GPU用于各种通用任务,包括具有高度的并行计算能力和大规模的计算核心,是高性能GPU的“下位替代——平行替代”的主要产品,近年来也有大进步,与高性能GPU的差距也在逐步缩小中。

中国工程院院士邬贺铨建议,在国家科技与产业计划的协调下合理分工形成算力合力,开放国家实验室的算力平台支持各类大模型训练,同时建议组建算力联盟,集中已有高档GPU的算力资源,提供大模型数据训练所需算力。

除了高性能GPU之外,成本更低的算力平台也被认为是新的市场机会。近期九章云极便透露将继续与国资云厂商合作,把市场上大量的智算中心纳入合作伙伴范畴,向客户提供集软硬件于一体的AI模型研发平台,客户的费用将与算力绑定。

算力是发展大模型的基础,是必要条件而非充分条件,算力所能发挥的最大作用仍取决于使用方向。只有算法创新与数据资源建设、训练框架迭代齐头并进,才有创造“力大砖飞”的可能性。

政策:关键时刻的引导与规范

AI大爆炸时期,恰逢我国算法治理与算法备案的关键时刻。

早在2021年,《关于加强互联网信息服务算法综合治理的指导意见》就把算法备案管理作为监管体系完善的重要一环,此后的《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》都明确规定或提及,“具有舆论属性或者社会动员能力的算法推荐服务提供者应当履行备案手续”。

2023年4月,国家网信办起草了《生成式人工智能服务管理办法(征求意见稿)》,公开征求意见。6月,国务院印发的《国务院2023年度立法工作计划》显示,人工智能法草案等预备提请全国人大常委会审议。

《生成式人工智能服务管理办法(征求意见稿)》提及,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

这也是当前尚未有大模型产品面向公众的原因之一。

南开大学法学院副院长、中国新一代人工智能发展战略研究院特约研究员陈兵教授认为,监管前置并不必然会损害技术创新,但需要注意的是,由于事前审查会在一定程度上增加企业的合规成本,若事前审查范围设置不当,可能会抑制生成式AI产品的研发与训练效能,客观上会导致生成式AI发展的降速。

由于人工智能风险事前无法极为完善的预估,事后监管又有可能造成巨大损害,故而当前我国对人工智能发展采用全流程监管。

在全流程监管的规范下,大模型玩家的合规成本无疑会增加,备案制又促使着局内玩家优先谋求备案以将产品早一步推广至市场,客观上加速大浪淘沙的速度。法规的逐步完善伴随着行业洗牌、弱者掉队的过程,也能让拨云见日的时刻早一点到来。

—-

编译者/作者:AI之势

玩币族申明:玩币族作为开放的资讯翻译/分享平台,所提供的所有资讯仅代表作者个人观点,与玩币族平台立场无关,且不构成任何投资理财建议。文章版权归原作者所有。

知识 大模型
LOADING...
LOADING...