地址:江苏省江阴市临港街道长江村滨江西路368号
电话:13914331777
手机:13906120099
邮箱:InFo@schuiyuanyuan.com
网址:http://m.xifuxianhuo.cn
近日,能一口气“吞下”200万个汉字的国产大模型Kimi爆火,引燃人工智能领域新一轮投资热情。
一个有着超大“内存”的智能助手,可以一口气读完20万字的小说,还会上网冲浪,这是一款名为Kimi的AI助手的官方介绍。
公开资料显示,月之暗面公司由“90后清华学霸”杨植麟创立,成立于2023年3月1日,团队成员包括来自谷歌、Meta、亚马逊等国际科技巨头的人才。
截至目前,月之暗面公司已完成三笔融资,获红杉中国、真格基金等机构投资。其最新一轮融资超10亿美元,投资方包括阿里、红杉中国、小红书、美团等,估值达25亿美元,是国内主要的大模型独角兽之一。
Kimi是人工智能初创公司月之暗面于2023年10月推出的一款智能助手,主要有“长文总结和生成、联网搜索、数据处理、编写代码、用户交互、翻译”6项功能,是全球首个支持输入20万汉字的智能助手产品。
Kimi Chat最多支持20万汉字的超长文本输入,是目前全球市场上能够产品化使用的大模型服务中所能支持的最长上下文输入长度。作为对比,Anthropic的Claude-100k模型支持约8万字,而OpenAI的GPT-4-32k只支持约2.5万字。
据报道,3月18日,月之暗面宣布Kimi智能助手启动200万字无损上下文内测,由20万汉字增至200万汉字,指出“过去要10000小时才能成为专家的领域,现在只需要10分钟,Kimi就能接近任何一个新领域的初级专家水平”。
20万字版本的Kimi助手可实现对、研报等的摘要总结。但对于百万字级别的长篇小说等,还无法进行解析。有业内人士分析,像长篇巨著《红楼梦》也就72万字,Kimi升级至200万超长文本输入,这意味着AI可以扮演书中的角色,甚至按照人类的想象去改编剧情,以后小说和阅读App领域会有彻底的颠覆。
华西证券研报指出,如果把上下文长度理解成大模型的“精力”,那么现在Kimi能够一口气精读500个甚至更多数量的文件,帮助用户快速分析所有文件的内容,并且支持通过自然语言进行信息查询和筛选。在Kimi还是20万字输入长度的时候,它的能力界限还在50个文件左右。在月之暗面提供的参考案例中,就展示了一次性向Kimi提供500份简历,并让Kimi找出对应要求的简历,结果Kimi可以精准地从众多简历中找到符合要求的资料。
华金证券指出,根据内测反馈,Kimi在卡牌游戏攻略、病症诊疗建议、财报分析解读、代码解析、人才资源筛选、文娱作品剧情分析等测试场景中均有良好表现。其一次性处理200万字的文本信息,这一能力在AI领域一骑绝尘。
申万宏源在测试中更是指出,国产大模型Kimi文字能力全面达到GPT-4水平。尽管Kimi逻辑推理能力与GPT4相比仍有差距,且其主打文字生成、目前无多模态能力,但中英文生成能力已经接近GPT-4水平。
随着内测效果的逐渐发酵,Kimi概念股成为资本市场追捧的热点。整体来看,相关的概念股主要集中在传媒领域。
比如华策影视拥有国内影视行业最大的全版权片库,掌阅科技接入Kimi尝试打造智能阅读App,中文在线拥有可用于模型的IP数据,中广天择为其提供数据支持和交易平台,深信服参与了月之暗面的融资,人民网则是Kimi内容合规的核心合作方和训练数据审核方……
而如上列举的,也仅仅是一众Kimi概念股中的一部分。一周时间里,沉寂已久的A场上迎来了一场久违的概念股炒作狂欢,其爆火的热度,以至于让一众互联网大厂们都坐不住了。
不过,从本周开始,Kimi概念股就开始相继熄火,比如此前涨幅不错的九安医疗和华策影视,股价都开始掉头向下,华策影视一度跌超9%。
自从2022年12月ChatGPT-3.5的发布之后,生成式AI的技术浪潮就已经开启。2023年2月开始,中国国内就涌现出众多的通用大模型和垂类大模型,目前国内公布的大模型数量已超过300个,市场竞争极度激烈。其中不乏号称要“几个月追平ChatGPT”的选手,也有因为大模型的巨大投入和高风险,而持观望批评态度的业内人士。
回望过去,中国企业的竞争方式一直是追赶、复制、模仿。然而,到了2024年开年,OpenAI新发布的Sora震惊四座,在中国市场却应者寥寥。或许市场情绪总需要找到一个标的——Kimi恰好搭上了这班流量和情绪的高速列车。有人认为,市场可能并不在乎它到底是Kimi还是别的什么,也不关心这家公司是不是存在颠覆式创新,只在乎是不是能通过AI概念的炒作,来“收割韭菜”。
不过,复盘Kimi的走红,爆火并非偶然,是其自身技术沉淀和商业化落地的必然,也是一场被制造出的必然。
一是产品定位上,这也是最为重要的。文本长度受限带来的“碎片化”输入,常常降低人工智能的“智能”。Kimi从一开始主打的方向就是长文本+To C,二者结合直接解决了用户AI搜索+文档总结的需求,同时长文本形式+显示来源的方式一定程度上增加了回答的可靠性。
例如,一篇英语长文如果让大模型来翻译,受限于输入长度要分割成几块,就可能出现前后不一致,比如“chair”在第一段输入时被译成“主席”,在第二段输入时被译作“椅子”。Kimi的长文本输入就解决了这个问题,比起“聊天机器人”,更像一个“智能助手”。Kimi远超同侪的长文本能力解锁了更多可能,包括完整代码库的分析理解、可以自主帮人类完成多步骤复杂任务的智能体、不会遗忘关键信息的终身助理、真正统一架构的多模态模型等。
二是采取多端联动的用户运营方式。我们发现,从用户使用入口来看,Kimi是较早布局网页、App和微信小程序的大模型公司,轻重并举的方式让Kimi能更快地围绕用户反馈做迭代。
三是推广裂变。从长文本的使用场景来看,早期产品使用者集中在科研、法律、金融、媒体等垂直领域,而这部分垂直领域的KOL为Kimi带来了自然流量与口碑积累。另一方面,Kimi也在近期加大了营销投放力度。
最为关注的,首先就是Kimi的商业化问题。目前大模型公司主要有三种创收模式:一是面向C端用户,为会员增值服务,在应用端按月/年向用户收费。与文心一言试水付费相比,Kimi目前依旧是免费模式。二是卖API,向公司或开发者按照调用次数收费,这也是包括Kimi在内诸多模型公司的基本操作。三是则是售卖B端的解决方案,例如推出行业/垂直大模型等。
Kimi从一开始就坚定地面向To C。与商业化相关的另一个挑战就是用户策略,在访问激增背后,Kimi同时面临获客和留客的双重挑战。
目前,包括阿里巴巴、360、百度等大厂均官宣开放长文本能力,对Kimi和月之暗面来说,新一轮的挑战已经开始了。而在此轮竞争中,Kimi是继续保持领先,还是昙花一现?留给这家企业需要回答的问题无疑还有很多。
《2024年中国AI大模型产业发展报告》指出,人工智能要实现真正的技术变革,也还面临着一系列挑战。
第一个挑战是算力短缺。随着大模型规模呈现指数级增长,算法越来越依赖高性能AI芯片。有市场研究公司报告称,去年仅Meta和微软两家公司就从英伟达处分别购买了15万块H100 GPU,各花去约45亿美元,但这还远远不够:基于H100的服务器的交付周期已经长达52周。
在国内,高性能AI芯片市场还因为进出口限制和技术瓶颈的双重影响,大模型产业发展正在受到算力层面的制约。
第二个挑战是大模型架构的局限性。如今的AI预训练大模型均采用自注意力机制的Transformer神经网络结构,所谓的Transformer模型,其实是一种基于自注意力机制的神经网络模型,能够用于处理序列数据。相比于传统的循环神经网络模型,Transformer模型能够更准确地捕捉单词的上下文和含义,因而成为了像GPT-4和ChatGPT这样的大语言模型的基础,同时也被应用于非语言领域,包括OpenAI的AI代码生成训练模型Codex、文生视频模型Sora和谷歌DeepMind的蛋白质折叠结构预测模型AlphaFold。它在自然语言处理等领域具有诸多优势,包括可实现完全并行计算、捕捉长距离依赖关系、模块化设计、处理不定长序列、结构扩展以及预训练效果好等等。
但随着人们的不断开发与扩展,Transformer固有的算力消耗资源大、内存占用多、泛化能力有局限性等问题也逐渐显现。
就连Transformer论文《Attention Is All You Need》的七位原作者在最近GTC大会的圆桌讨论上也表示,“这个世界需要比 Transformer 更好的东西,才能将我们带到新的‘性能高原’。”
对数据的运用,是制约大模型落地的另一个重要因素。对于从头开始训练的大模型,语料数据的质量很大程度上会影响模型能力。大模型对数据供给的要求极高,比如 OpenAI 在训练GPT-4时,就在大约13T token的数据上进行了训练,其中包括基于文本和基于代码的数据,以及来自ScaleAI和内部的一些微调数据。
相对而言,国内的AI大模型数据面临着数据类型不全面、信息可信度不高等问题。整体来看,可用于大模型训练的中文数据库相比英文数据,体量严重不足。
最后是期待更多爆款应用。ChatGPT 自发布以来迅速成为史上增速最快的消费级应用,提供支持的微软也将大模型技术引入到了Office、Teams甚至Windows操作系统中。而在国内科技公司的生态中,至今仍没有出现类似的爆款级应用,原因可能在于尚未找到商业化思路,技术、个性化程度仍未满足用户需求。
可以说,在生成式AI“百模大战”后,算法创新优化、生态构建和应用落地等任务,为正在构建AI技术体系的公司提出了更高的要求。只有少数脱颖而出者,才能获得未来大规模应用阶段的入场券。