<p>百川智能已经成立超过一年了,据媒体报道,估值已经超过 130 亿人民币。</p>
尽管作为头部大模型公司,百川智能曾被朱啸虎点名为「技术也靠谱,创始人也靠谱」,普通用户对百川智能的技术和产品感知并不强。
其主要原因是,在此之前,百川智能并没有推出一款文心一言、Kimi 智能助手这样鲜明的针对 C 端用户的产品——直到昨天。
5 月 22 日,百川智能在北京召开发布会,发布自己的最新模型 Baichuan 4,并同时推出了自己的首款移动端应用——百小应。
百小应的定位为AI智能助手,与文心一言、Kimi 智能助手相似,但主打的特点是「懂搜索、会提问」,这点又与目前很火的 AI 搜索应用类似。
百川智能表示,并不想做普通的 AI 搜索——将搜索网页结果聚合起来,由大模型进行汇总,提供一个答案。而希望用搜索的能力,强化助手的概念。这让百小应的设计与普通 AI 搜索略有不同。
比如,在百小应的产品设计下,百小应会更希望能在用户提问后,对用户进行进一步追问,不在一轮搜索中,多抓取网页结果综合比对直接作答,而是通过多轮对话,独有搜索技术,通过搜索少量网页,精准地回答用户的问题。
除了能够搜索之外,百小应还能完成代码撰写、主题创作、活动策划等一般 AI 助手能完成的任务。
在 AI 圈的大新闻——国内大模型 api 纷纷降价的大背景下,此次百川智能推出了新模型,是否降价也受到了关注。不过在发布会上,王小川显得很淡然:「百川而言,API 是收入非常少的事情,也不会构成我们收入的重点。我们最终希望用超级模型,做出超级应用。因此对于国内大模型 API 调用降价,是吃瓜的态度。」
不过,王小川承认,此次推出的 Baichuan 4 和百小应,都还没有达到他心目中理想的「超级模型和超级应用」。「会有人问我是不是发应用发晚了,我其实觉得发早了。我认为大家之前发的各种应用只是模型的展示,大模型行业的 C 端应用都还在为百万 DAU 努力,行业没有成熟。」王小川表示。
对于此次发布的百小应,他表示这是一个能让行业内对百川智能有基础了解的机会,也是一个能让团队「转起来」的机会。「如果顺利的话在今年内会有大的升级变化,到时候的应用能够解决大家的刚需。」王小川表示。
百川智能行不行?用户可以亲自验证了
百川智能此次发布的百小应,取名自「一呼百应」,代表了百川智能希望 AI 助手能够真正解决人们的问题的愿景。
在 AppStore 里,目前就能下载到这款产品。
图片来源:截图
可以看到,百小应的应用,开屏主打,就是其搜索功能。
笔者简单试用了一下这款 app。与 AI 搜索应用不完全相同的是,在对百小应进行提问的时候,不一定会触发搜索功能,比如,在提问「百川智能是一家什么样的公司」时,百小应应该是调用了自己的知识库,直接给出了回答,而没有触发搜索功能。
在触发搜索功能时,相对于笔者用过的搜索产品,百小应阅读网页的时间似乎相对较长,但是生成回答的速度相对较快,给出的回答,也相对较长且结构化。
比如在询问「高通有哪些产品线」这一问题的时候,百小应给出的结果有八百多字,而秘塔搜索的「深入」模式(共有简洁、深入、研究三种模式)给出的回答大概为六百多字。Kimi 的回答大概五百多字。
在手机上看百小应的回答,要下拉三屏,第一反应还是感觉非常详细。
图片来源:截屏
和另外两个产品相比,百小应的另一个特点是,搜索的网页比较少——似乎在百小应的产品设计里,一轮搜索就是四个网页。
因为搜索的网页比较少,如何判断搜索的答案的精准性,也是百川智能的一个重要技术方向。百川智能表示,百小应的搜索背后有一些独特的能力,尤其是定位问题领域,访问权威网站的能力。「它搜索的时候不是只调用通用搜索,而知道在关键时候调用一些更关键的搜索引擎获得答案。」王小川表示。
在上面的搜索中,这一点似乎有所体现,在高通这一问题的四个网页中,其中第三个网页,是一个高通的官网链接,最后的回答,也主要以高通的官网链接,作为了主要参考。
而在我的另一部分搜索中,百小应会搜索八个网页——产品会显示「做了两轮搜索」。
这似乎也是百川智能搜索方向的一个独有设计。「我们做两轮搜索,是先搜一个词,获得答案或者启发之后,会激发它根据之前的搜索回应,进行第二次搜索。」
百川表示,百小应的另一部分独特能力,在于会提问。
百川智能自己提供了一个真实用户案例。「我们的员工问了百小应一个问题,引擎盖打不开了怎么办。国内流行的模型,回答大同小异,会提供一些办法。但是百小应会问你车的品牌以及型号,以及是哪年的车,然后去具体搜索维修点信息等等。」
图片来源:百川智能
这样的能力,确实在一般的 AI 搜索上较为少见,在一些商品信息推荐的应用上,则有所使用——在用户搜索推荐某个价位的耳机后,进一步询问用户的需求是室内还是户外。
在未来 AI 助手为人们提供更个性化服务方面,这样的功能,似乎是一个重要的组成部分。不过此次我在和百小应的聊天中,百小应追问能力表现并不明显。而对于用户而言,是否愿意打破之前搜索的习惯,多打字进行多轮回答,似乎也是一个未知数。
百小应也有普通的 AI 助手会出现的弱点——在对网上信息不足的问题进行搜索时,AI 很难给出准确的回答,甚至会一本正经地胡说八道。
王小川表示,目前的解决方法也只能是提供「引用校验」。当 AI 提供的回答嵌入了搜索结果的时候,后面会打个标,来自什么样的网页里面,由用户去判断其可靠性。
在之前的极客公园直播中,猎豹移动董事长兼 CEO 傅盛曾提到,部分 AI 搜索产品虽然会提供引用校验,但实际上标内内容与实际回答对不上,而在百小应中,引用标记并不是对应网页,而是直接对应到网页的特定文字,应该能为用户提供更强的可靠性。
Baichuan 4:发布首日SuperCLUE登上榜首
此次为百小应提供产品背后的搜索模型的,是百川新发布的 Baichuan 4 模型。
进入 2024 年,百川将新模型的发布节奏从每月变到每季度。上次百川发布新模型,还在 2024 年 1 月,发布 Baichuan 3 模型。
百川智能表示,相较 Baichuan 3,Baichuan 4 在各项能力上均有极大提升,其中通用能力提升超过 10%,数学和代码能力分别提升 14% 和 9%。
「SuperCLUE 目前是中国最公正的榜单。从结果上看,Baichuan 4 在 SuperCLUE 里理科目前排国内第一。文科因为是中文模型,明显有更大的优势,处于全球最好的位置。」王小川表示。
不过王小川的发布显然比较切近实际,并没有夸张宣称超越了 GPT-4:「在 SuperCLUE 上我们拿到第一,数据是真实的,但是并不代表能力上超过了 GPT-4。和国外模型作对比,能看到像知识百科、文本创作或者安全里是遥遥领先的,在代码、逻辑这几条线条里可以看到国际模型更加领先。」
图片来源:百川智能
Baichuan 4 模型有千亿参数规模,是闭源模型。「开源是我们去年立投名状时的一个动作。」王小川表示。
值得一提的是,此次百川也公布了自己的多模态方面的数据。
之前百川智能一直表示,智能源自语言,也曾公开宣布不追 Sora 这条技术线。
此次虽然王小川仍然坚持「多模态不具有智能。今天语言用着用着可能没数据了,人们在尝试是否能在图像视频里面能产生智能。不过,语言是白粉的话,图片就是面粉,它在里面蕴含的智能浓度低太多。」,仍然简单发布了 Baichuan4 的多模态能力,表示其多模态能力在各大评测基准上表现优异,领先 Gemini Pro、Claude3-sonnet 等多模态模型。
图片来源:百川智能
百小应,只是一个过渡产品
曾经提出过在大模型领域里颇具影响力的 TPF 理论(大模型时代,更重要的是找到技术和产品的契合)的王小川,此次终于带公司推出了第一款面向 C 端的产品。
搜索,一方面是百川智能一直以来强调的强项——百川智能 CEO 王小川曾任搜狗 CEO,在搜索领域深耕十几年。王小川强调,目前,百川能自建搜索能力,且在数据方面也有合作伙伴,这两方面都是百川智能的优势。
另一方面,搜索也是市场验证过的几个较为成功的 AI 应用场景之一——国外的 Perplexity.ai,国内的秘塔搜索等等,都是目前收获不少用户的明星大模型创业项目。
搜索领域,或许确实是百川智能不错的 TPF。
不过,在整个发布会上,明显能感觉到,百小应这种形态,并不是百川智能未来想做的超级产品。百川智能只是想把有搜索能力的助手作为未来超级应用的第一步——王小川定义这样未来的超级应用,应该是能解决人们的刚需的,能拥有近亿级用户。
不过究竟这样的应用是怎样的,未来是怎样的商业模式,王小川相对含糊其辞。其中「职业人士」这个词被提及多次。真正的超级应用,似乎是要等到模型能力足够成熟之后,替代「职业人士」才能出现。
「如果 AI 能像人一样工作像人一样学习,最后就会变成一个职业人士,往下会变成 AI 律师,AI 医生,AI HR,这种情况下跟人一样能提供人的供给,我觉得这种时候就可能出现超级应用。」王小川表示。当人们用医生的价格去衡量 AI 应用,而不是用娱乐价值、算力成本等方法来衡量 AI 应用,那确实将是用户付费率高涨的时候。
而在今天,百川推出百小应,似乎还没有开始担心商业模式的事情。
「做百小应,是在这个行业中,我们也需要有一个机会把它发上去,让行业端有基础的了解,也能让团队转起来。」王小川表示。
他还表示,从成本上而言,做搜索,建立索引库的技术成本相对是可控的。「现在最大的成本其实是在 Scale Up(把大模型参数规模做大),大模型中间的实验加上 Scale Up 这个钱,这个是远大于其他地方的。」
「我觉得现在谈商业模式是过早的事情。没有足够的用户价值、足够的体量,在这个情况下,不管是走流量模式,还是广告模式都是有意义的探索,但是我觉得有或没有,其实没有本质的区别。」王小川表示。
这是一个从 http://www.geekpark.net/news/335507 下的原始话题分离的讨论话题