DeepSeek火爆,最開心的廠商肯定是騰訊。
因?yàn)椋?dāng)每家公司都接入DeepSeek,模型都一樣,模型能力都拉齊之后,拼的是什么?拼產(chǎn)品。那么,拼產(chǎn)品,騰訊有怕過誰?更何況,除了DeepSeek,騰訊手里還有自研的混元大模型。
你發(fā)現(xiàn)沒有,過完年的這段時(shí)間,一直很佛系、很隨緣的騰訊突然變得兇狠、堅(jiān)決了許多?
在B端,騰訊云把DeepSeek融入核心產(chǎn)品線,而且還推出基于DeepSeek的云服務(wù)和解決方案。
在C端,元寶一口氣沖到APP Store免費(fèi)榜亞軍的位置,力壓Kimi、豆包,僅次于DeepSeek官方APP。
我認(rèn)為,普通人用AI,從元寶開始肯定是最佳的AI啟蒙工具。我之前發(fā)的視頻,大部分都是面向有一定基礎(chǔ)的用戶。然后每隔一兩天就會(huì)有人私信問,純小白該怎么上手AI?
很簡(jiǎn)單:AI時(shí)代最高效的學(xué)習(xí)方式就是Learning by doing。上手用起來,并且平時(shí)高頻率使用,比你看一百篇教程都重要。而元寶就是普通用戶、非Early Adopter的第一入口。三個(gè)原因。
第一,全場(chǎng)景覆蓋。
用AI跟拍照其實(shí)是一個(gè)道理。能帶出去的相機(jī)就是好相機(jī)。同樣地,能讓你隨時(shí)用上AI的產(chǎn)品就是好產(chǎn)品。
元寶有全平臺(tái)的網(wǎng)頁版,Mac和Windows雙支持的電腦客戶端、iOS和安卓雙支持的手機(jī)APP,以及不需要安裝的微信小程序。
四端實(shí)時(shí)同步的特性,完美適配多場(chǎng)景切換。比如在電腦端沒有完成的對(duì)話,外出時(shí)可通過APP繼續(xù)討論。我一般會(huì)把那些需要反復(fù)討論的聊天置頂,這樣下次就不用去歷史記錄里找半天了。
在這些基礎(chǔ)功能之上,騰訊還做了一件只有騰訊能做到的事:
從微信里導(dǎo)入文檔。
我相信,90%以上的用戶把微信的“文件傳輸助手”當(dāng)做“文件存放助手”來用,啥都往里放。因?yàn)樵谑謾C(jī)上,微信是第一入口。在微信里找文檔是順理成章的事兒。
那么,很自然地,在手機(jī)上,如果要把文檔給到AI去分析,從微信直接導(dǎo)入過去是最方便的。
所以,當(dāng)你在元寶APP里點(diǎn)擊右下角的加號(hào)按鈕時(shí),會(huì)看到“微信文件”這個(gè)選項(xiàng)。它會(huì)跳到微信,然后通過元寶小程序作為橋梁,實(shí)現(xiàn)微信文件傳輸這個(gè)功能?;蛘叻催^來,直接在微信里“用其他應(yīng)用打開”、選擇元寶也可以。
你看,這個(gè)就叫產(chǎn)品能力。看起來很小的一個(gè)功能點(diǎn),但是很實(shí)用、很貼心。這個(gè)就是典型的騰訊風(fēng)格。
我挺希望接下來能有更多微信和元寶之間的聯(lián)動(dòng)的。比如,一篇很長(zhǎng)的公眾號(hào)文章,點(diǎn)右上角的轉(zhuǎn)發(fā)按鈕,能有一個(gè)“在元寶中打開”的選項(xiàng)。然后也像現(xiàn)在的“深度閱讀文檔”那樣,給出總結(jié)、精讀和腦圖三個(gè)選項(xiàng)。我相信這肯定會(huì)成為爆款功能的。
第二,雙模型支持。
DeepSeek-R1很好,但是它并適合所有使用情況。
像R1這類推理模型,通過多階段訓(xùn)練,尤其是強(qiáng)化學(xué)習(xí),最終獲得了逐步推理和思維鏈的構(gòu)建能力。于是,它們?cè)诿鎸?duì)復(fù)雜問題的時(shí)候,會(huì)先分析問題、識(shí)別關(guān)鍵點(diǎn),再逐步得出結(jié)論。
但是,我們?nèi)粘J褂玫臅r(shí)候,所有問題都是復(fù)雜問題嗎?所有問題都值得等個(gè)好幾秒才能獲得答案嗎?
顯然不是啊。所以,光有DeepSeek-R1還不夠,還得有別的模型。這個(gè)時(shí)候,自研能力的重要性就體現(xiàn)出來了。
前兩天,騰訊上線了混元Turbo S模型。如果把DeepSeek-R1、混元T1稱為“慢思考模型”的話,那么混元Turbo S就是“快思考”模型。它首字時(shí)延更低、吐字速度更快。兩個(gè)字總結(jié):
秒回。
在元寶里,當(dāng)你選擇混元模型,把“深度思考”按鈕關(guān)了之后,就是用混元Turbo S做快問快答了。
說真的,我之前用了一段時(shí)間R1,每次看到一個(gè)簡(jiǎn)單的問題,它在那邊琢磨半天,我都特別無語。比如,我說個(gè)“哈嘍”,它想了5秒才回答,內(nèi)心戲太足,有一種賽博朋克的荒誕感。
所以,“慢思考”加“快思考”,雙模型搭配,日常使用效率才高。
第三,騰訊加持版R1。
現(xiàn)代大模型已進(jìn)化為“應(yīng)用平臺(tái)”。兩年前的模型,基本就是單純的文字對(duì)話。而今天的模型多了許多關(guān)鍵功能。
比如你看Google的Gemini 2.0,強(qiáng)調(diào)“原生”的概念——原生的圖像生成,原生的文字轉(zhuǎn)語音,原生的工具使用。
這種大集成的目標(biāo),是為了打造一個(gè)universal AI assistant。這也成為現(xiàn)在旗艦?zāi)P偷臉?biāo)配。
國(guó)內(nèi)媒體為了流量,在吹捧DeepSeek-R1的時(shí)候,只聚焦在它的推理能力上,其它方面有意不提。所以,給R1加上更多工具、更多功能的任務(wù),就落到應(yīng)用廠商身上了。在這方面,元寶有兩個(gè)點(diǎn)我特別喜歡。
一是搜索來源包括公眾號(hào)文章。
中文互聯(lián)網(wǎng)這幾年泥沙俱下,能看的內(nèi)容不多了。所以我在用Perplexity之類的工具時(shí),都會(huì)在Prompt里特意強(qiáng)調(diào):即使我用中文提問,你也給我去搜英文的網(wǎng)頁。
如果要說還有哪里有不錯(cuò)的內(nèi)容的話,那應(yīng)該只剩公眾號(hào)了。這個(gè)平臺(tái)的內(nèi)容屬于騰訊的獨(dú)家資源。這次元寶的搜索就用上了。
公眾號(hào)的高質(zhì)量?jī)?nèi)容,加上DeepSeek-R1的強(qiáng)推理能力,等于Quality in,quality out。
二是圖片識(shí)別能力。
R1本身是不具備識(shí)圖能力的。所以,包括DeepSeek官方在內(nèi)的應(yīng)用,都是添加一個(gè)OCR的功能,把圖片上的文字提取出來,然后給到模型繼續(xù)處理。
但是,如果圖上沒有文字,我就是想分析純圖片呢?
這個(gè)就是騰訊對(duì)R1的第二個(gè)加持。他們先對(duì)圖片內(nèi)容進(jìn)行分析,把結(jié)果給到R1做回答參考。
比如我拍了一張工位的照片。在DeepSeek官網(wǎng),它會(huì)提示“未提取到文字”。而在元寶中,R1就能準(zhǔn)確對(duì)圖片進(jìn)行描述。
跑個(gè)671B的R1,那不叫滿血版。能搜到好內(nèi)容,能讀出圖片,才是R1的滿血狀態(tài)。
DeepSeek-R1的出現(xiàn),是行業(yè)一個(gè)非常明確的信號(hào)。很多公司都接收到了,也做出動(dòng)作,但是只有騰訊擁抱得最徹底。
當(dāng)你有超級(jí)流量和超強(qiáng)產(chǎn)品能力,想要在C端獲客、后來居上,就是一哆嗦的事兒——內(nèi)部導(dǎo)流、外部投放,這誰不會(huì)啊?當(dāng)你有足夠強(qiáng)的自研能力,能夠做出差異化的模型來,那就不會(huì)在要不要接入開源模型這種事上糾結(jié)。
所以,當(dāng)騰訊加入戰(zhàn)場(chǎng)后,行業(yè)內(nèi)的大大小小公司都得想想接下來該怎么做了。而對(duì)普通用戶來說,趕緊上車吧,門檻已經(jīng)很低了。還是那句話:
AI不會(huì)替代你,用AI的人才會(huì)。





暫無評(píng)論,快來評(píng)論吧!