近日,AI搜索引擎領(lǐng)域的創(chuàng)新企業(yè)Perplexity正式揭曉了其最新研發(fā)的Sonar搜索模型。這一模型是在Llama 3.3 70B的基礎(chǔ)上深化訓(xùn)練而成,專為搜索應(yīng)用定制,并搭載于Cerebras的推理基礎(chǔ)設(shè)施上運(yùn)行。
據(jù)Perplexity透露,新版Sonar的Token解碼速度驚人,每秒可達(dá)1200個(gè),這一速度遠(yuǎn)超Gemini 2.0 Flash的8.5倍,實(shí)現(xiàn)了近乎即時(shí)的答案生成,為用戶帶來(lái)前所未有的高效體驗(yàn)。
在回答質(zhì)量方面,新版Sonar同樣表現(xiàn)出色。Perplexity表示,用戶對(duì)新版Sonar的評(píng)價(jià)顯著超越了GPT-4o mini和Claude 3.5 Haiku,甚至與前沿模型Claude 3.5 Sonnet相比也毫不遜色,與GPT-4o的差距更是微乎其微。
新版Sonar的兩大核心競(jìng)爭(zhēng)力在于其卓越的事實(shí)性回答能力和對(duì)markdown格式的熟練運(yùn)用。這不僅確保了回答的準(zhǔn)確性,還大大提升了文本的可讀性,為用戶帶來(lái)了更加清晰、直觀的搜索體驗(yàn)。
目前,新版Sonar已經(jīng)向Perplexity Pro的訂閱用戶開放,并且將以API的形式對(duì)外提供服務(wù)。這一舉措標(biāo)志著Perplexity在AI搜索引擎領(lǐng)域邁出了堅(jiān)實(shí)的一步,也預(yù)示著未來(lái)搜索體驗(yàn)將迎來(lái)全新的變革。