• <bdo id="qgeso"></bdo>
        • <strike id="qgeso"></strike>
        • <sup id="qgeso"></sup><center id="qgeso"></center>
        • <input id="qgeso"></input>

          大模型時代AI應(yīng)用生存法則:以數(shù)據(jù)和RAG構(gòu)建核心壁壘

          首頁 > 快訊 > > 正文

          日期:2025-05-23 16:45:58    來源:今日熱點網(wǎng)    

          截至2025年,生成式AI大模型的能力仍在迅速提升。如果關(guān)注這個領(lǐng)域,會發(fā)現(xiàn)有不少創(chuàng)業(yè)者花大量精力打造的AI應(yīng)用,但往往很快就被新一代大模型“原生功能”所取代。

          這一類應(yīng)用被歸類是Prompt(提示詞)包裝層應(yīng)用,這些應(yīng)用通過設(shè)計提示詞調(diào)用大模型基礎(chǔ)能力,但沒有構(gòu)建更深層次業(yè)務(wù)價值。因為應(yīng)用的價值主要靠大模型的原始能力,所以很容易被不斷變強的大模型取代。

          如何開發(fā)出不容易被大模型“抄家”的AI應(yīng)用?

          對此,英特爾技術(shù)專家認(rèn)為,大模型應(yīng)用開發(fā)不應(yīng)僅僅沿著大模型本身能力的延展,直接基于大模型開發(fā)智能體,這樣很容易隨著大模型能力的提升而被淘汰。大模型應(yīng)用開發(fā)要從大模型不擅長或無法克服的點進(jìn)行切入,如解決數(shù)據(jù)地基的問題。

          目前大模型最明顯的兩個問題都與數(shù)據(jù)有關(guān)。

          首當(dāng)其沖的就是幻覺。大模型本質(zhì)上是在做概率運算,輸出的內(nèi)容越多,概率偏差就越大。此外,訓(xùn)練數(shù)據(jù)質(zhì)量也會導(dǎo)致幻覺。而要在短期內(nèi)徹底消除幻覺問題,則需要根本性的技術(shù)變革為前提。

          第二,是大模型的知識無法實時更新。大模型預(yù)訓(xùn)練都有固定的時間,可能是幾個月甚至是幾年之前,完全不知道新發(fā)生的事情,無法及時更新自己的知識庫。做出的回答也只能基于舊的已知內(nèi)容。

          針對這兩大問題,業(yè)內(nèi)達(dá)成的共識就是基于RAG(檢索增強生成)構(gòu)建知識庫,它在預(yù)訓(xùn)練的大模型基礎(chǔ)上連接外部的數(shù)據(jù)源,所有的任務(wù)和回答的內(nèi)容上下文都從知識庫中提取,然后,由大模型做出回答。

          具體操作中,企業(yè)需要把內(nèi)部的文檔資料轉(zhuǎn)化為機(jī)器能讀懂的形式。先對文檔進(jìn)行切分,然后再進(jìn)行向量化處理,最后存到向量數(shù)據(jù)庫里。當(dāng)用戶提出問題時,問題也被轉(zhuǎn)成向量,基于這些在向量數(shù)據(jù)庫里進(jìn)行檢索,最后根據(jù)檢索到的內(nèi)容生成答復(fù)。

          在生成答復(fù)的時候,召回率和準(zhǔn)確率是非常關(guān)鍵的指標(biāo)。召回率看的是,在所有“真正相關(guān)”的文檔中,有多少被檢索到了。而準(zhǔn)確率Precision看的是,在所有被檢索出來的文檔中,有多少是“真正相關(guān)”的。

          英特爾專家表示,當(dāng)看到這些技術(shù)細(xì)節(jié)后,就應(yīng)該意識到,大模型的效果受到太多因素或環(huán)節(jié)的影響。比如,負(fù)責(zé)把文本轉(zhuǎn)換成向量的Embedding模型的選擇,切分文檔的大小,檢索數(shù)據(jù)的處理等等都會影響最后生成的結(jié)果。

          在英特爾專家看來,做大模型開發(fā),直接從智能體開始或許不是最優(yōu)選。數(shù)據(jù)基礎(chǔ)上的微小差異,最終效果可能會差出很多。換言之,如果能處理好數(shù)據(jù)本身,而不只是單純依靠大模型本身的表現(xiàn),則會創(chuàng)造更多不可替代的價值。

          快速上手,在云上構(gòu)建企業(yè)級RAG開發(fā)環(huán)境

          目前,國內(nèi)外多家大型企業(yè)都基于大語言模型和RAG技術(shù)構(gòu)建了企業(yè)知識庫,而且很多一線員工都非常認(rèn)可。鑒于RAG知識庫對企業(yè)非常重要,火山引擎推出了支持RAG場景的云主機(jī)鏡像。

          火山引擎在大模型服務(wù)領(lǐng)域表現(xiàn)非常亮眼。根據(jù)IDC發(fā)布的《中國公有云大模型服務(wù)市場格局分析,1Q25》報告,火山引擎在2024年中國公有云大模型調(diào)用量市場中占據(jù)了46.4%的份額,位居第一。

          火山引擎不僅有火山方舟這種大模型服務(wù)平臺,還有扣子(Coze)這類低代碼AI應(yīng)用開發(fā)平臺,以及HiAgent這樣的企業(yè)專屬AI應(yīng)用創(chuàng)新平臺。新推出的RAG鏡像則是讓普通開發(fā)者以更低的門檻,開發(fā)出不容易被大模型“抄家”的AI應(yīng)用。

          RAG鏡像中不僅包含Embedding(嵌入式)模塊,還有向量數(shù)據(jù)庫、Re-rank模型和7B的DeepSeek蒸餾模型,甚至還提供了數(shù)據(jù)預(yù)處理服務(wù),以及處理在線問答服務(wù)的模塊和前端頁面,而且所有軟件棧都經(jīng)過了提前優(yōu)化。

          火山引擎的RAG鏡像作為面向企業(yè)的服務(wù),參考了OPEA的架構(gòu)。OPEA是英特爾在去年發(fā)起的開源社區(qū),利用開放架構(gòu)和模塊化組件的方式,幫助企業(yè)構(gòu)建可擴(kuò)展的AI應(yīng)用部署基礎(chǔ)。相比普通的開源架構(gòu),火山引擎的鏡像具備更多企業(yè)級特性。

          很多云廠商也提供了RAG服務(wù),這些服務(wù)對普通用戶來說門檻更低,但對于專業(yè)開發(fā)者而言,這些“黑盒”屏蔽了大量技術(shù)細(xì)節(jié)。而火山引擎的RAG鏡像作為開源方案,讓開發(fā)者能夠看到更多底層細(xì)節(jié),從多個技術(shù)維度進(jìn)行優(yōu)化,從而構(gòu)建起真正的技術(shù)壁壘。

          DeepSeek爆火之后,很多企業(yè)都計劃進(jìn)行本地部署,市場上出現(xiàn)了很多一體機(jī)解決方案,一臺一體機(jī)里經(jīng)常會有8張高性能顯卡,這套方案的成本并不低,在沒有明確業(yè)務(wù)需求之前,動輒幾十萬的成本投入或許并不明智。

          現(xiàn)在,用戶只需要在火山引擎上選擇好虛擬機(jī)和鏡像,就能在三分鐘內(nèi)搭建好一套開發(fā)環(huán)境,開始各種學(xué)習(xí)和實踐。為了幫助開發(fā)者提升能力,英特爾還準(zhǔn)備了一系列課程,幫助大家補齊相關(guān)知識,更輕松地邁出從0到1的第一步,打好數(shù)據(jù)基礎(chǔ)。

          大模型應(yīng)用開發(fā)的三要素,硬件平臺是基礎(chǔ)

          英特爾專家總結(jié)了大模型應(yīng)用開發(fā)的三要素,除了剛才提到的軟件棧和配套的指導(dǎo)課程,硬件環(huán)境同樣至關(guān)重要?;鹕揭婊谟⑻貭栔翉娞幚砥鞔蛟炝硕喾N云主機(jī),最近推出的基于英特爾至強6性能核處理器的通用型實例 g4il,非常適合做大模型應(yīng)用開發(fā)。

          g4il是火山引擎的第四代通用型實例,其中 “g” 代表通用型,“4” 表示第四代,“i” 代表英特爾CPU平臺。與第三代相比,其整體性能有顯著提升,無論是在數(shù)據(jù)庫應(yīng)用、Web應(yīng)用,還是圖像渲染方面表現(xiàn)都更加出色,而在AI推理方面的優(yōu)勢更是尤為突出。

          得益于集成AMX加速器,英特爾至強6處理器已成為目前最擅長AI推理的x86架構(gòu)處理器之一。在火山引擎的g4il實例中,用戶可以使用CPU完成AI推理。相比基于GPU的方案,它具備成本更低、資源更容易獲得的優(yōu)勢,能滿足基本需求。

          基于CPU的AI推理方案特別適合用于AI應(yīng)用的開發(fā)和驗證階段。搭配前面提到的火山引擎RAG鏡像,用戶可以在云上快速搭建起一套大模型應(yīng)用的開發(fā)環(huán)境,大大降低了對硬件資源的門檻。

          而到了生產(chǎn)環(huán)節(jié),通常需要采用CPU+GPU的異構(gòu)計算架構(gòu)。比如,可以使用帶有AMX的至強CPU來處理Embedding(文本嵌入)、Re-Rank、向量數(shù)據(jù)庫等輕量級AI負(fù)載,讓GPU專注于處理重型AI負(fù)載,從而提高資源利用率和整體處理能力。

          g4il的一大亮點在于:用戶只需選擇一臺配備16 vCPU或32 vCPU的云主機(jī),即使不使用GPU,也能運行參數(shù)量為7或14B的DeepSeek蒸餾版模型。值得一提的是,該方案還支持DeepSeek推薦的高精度計算格式BF16,進(jìn)一步提升推理質(zhì)量。

          小結(jié)

          在技術(shù)快速演進(jìn)的當(dāng)下,借助云平臺進(jìn)行開發(fā),既能降低試錯成本,又能加快創(chuàng)新速度,為企業(yè)和開發(fā)者提供了更靈活的選擇。更重要的是,通過精細(xì)化RAG等技術(shù)深耕數(shù)據(jù)底座,而不只是單純靠巧妙的提示詞,才能打造出不容易被大模型“抄家”的AI應(yīng)用。

          免責(zé)聲明:市場有風(fēng)險,選擇需謹(jǐn)慎!此文僅供參考,不作買賣依據(jù)。

          關(guān)鍵詞:

          下一篇:用一束光,重新定義“好設(shè)計” —— 閃極點陣屏充電器100W/140W 正式上市
          上一篇:最后一頁

          科技

           
          国产三级日本三级日产三级66,五月天激情婷婷大综合,996久久国产精品线观看,久久精品人人做人人爽97
          • <bdo id="qgeso"></bdo>
              • <strike id="qgeso"></strike>
              • <sup id="qgeso"></sup><center id="qgeso"></center>
              • <input id="qgeso"></input>
                主站蜘蛛池模板: 在电影院嗯啊挺进去了啊视频| 狠狠久久精品中文字幕无码| 日本电影痴汉电车| 国产无套粉嫩白浆在线观看| 亚洲一区二区三区影院| 青娱乐欧美视频| 校霸把学霸往死里做| 国产特级毛片aaaaaa高清| 亚洲av中文无码乱人伦| 孩交videos精品乱子豆奶视频| 杨幂精品国产福利在线| 国产成人一区二区三区电影网站| 久久精品视频免费播放| 香蕉网在线播放| 无码欧精品亚洲日韩一区| 啊用力点国产嗯快在线观看| 丁香色欲久久久久久综合网| 精品久久久久久中文| 女欢女爱第一季| 亚洲精品国产成人| 182tv午夜线路一线路二| 最近中文字幕免费mv在线视频 | 国产一级做a爰片久久毛片| 久久9精品久久久| 精品视频一区二区三区四区 | 热久久综合这里只有精品电影| 在厨房被强行侵犯中文字幕| 亚洲国产精品综合久久2007| 青青草原亚洲视频| 日本护士xxxx黑人巨大| 又色又爽又黄的视频软件app| www.噜噜噜| 欧美成人免费一区在线播放| 国产欧美视频在线观看| 久久久久亚洲精品男人的天堂| 精品国精品自拍自在线| 在线天堂中文官网| 九九热爱视频精品| 色cccwww| 国模吧双双大尺度炮交gogo| 亚洲gv天堂无码男同在线观看|