隨著人工智能(AI)技術(shù)的興起,大模型成為從信息化走向數(shù)智化的重要驅(qū)動力。雖然基于大算力支持和超大規(guī)模語言數(shù)據(jù)作為訓練樣本的大模型技術(shù)能夠支持自動文摘、機器翻譯等基礎(chǔ)通用任務(wù),但在醫(yī)療、金融等專業(yè)領(lǐng)域中,由于缺乏行業(yè)知識,無法滿足定制化、精細化和行業(yè)化的需求。因此,需要基礎(chǔ)大模型提供方與垂直行業(yè)的企業(yè)合作,共同開發(fā)行業(yè)大模型。例如,百度的“文心一言”大模型就與汽車、能源、醫(yī)療、金融等11個行業(yè)的企業(yè)合作創(chuàng)造了國內(nèi)首個全面開放的大型語言模型。這樣的合作主要發(fā)生存大型企業(yè)之間,對于中小型企業(yè)來說,直接應用這種基礎(chǔ)大型模型仍然存在一定難度。
大模型的興起對云計算的各個層面也產(chǎn)生了深遠的影響。在基礎(chǔ)設(shè)施即服務(wù)(IaaS)領(lǐng)域,推動了存算一體的算力架構(gòu)的出現(xiàn);在平臺即服務(wù)(PaaS)領(lǐng)域,促進了AI PaaS的發(fā)展,支持了專業(yè)大模型的快速構(gòu)建和部署;在模型即服務(wù)(MaaS)方面,提供了更靈活的模型定制,進一步推動了云端AI應用;而對軟件即服務(wù)(SaaS)而言,大模型通過創(chuàng)新解決了定制化、成本和服務(wù)質(zhì)量等問題,提高了它的實踐價值。因此,若將大模型拆分成模塊,利用“IaaS+PaaS+MaaS+SaaS”的組合構(gòu)建全新的云智平臺,將有利于中小型企業(yè)更容易地應用AI大模型。
AI的演進之路:從生成式AI到通用AI
人工智能正以前所未有的速度和規(guī)模發(fā)展,給人類社會帶來巨大的變革。AI是指計算機系統(tǒng)通過模擬人類智能、推理、學習、理解和創(chuàng)造等能力,實現(xiàn)自主決策和執(zhí)行任務(wù)的能力。AI概念自1956年首次提出,經(jīng)過將近70年的演變與發(fā)展,在越來越多領(lǐng)域得到廣泛應用。迄今為止,AI一共經(jīng)歷了兩代發(fā)展。
第1代AI基于邏輯表示的“符號主義”,即知識驅(qū)動AI,旨在模仿人類的推理和思考能力,例如由IBM開發(fā)的“深藍”計算機。知識驅(qū)動AI的推理過程完全基于人類的經(jīng)驗,由于缺乏數(shù)學基礎(chǔ),其推理僅限于數(shù)理邏輯等確定性推理,只能解決特定問題。
第2代AI基于神經(jīng)網(wǎng)絡(luò)的“連接主義”,即數(shù)據(jù)驅(qū)動AI,旨在利用統(tǒng)計方法將模型的輸入數(shù)據(jù)轉(zhuǎn)換為輸出結(jié)果。數(shù)據(jù)驅(qū)動AI可以分為判別式、生成式以及養(yǎng)成式3種。判別式AI根據(jù)需求分辨內(nèi)容與需求是否匹配,從已有的數(shù)據(jù)中判斷出最符合要求的數(shù)據(jù),主要適用于圖像識別、推薦系統(tǒng)等,例如2016年的AlphaGo。養(yǎng)成式AI是DeepMind公司于2022年提出的,該AI模型具有類似于人類嬰孩的思維能力,當簡單物理規(guī)則被打破時會表現(xiàn)出驚訝,可以對集中視頻訓練不同的對象和事件進行概括,并且還可以通過在一個相對較小的動畫上集中訓練,不斷成長。生成式AI技術(shù)是近年來人工智能領(lǐng)域的一個重要分支,可以通過對現(xiàn)有數(shù)據(jù)集的訓練來生成全新的、完全原創(chuàng)的內(nèi)容,主要適用于圖像與自然語言生成。近年來,生成式AI技術(shù)獲得了顯著發(fā)展,2022年以ChatGPT為代表的生成式AI技術(shù)的火爆在全球引起了一股新的AI熱潮。
由2018年的GPT-1發(fā)展到2023年的GPT-4,大模型的參數(shù)(可學習的權(quán)重和偏置變量)已從初始的1.17億增長到了10000億,訓練數(shù)據(jù)也從5GB增長到了100 TB,如表1所示。GPT模型參數(shù)量的提升,使得訓練結(jié)果越來越精確,其突飛猛進的增長速度是驚人的。在2年的時間里,AI模型規(guī)模增長了25倍,Transformer模型(一種深度學習模型框架)更是增長了275倍。雖然大模型可以在數(shù)據(jù)中心進行訓練,但其高算力、高效率、低成本的特點將推動其上云。在大多數(shù)應用場景中,公有云的選用是一種合理的策略。
表1 GPT模型的各種數(shù)據(jù)
伴隨著生成式AI的飛速進展,實現(xiàn)通用AI的曙光已然照人人們的視野。作為一個知識和數(shù)據(jù)雙引擎驅(qū)動的模型,通用AI不僅滿足單向任務(wù)的處理,還通過輸入文本對大模型進行訓練,他更需要汲取視覺、聽覺、觸覺等眾多感知信息,進行多模態(tài)數(shù)據(jù)的融合,從而豐富其處理的復雜性和靈動性。在應對各項任務(wù)的過程中,通用AI尋求的是精準和高效,只需激活模型中與任務(wù)有關(guān)的部分即可,而非全盤啟動,以此達成真正的通用AI的愿景。
大模型的構(gòu)建與應用:自建與協(xié)作開發(fā)的行業(yè)大模型
2.1 自建基礎(chǔ)大模型
構(gòu)建基礎(chǔ)大模型,如GPT系列,需要應對多項挑戰(zhàn),包括強大的計算力、充足的數(shù)據(jù)、高水平的人才、適用的應用場景以及完善的生態(tài)鏈。通常,這一任務(wù)由互聯(lián)網(wǎng)大型企業(yè)或?qū)嵙π酆竦难芯繖C構(gòu)來承擔。在垂直行業(yè)中,由于各種因素的制約,自建基礎(chǔ)大模型的實例相對較少,但中國的三大運營商卻是少數(shù)幾個擁有這類模型的企業(yè)。目前,中國已經(jīng)擁有近200個大模型,然而,并非所有模型都具備執(zhí)行任務(wù)所需的充足算力、數(shù)據(jù)和人才資源。
垂直類企業(yè)雖然很少擁有自建的基礎(chǔ)大模型,但在某些對市場監(jiān)管要求嚴格、對數(shù)據(jù)安全敏感的領(lǐng)域,核心企業(yè)通常不愿意使用外部大模型。對于頭部金融機構(gòu)而言,他們需要自行構(gòu)建大模型以實現(xiàn)數(shù)據(jù)和模型的私有化,并存加密環(huán)境中使用私有數(shù)據(jù)進行模型的訓練和應用。然而,創(chuàng)建金融大模型面臨多重挑戰(zhàn)。
首先,金融行業(yè)對數(shù)據(jù)安全性和隱私合規(guī)性的要求非常嚴格,同時風控對時效性和精準性的要求也很高,一般的基礎(chǔ)大模型在透明性、可信性和專業(yè)性方面可能無法滿足這些要求,直接遷移為金融大模型的難度較大;其次,金融大數(shù)據(jù)在平衡成本與質(zhì)量時面臨著數(shù)據(jù)難以共享的問題。導致數(shù)據(jù)規(guī)模無法與通用性語料匹敵,金融大模型難以產(chǎn)生“涌現(xiàn)”效果;最后,本地私有部署需要自建計算能力設(shè)施,對軟硬件產(chǎn)品有著嚴峻的創(chuàng)新性要求,加上大模型參數(shù)規(guī)模較大,這可能會導致輸入成本較高。
2.2 合作開發(fā)行業(yè)大模型
基礎(chǔ)大模型通常通過通用語料庫進行訓練,具備強大的通識能力,可用于聊天對話等多種應用場景。然而,這類模型缺少特定行業(yè)的專業(yè)知識,因此需要大模型提供方與垂直行業(yè)合作開發(fā)行業(yè)大模型,目前存在兩種主要的開發(fā)模式。
1)中心化模式。在這種模式下,垂直類企業(yè)將其數(shù)據(jù)提供給大模型提供方進行再訓練,并對模型進行適應性優(yōu)化,如圖1所示。此后,進行知識蒸餾、量化以及對特定場景遷移等操作以縮小模型。但是在這一模式下,大部分工作由基礎(chǔ)大模型的提供方完成,垂直類企業(yè)無法全面掌握模型的開發(fā)和優(yōu)化工作。此外,后續(xù)的模型微調(diào)和云邊端部署等工作仍需模型提供方提供支撐,可能存在數(shù)據(jù)在流轉(zhuǎn)過程中泄漏的風險。
圖1 中心化模式
2)非中心化模式。在這一模式下,大模型提供方會將訓練后的模型提供給垂直行業(yè)的企業(yè),如圖2所示。企業(yè)可以在此基礎(chǔ)上根據(jù)具體的業(yè)務(wù)場景和專有數(shù)據(jù)對模型進行微調(diào),采用自我微調(diào)、有監(jiān)督微調(diào)、指令調(diào)整等方式形成行業(yè)大模型或多個業(yè)務(wù)小模型。這種方式雖然避免了數(shù)據(jù)泄露的風險,但對企業(yè)自身的技術(shù)能力有較高的要求。同時,預訓練由基礎(chǔ)大模型提供方完成,而微調(diào)由企業(yè)完成,兩者之問提供的數(shù)據(jù)可能存在矛盾。
圖2 非中心化模式
為解決這一問題,可采用混迭方式進行預訓練與指令微調(diào),并且在預訓練階段引入部分行業(yè)數(shù)據(jù),在微調(diào)階段引入部分通用數(shù)據(jù)。例如,度小滿金融的軒轅模型就是采用這種方式訓練的,他們將預訓練數(shù)據(jù)和指令數(shù)據(jù)隨機混合到一個訓練數(shù)據(jù)中進行混合微調(diào),通過多階段逐漸訓練,緩解預訓練和微調(diào)問數(shù)據(jù)不匹配的問題,提高模型的表達、理解、遷移和泛化能力。
對MaaS及其工具鏈的探索
合作開發(fā)行業(yè)大模型涉及到多個領(lǐng)域,如數(shù)字孿生/工業(yè)設(shè)計、藥物仿真、電網(wǎng)建模、視頻生成、動漫渲染等。通常需要這些行業(yè)作為算力網(wǎng)業(yè)務(wù)消費者連接到IPv6網(wǎng)絡(luò),以實現(xiàn)云、網(wǎng)、邊的協(xié)同。IPv6作為統(tǒng)一承載協(xié)議,在打通云、網(wǎng)、邊之間發(fā)揮著重要作用。
互聯(lián)網(wǎng)數(shù)據(jù)中心(IDC)作為算力網(wǎng)的業(yè)務(wù)提供者,通過提供計算能力成為IaaS的主要組成部分,即算力平臺。與此同時,算法主要分布在PaaS和SaaS層上,而大模型為這兩個層級提供了重要支撐。垂直類企業(yè)可以與大模型提供商合作,共同構(gòu)建行業(yè)大模型。然而,對于中小型企業(yè)來說,參與這一過程仍然是一項挑戰(zhàn)。因此,MaaS應運而生,它將大模型縮簡為可以插入中小型企業(yè)本地設(shè)備或公有云的PaaS和SaaS之間的模塊。通過MaaS,中小型企業(yè)可以根據(jù)自身數(shù)據(jù)對模型進行精細化調(diào)整,形成適用于企業(yè)的專有模型。
結(jié)合IaaS、PaaS、MaaS和SaaS,可以構(gòu)建一種全新的云智平臺,該平臺通過MaaS將大模型整合進云平臺,如圖3所示。MaaS由大模型平臺(例如基礎(chǔ)大模型、行業(yè)大模型和第三方模型以及支持MaaS的工具鏈組成,向企業(yè)提供在大模型上再開發(fā)和應用所需的各項能力。MaaS工具鏈可以提供數(shù)據(jù)管理、模型訓練、評估優(yōu)化、預測服務(wù)部署、提示工程以及插件應用等功能。盡管基礎(chǔ)大模型在一般場景(如聊天對話)下表現(xiàn)良好,但存工業(yè)應用中,對確定性的敏感需求可能會暴露出其本身可信性的不足。因此,工業(yè)大模型需通過工具鏈引入有監(jiān)督學習思維鏈,使推理步驟可解析,并通過變換場景來增加遷移學習能力。此外,引入反事實數(shù)據(jù)測試可以提高模型泛化能力。
圖3 云智平臺
目前,國內(nèi)已涌現(xiàn)出一些提供MaaS工具鏈的平臺,例如百度的“文心千帆”大模型服務(wù)平臺、華為的盤古工程、騰訊的混元大模型精調(diào)工具鏈以及阿里云的MaaS平臺(靈積平臺)。這些平臺提供了各種控制和導向大模型方向的工具,幫助企業(yè)更好地發(fā)揮大模型的應用價值。
大模型推動云服務(wù)創(chuàng)新
大模型的崛起對云計算各個層面產(chǎn)生了深遠的影響,在IaaS中推動了存算一體的算力架構(gòu);在PaaS領(lǐng)域促進了AI PaaS的發(fā)展,支持了專業(yè)大模型的快速構(gòu)建和部署;為MaaS提供了更靈活的模型定制,進一步推動了云端AI應用;對SaaS而言,大模型通過創(chuàng)新解決了定制化、成本和服務(wù)質(zhì)量等問題,提升了實操價值。這一系列變革構(gòu)建了更智能、高效的云計算生態(tài)。
4.1 大模型時代對算力網(wǎng)絡(luò)的要求
在大模型時代,對算力網(wǎng)絡(luò)的要求將更加嚴格。
1)感知。算力網(wǎng)絡(luò)需要感知各種應用需求,為不同的應用提供差異化的服務(wù)水平(SLA)保障。此外,對于關(guān)鍵應用,需要實時檢測性能,以確保用戶體驗達到最佳水平。
2)實時。算力網(wǎng)絡(luò)需要支持對熱數(shù)據(jù)的即時計算,使網(wǎng)絡(luò)時延低于10 ms。具備低延遲和確定性的網(wǎng)絡(luò)連接有助于縮短服務(wù)器問的梯度同步數(shù)據(jù)的傳輸時間,從而降低計算資源的消耗。
3)無損。消除網(wǎng)絡(luò)數(shù)據(jù)包丟失,以減少由于服務(wù)器集群內(nèi)計算協(xié)同等待而產(chǎn)生的開銷。根據(jù)實驗統(tǒng)計,0.1%的丟包會引起算力損失50%,因此無損傳輸是至關(guān)重要的。
4)彈性。提高海量小文件的加載速度,并提高AI大模型圖形處理器(GPU)的利用率。理想的網(wǎng)絡(luò)應當具備合理的存算比,并能夠迅速適應對彈性吞吐量的需求。
5)按需。集成身份/目錄服務(wù)、防火墻、零信任網(wǎng)絡(luò)訪問等安全服務(wù),提供可見性和流量管理功能,并支持網(wǎng)絡(luò)即服務(wù)(NaaS)。
6)智簡。針對大模型訓練成本,優(yōu)化資源配置,為客戶提供最優(yōu)的算力接入和使用環(huán)境。
7)安全。確保數(shù)據(jù)能安全傳輸?shù)剿懔?jié)點并安全返回結(jié)果。需要提供算力租戶問的安全隔離,有效防御外部攻擊和數(shù)據(jù)泄露,實現(xiàn)終端的安全接入。
8)低碳。通過優(yōu)化調(diào)度策略、合理利用資源、使用綠色能源等手段,降低能耗,實現(xiàn)低碳計算的目標。
4.2 大模型推動IaaS創(chuàng)新發(fā)展
大模型的興起推動了IaaS的創(chuàng)新發(fā)展。IaaS提供包括服務(wù)器、虛擬機、存儲、網(wǎng)絡(luò)和操作系統(tǒng)等基礎(chǔ)設(shè)施服務(wù),具有彈性伸縮、自助服務(wù)、按需付費等特點,適用于靈活可擴展基礎(chǔ)設(shè)施資源的開發(fā)測試、高性能計算和容災備份等場景。受到大模型對算力的高需求影響,企業(yè)更趨向于從自建數(shù)據(jù)中心向公有云遷移,從而進一步促進了IaaS的發(fā)展。盡管MaaS的m現(xiàn)暫時可能使人們忽視了IaaS的重要性,但實際上,MaaS在很大程度上仍然依賴于IaaS的支持。
IaaS主要有兩種模式:常規(guī)的存算分離模式和存內(nèi)計算模式,如圖4所示。
圖4 IaaS的兩種模式
在大模型訓練中,對帶寬的高需求通常會導致數(shù)據(jù)傳輸時延和響應速度成為限制因素。無論是從外部儲存器向芯片搬運數(shù)據(jù),還是芯片內(nèi)部的數(shù)據(jù)總線傳輸,其物理限速的提升每年僅約為10%,遠低于芯片算力基于摩爾定律60%~70%的年均增速。這種“存儲墻”現(xiàn)象削弱了算力的利用率。
因此,發(fā)展存算一體的算力架構(gòu)成為了一種解決問題的方式,能夠減少數(shù)據(jù)搬運帶來的時延。以阿里智算IaaS服務(wù)為例,其單集群可支持最大十萬卡GPU,智算集群可同時承載多個萬億參數(shù)的大模型進行在線訓練,并通過自研的遠程直接數(shù)據(jù)存取(RDMA)網(wǎng)絡(luò)架構(gòu)為萬卡規(guī)模的AI集群提供無擁塞通信,使AI訓練效率提升10倍,推理效率提升6倍。
4.3 大模型催生AI PaaS創(chuàng)新發(fā)展
大模型的興起推動了PaaS向AI PaaS的創(chuàng)新發(fā)展。PaaS提供了應用程序開發(fā)和部署的平臺,包括操作系統(tǒng)、開發(fā)工具、數(shù)據(jù)庫、中問件和運行時環(huán)境等,具備自動化擴展、多租戶支持等特點,適用于簡化開發(fā)過程、快速部署和擴展的場景,如Web應用開發(fā)和移動應用開發(fā)等。
大模型在性價比、可靠性、易用性等方面都面臨著落地的挑戰(zhàn),開發(fā)人員迫切希望PaaS能夠增加對大模型的支持,以便快速構(gòu)建專業(yè)大模型、測試和部署相關(guān)應用。為此,AI PaaS應運而生,它在PaaS的基礎(chǔ)上集成了AI功能,以支持大模型的端到端并行訓練優(yōu)化、場景模型遷移和應用集成等需求。同時,AI PaaS也需要得到大模型的支撐。MaaS通過大模型可優(yōu)選小程序及配套的低代碼開發(fā)和模型編排等工具,定制化補充或增強PaaS工具軟件的平臺能力。
舉例來說,阿里低代碼平臺(aPaaS)允許開發(fā)人員創(chuàng)建大規(guī)模應用程序,后續(xù)還進一步推出了酷應用(bPaaS)、連接平臺(iPaaS)、數(shù)據(jù)平臺(dPaaS),提供各類模型調(diào)度平臺、模型訓練平臺、插件開發(fā)平臺等服務(wù),不斷細分深化服務(wù)層次,支持企業(yè)開啟各種數(shù)字化的AI場景。此外,百度整合自研飛槳深度學習框架和百度文心大模型,打通了樣本中心、模型中心、AI開發(fā)平臺和AI服務(wù)運行平臺,實現(xiàn)了從數(shù)據(jù)存儲到模型訓練、生產(chǎn)、部署、測試的全鏈路、批量化生產(chǎn)。
4.4 大模型重新定義SaaS
大模型為SaaS帶來了全新的定義。SaaS作為一種將軟件應用程序作為服務(wù)提供的模式,廣泛涵蓋了企業(yè)資源規(guī)劃(ERP)、客戶關(guān)系管理(CRM)、協(xié)作工具和電子郵件等領(lǐng)域,具備即插即用、按需定制、資源共享等特點,適用于降低部署和維護成本、快速獲取軟件功能的場景,例如辦公協(xié)作、客戶關(guān)系管理和人力資源管理等。
然而,B端應用(面向企業(yè)用戶的互聯(lián)網(wǎng)產(chǎn)品)在模型專業(yè)深度、迭代效率、數(shù)據(jù)安全以及高算力成本等方面存在一系列問題。企業(yè)個性化需求的增加使得SaaS長期面臨著定制化要求高、使用頻率低、獲客成本高、異常消耗后期服務(wù)等挑戰(zhàn)。在這一背景下,大模型的出現(xiàn)有助于SaaS突破這些困境。只需對大模型進行微調(diào)或精調(diào),就能生成面向特定場景的算法。這種“工廠模式”有助于避免過去“手工作坊定制算法”的高成本,解決了傳統(tǒng)SaaS在滿足客戶定制化需求、標準化產(chǎn)品和規(guī)?;麊柕碾y題。
大模型使自然語言成為使用APP的界面,客戶通過人機交互便能調(diào)用滿足業(yè)務(wù)需要的功能,顯著降低調(diào)用APP的門檻,節(jié)約學習成本。大模型形成的數(shù)字內(nèi)容孿生、編輯、創(chuàng)作i大能力及衍生的文本生成功能正好適應SaaS辦公場景。盡管大模型的訓練成本較高,但其部署范同廣,入門門檻低,且邊際效應呈遞增狀態(tài)。再加上公有云的規(guī)?;?,可以在云上低成本獲取大模型,帶有天然的成本及可操作性優(yōu)勢。因此,兩者的結(jié)合可以極大地優(yōu)化SaaS的交付方式,提升其實操價值。
大模型賦能企業(yè)數(shù)字化轉(zhuǎn)型
大模型常會與大寬帶、大連接、大平臺聯(lián)合應用,如圖5所示。在離散制造現(xiàn)場,5G客戶端終端設(shè)備(CPE)通過WiFi連接可編程邏輯控制器(PLC),再連接產(chǎn)線裝備以收集相關(guān)數(shù)據(jù)。在流程制造現(xiàn)場,由于存在大量的危險品,傳感器、工業(yè)模塊等設(shè)備不能采用交流供電,因此PLC控制器被替換為使用先進物理層的控制器(APL)。APL通過單線式以太網(wǎng)實現(xiàn)遠距離直流供電。
圖5 大模型與5G的聯(lián)合應用
數(shù)據(jù)通過5G信號從CPE傳輸?shù)交?,然后再下沉到企業(yè)。大企業(yè)可以在其內(nèi)部構(gòu)建企業(yè)云,而中小型企業(yè)則可以通過5G連接到公網(wǎng),再利用互聯(lián)網(wǎng)訪問人工智能平臺。5G的核心網(wǎng)具有控制面和用戶面分離的特征。用戶面功能(UPF)可以下沉到企業(yè),在5G公網(wǎng)上建立虛擬的5G專網(wǎng)。企業(yè)級UPF可以進一步下沉到網(wǎng)絡(luò)邊緣,通過IPv6的多歸屬特性實現(xiàn)數(shù)據(jù)的本地分流,保障敏感數(shù)據(jù)不外泄,滿足超低時延和超高帶寬的需求。
通過修改5G核心網(wǎng)的用戶數(shù)據(jù)庫(UDM),可以設(shè)定特定的一組終端,形成5G LAN,提供本地L2包(數(shù)據(jù)鏈路層的包,即第2層的包)轉(zhuǎn)發(fā)能力,以實現(xiàn)對WiFi更好的覆蓋和業(yè)務(wù)隔離。因此,企業(yè)僅需配備5G CPE,通過UPF下沉和IPv6上云(公有云、企業(yè)云、混合云或多云),就可以無需自建T業(yè)互聯(lián)網(wǎng)平臺及企業(yè)大腦,實現(xiàn)大數(shù)據(jù)分析與AI決策能力,有助于推動數(shù)字化轉(zhuǎn)型。
從云網(wǎng)協(xié)同走向算網(wǎng)融合
當前正處于網(wǎng)絡(luò)云化的不斷推進階段,而向著云網(wǎng)協(xié)同和算網(wǎng)融合的目標邁進仍需經(jīng)歷一段漫長而持續(xù)的發(fā)展歷程。這一過程不僅為數(shù)字化轉(zhuǎn)型提供更為強大和高效的基礎(chǔ)設(shè)施支持,也為未來智能互聯(lián)時代的到來奠定了堅實基礎(chǔ)。
網(wǎng)絡(luò)云化的核心技術(shù)包括軟件定義網(wǎng)絡(luò)(SDN)和網(wǎng)絡(luò)功能虛擬化(NFV)。SDN用于實現(xiàn)承載網(wǎng)的控制和轉(zhuǎn)發(fā)功能的分離,而NFV主要將網(wǎng)絡(luò)設(shè)備的軟硬件解耦,實現(xiàn)設(shè)備如UPF、基站、內(nèi)容分發(fā)網(wǎng)絡(luò)(CDN)、CPE、PLC等的云化陀。此外,對IPv6的編程空問進行開發(fā)并拓展其功能也是必要的。
云網(wǎng)協(xié)同的實現(xiàn)主要是在數(shù)據(jù)中心引入SDN技術(shù),并利用IPv6對軟件定義廣域網(wǎng)絡(luò)(SD—WAN)進行賦能。通過這樣的方式,可以實現(xiàn)數(shù)據(jù)中心問以及數(shù)據(jù)中心與用戶問多云互聯(lián)或云邊互聯(lián)。采用基于IPv6轉(zhuǎn)發(fā)平面的段路由(SRv6)和業(yè)務(wù)鏈技術(shù)(SFC)可以優(yōu)化流量路徑。云網(wǎng)協(xié)同的實現(xiàn)面臨著諸多挑戰(zhàn),如協(xié)議不一致、數(shù)據(jù)共享程度低、缺乏云網(wǎng)整體視圖、算力與路由分配脫節(jié)等。
算網(wǎng)協(xié)同將集中式的算力資源與分布式的邊計算相結(jié)合,使得SRv6能夠充分發(fā)揮其作為云網(wǎng)邊端統(tǒng)一承載協(xié)議的作用,是云計算的重要應用之一。
算網(wǎng)融合的實現(xiàn)需要采用算力度量、算力標識、算力感知、算力路由等技術(shù)。基于IPv6的算力資源和網(wǎng)絡(luò)資源的統(tǒng)一管理,包括統(tǒng)一標識、統(tǒng)一調(diào)度、智能編排、統(tǒng)一運營等,是實現(xiàn)算力和網(wǎng)絡(luò)深度融合的關(guān)鍵。
目前正處在網(wǎng)絡(luò)云化、云網(wǎng)協(xié)同、算網(wǎng)融合的技術(shù)發(fā)展過程中,這一過程并非一帆風順,尤其在云網(wǎng)協(xié)同方面。據(jù)統(tǒng)計,0.1%的丟包率可能導致算力損失高達50%,突顯了網(wǎng)絡(luò)性能對算力效率的重要性。網(wǎng)絡(luò)基于IPv6的能力與大模型的相互作用,將更好地推動朝著云網(wǎng)協(xié)同和算網(wǎng)融合的目標邁進。
AI加速數(shù)智化發(fā)展
目前正處于第3次工業(yè)革命的浪潮之中,前兩次工業(yè)革命歷經(jīng)百年,因此我們有理由相信這一波工業(yè)革命將貫穿本世紀,工業(yè)革命進程如圖6所示。盡管有觀點認為信息化已經(jīng)演進了很長一段時問,發(fā)展勢頭會有所減緩,但當前芯粒和SIP技術(shù)為延續(xù)摩爾定律提供了新的動力。大算力的崛起突破了算法演進的瓶頸,人工智能憑借其強大的賦能能力驅(qū)動著新一代IT創(chuàng)新,而大模型技術(shù)則迅速推動著技術(shù)革命的進程。
圖6 工業(yè)革命進程
當下,數(shù)字經(jīng)濟的新時期已經(jīng)到來,經(jīng)濟生產(chǎn)要素從農(nóng)業(yè)時代的土地和勞力、工業(yè)時代的技術(shù)與資本,轉(zhuǎn)變?yōu)樾畔⒒瘯r代的新生產(chǎn)要素一數(shù)據(jù)。當前,國際經(jīng)濟正在經(jīng)歷調(diào)整,信息化正逐漸演化為數(shù)智化,同時網(wǎng)絡(luò)技術(shù)創(chuàng)新也在迅速發(fā)展。
互聯(lián)網(wǎng)進入了IPv6+主導期,光纖通信邁人了F5G的成長期,移動通信啟動了5G-A的新周期,工業(yè)互聯(lián)網(wǎng)進入攻堅期,AI邁向通用式AI的過渡期,而云網(wǎng)融合、算網(wǎng)協(xié)同正經(jīng)歷著青春期。這一系列的變革推動著大寬帶、大連接、大數(shù)據(jù)、大平俞、大模型、大智能的發(fā)展。
分享到微信 ×
打開微信,點擊底部的“發(fā)現(xiàn)”,
使用“掃一掃”即可將網(wǎng)頁分享至朋友圈。