文|郝 鑫
編|劉雨琦、王一粟
AI 的應(yīng)用一直以來(lái)都有兩個(gè)極端:
一類是在數(shù)據(jù)中心,用最強(qiáng)的算力跑最復(fù)雜的模型;一類是在智能終端,用最小的模型實(shí)現(xiàn)最普適的應(yīng)用。
除了追求大算力帶來(lái)的智能涌現(xiàn),如何把 AI 模型壓縮,運(yùn)用到各種智能終端上,也是工業(yè)界不斷追求的“極限挑戰(zhàn)”。
在 AI 的各種世界頂會(huì)中,有一類頂會(huì)比賽的項(xiàng)目,就是如何將 AI 高性能又高效地使用到終端。
ICCV 2023 是 AI 計(jì)算機(jī)視覺(jué)領(lǐng)域的三大頂會(huì)之一,每?jī)赡昱e辦一屆,代表了人類在計(jì)算機(jī)視覺(jué)領(lǐng)域的最先進(jìn)技術(shù),堪稱“地表最強(qiáng)”。
8月底,走出“技術(shù)自嗨”,帶著一身“硬本事”,首次參加CV建模推理和訓(xùn)練賽的支付寶xNN團(tuán)隊(duì),分別拿下2項(xiàng)賽事的3個(gè)冠亞軍。其中“推理挑戰(zhàn)賽”上,shanwei_zsw 和 zhaoyu_x 兩支小組分別獲得冠亞軍,比分大幅領(lǐng)先第三名45%以上。在“訓(xùn)練挑戰(zhàn)賽”上,shanwei_zsw 則以0.04的些微差值位居亞軍。
賽事的難點(diǎn)在于,要在有限的計(jì)算資源條件下發(fā)揮模型的最大效能。例如在運(yùn)行時(shí),GPU內(nèi)存限制在6GB以下,訓(xùn)練成本控制在九個(gè)小時(shí)以內(nèi),在這些條件限制下,圖像識(shí)別精準(zhǔn)度還要達(dá)到95%以上,在1分鐘之內(nèi)完成幾千張圖片推理的效果。
“投入時(shí)間比較短,參賽也很從容,比賽的課題就是我們?nèi)粘5墓ぷ鳌?,參加挑?zhàn)的支付寶xNN引擎工程師王世豪道。
通過(guò) xNN 團(tuán)隊(duì)在技術(shù)實(shí)踐上的探索,我們也能夠一窺當(dāng)前 AI 在終端落地方面的最新進(jìn)展:從 1.0 跨越到 2.0,目前端側(cè) AI 技術(shù)已經(jīng)攀登到一個(gè)“小高峰”,“又好又快”成為技術(shù)抵達(dá)的主邏輯。
歷史的齒輪重新開(kāi)始轉(zhuǎn)動(dòng),隨著大模型的降臨, AI 在智能終端的落地,又迎來(lái)一個(gè)全新階段。
端側(cè)部署難題:有限資源VS大參數(shù)AI模型
或許大家并不了解 xNN 團(tuán)隊(duì),但一定用過(guò)他們的技術(shù)。
掃碼付款、春節(jié)掃五福、理財(cái)推薦、短視頻直播……這些再熟悉不過(guò)的場(chǎng)景中都有 xNN 團(tuán)隊(duì)的影子。
xNN團(tuán)隊(duì)負(fù)責(zé)人周大江告訴光錐智能,他們主要負(fù)責(zé)螞蟻集團(tuán)內(nèi)的所有端智能的應(yīng)用,為螞蟻集團(tuán)提供端側(cè)技術(shù)引擎支持。
2016年深度學(xué)習(xí)剛剛爆發(fā),2017年基于計(jì)算機(jī)視覺(jué)的“掃五福”就正式應(yīng)用在支付寶 APP 里上線,這也成為了xNN 技術(shù)團(tuán)隊(duì)組建的起點(diǎn)。
“掃?;顒?dòng)最早在云端測(cè)試,即在服務(wù)端上用 AI 能力識(shí)別福字,但最終發(fā)現(xiàn)成本和效果都差強(qiáng)人意,這才轉(zhuǎn)向了端上去做”,周大江表示。
“掃五?!边@個(gè)動(dòng)作,經(jīng)過(guò)了掃描、識(shí)別、判斷、計(jì)算、推理、反饋一系列 AI 步驟。如果通過(guò)云的路徑實(shí)現(xiàn),攝像頭要先掃描,然后傳到服務(wù)端,云服務(wù)端處理完成后再返回結(jié)果。這里面包括了網(wǎng)絡(luò)通信的開(kāi)銷(xiāo)、云計(jì)算傳輸耗費(fèi)的時(shí)間、判斷反饋的時(shí)間,總體下來(lái),用戶等待時(shí)間長(zhǎng)且體驗(yàn)感較差。
xNN團(tuán)隊(duì)經(jīng)過(guò)摸索后發(fā)現(xiàn),?云端根本無(wú)法滿足用戶的實(shí)時(shí)需求,要想讓?xiě)?yīng)用飛入尋常百姓家,還得部署到端側(cè)。
正如王世豪所言,端側(cè)機(jī)器學(xué)習(xí)有很多優(yōu)勢(shì):首先可以降低部署成本,從模型推理到模型決策一切都在端側(cè)搞定,節(jié)省云端運(yùn)維資源;其次,一次加載資源后,不需反復(fù)請(qǐng)求服務(wù)端傳遞數(shù)據(jù)量以及獲取 AI 分析結(jié)果,非常適合圖像識(shí)別等高頻 AI 分析場(chǎng)景;最后,調(diào)用數(shù)據(jù)無(wú)需傳輸上云,有助于提升用戶的隱私性。
技術(shù)方向被驗(yàn)證了正確性,但實(shí)現(xiàn)過(guò)程卻充滿了復(fù)雜。
以掃五福場(chǎng)景為例,匯集了圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理、傳感器數(shù)據(jù)融合等多種 AI 技術(shù)。例如最常涉及的圖像識(shí)別技術(shù),用于快速、準(zhǔn)確地識(shí)別用戶掃描的福字圖像,判斷是否正確;傳感器融合技術(shù),結(jié)合手機(jī)運(yùn)動(dòng)傳感器等輔助無(wú)障礙用戶進(jìn)行福字掃描;語(yǔ)音合成、識(shí)別技術(shù),支持語(yǔ)音互動(dòng)的各種創(chuàng)新玩法,如“語(yǔ)音打年獸”等。
端側(cè)部署的難點(diǎn)也十分突出,相比云服務(wù)器,端側(cè)設(shè)備資源極其有限,無(wú)法載入過(guò)于復(fù)雜的模型。
資源對(duì)端側(cè)的限制體現(xiàn)在全過(guò)程中,識(shí)別靠攝像頭,而手機(jī)的攝像頭質(zhì)量參差不齊,有的清晰,有的模糊;模型訓(xùn)練、推理所用到的GPU和CPU,決定了數(shù)據(jù)傳輸、反饋的處理速度;存儲(chǔ)空間有限,決定了模型大小。
但 AI 模型規(guī)模又很大,一個(gè)簡(jiǎn)化的模型就好比中學(xué)的三元一次聯(lián)立方程,模型訓(xùn)練推理的過(guò)程可以理解為解方程的過(guò)程,只不過(guò)要解的是幾百萬(wàn)元的方程。其中,每個(gè)元就是“參數(shù)”,聯(lián)立方程式稱之為一層的“神經(jīng)網(wǎng)絡(luò)”,一般而言,常用的簡(jiǎn)單模型可能有3-6層,復(fù)雜模型甚至有50+層,這足以證明模型參數(shù)有多大。
“于是,有限的資源和大參數(shù)的 AI 模型之間形成了鴻溝”,支付寶終端技術(shù)部負(fù)責(zé)人李佳佳進(jìn)一步明確了xNN團(tuán)隊(duì)的方向,把 AI 模型放到端上就是要在“螺螄殼里做道場(chǎng)”。
可對(duì)于一款十億級(jí)用戶的國(guó)民級(jí)APP而言,技術(shù)要解決的難題還遠(yuǎn)不止于此。
支付寶服務(wù)對(duì)象面向全年齡段的各類人群,10億用戶中,來(lái)自三四線城市的比例超過(guò)55%。在很長(zhǎng)一段時(shí)間內(nèi),幾百元的低端機(jī)成為主流,這意味著從技術(shù)設(shè)計(jì)上不能設(shè)置過(guò)高的門(mén)檻,要能適配各種老版的手機(jī)硬件和操作系統(tǒng)。
支付寶的應(yīng)用還經(jīng)常存在海量并發(fā)場(chǎng)景,譬如春節(jié)掃福等促銷(xiāo)活動(dòng),動(dòng)輒超幾億人參與,據(jù)統(tǒng)計(jì),每2-3個(gè)中國(guó)人里就有一個(gè)參與過(guò)掃福活動(dòng),瞬時(shí)涌入的巨大流量也給端側(cè)帶來(lái)了考驗(yàn)。
基于端側(cè) AI 技術(shù)本身和支付寶國(guó)民級(jí)應(yīng)用的屬性,兩座沉重的大山壓在了 xNN 團(tuán)隊(duì)肩上。
從 AI 1.0到2.0,找尋端側(cè)模型最優(yōu)解
進(jìn)一步拆解任務(wù),xNN 團(tuán)隊(duì)決定先解決端側(cè) AI 技術(shù)共性問(wèn)題,再去解決支付寶自身的個(gè)性化問(wèn)題?;谠撨壿?,其技術(shù)迭代經(jīng)歷了?AI 1.0 模型輕量化階段和 AI 2.0 可伸縮建模時(shí)期。
模型輕量化,顧名思義,主要任務(wù)就是把AI模型優(yōu)化得盡可能小,為此,xNN 團(tuán)隊(duì)研發(fā)了“模型壓縮技術(shù)”。
“模型壓縮最核心的就是讓模型盡可能得小,只有小了才能裝進(jìn)手機(jī)里”,王世豪表示道。
雖然 AI 模型被壓縮小了,但并不意味著運(yùn)行的性能要降低。xNN 團(tuán)隊(duì)介紹,能不能讓模型在完成同等任務(wù)效果的基礎(chǔ)上,還能進(jìn)一步變小,成為了關(guān)鍵。例如,在壓縮一個(gè)模型后,識(shí)別福字的精準(zhǔn)度依然很高。
一個(gè)問(wèn)題也隨之而來(lái),多小的 AI 模型算小呢?
周大江告訴光錐智能,關(guān)于這個(gè)問(wèn)題業(yè)界目前還沒(méi)有形成標(biāo)準(zhǔn),這意味著每個(gè)APP可能都會(huì)有自己一個(gè)軟性的標(biāo)準(zhǔn)。“在實(shí)際應(yīng)用運(yùn)行中,大一點(diǎn)其實(shí)也不是問(wèn)題,業(yè)界一般控制在十兆左右尺寸。?但支付寶更傾向于小數(shù)量級(jí)的模型規(guī)模,大部分應(yīng)用都控制在一兆以內(nèi)”,周大江稱。
把模型壓縮變小,主要在解決“好”的問(wèn)題,使復(fù)雜模型可以在端側(cè)設(shè)備上運(yùn)行。而端側(cè)高性能計(jì)算引擎技術(shù)則專注于解決“快”的問(wèn)題,通過(guò)各種優(yōu)化手段使模型可以高效計(jì)算。
高性能計(jì)算引擎技術(shù)目的是讓模型能夠充分利用端側(cè)設(shè)備的算力資源,一個(gè)核心指標(biāo)是算力利用率,即模型計(jì)算對(duì)硬件資源的利用效率。舉例來(lái)說(shuō),假如手機(jī)理論上每秒鐘可以執(zhí)行一萬(wàn)次計(jì)算,那引擎性能的高低,決定了能不能充分把這一萬(wàn)次給用起來(lái)。
得益于“模型壓縮+高性能計(jì)算引擎”兩把“殺手锏”,讓 xNN 團(tuán)隊(duì)在1.0階段“實(shí)現(xiàn)了絕大多數(shù)場(chǎng)景應(yīng)用的端上部署”,這也為其從1.0的“變小”走向2.0的“靈活”打下了基礎(chǔ)。
“以前是一個(gè)模型打遍天下,現(xiàn)在是面向不同設(shè)備找到最合適的模型”,王世豪道。
可伸縮建模技術(shù),切中了國(guó)民級(jí)應(yīng)用的用戶人群廣泛與多樣化的硬件環(huán)境的痛點(diǎn)。
一段時(shí)間里,不同手機(jī)機(jī)型都共用一個(gè) AI 模型,這就會(huì)出現(xiàn)無(wú)法全面覆蓋的情況。要么去適配低端機(jī),導(dǎo)致高端機(jī)型資源被浪費(fèi),業(yè)務(wù)效果和用戶體驗(yàn)打折扣;要么去迎合高端機(jī)型,直接喪失一部分低端機(jī)用戶。
而現(xiàn)在,不只生產(chǎn)一個(gè)模型,而是通過(guò)技術(shù)的手段一次性的生產(chǎn)很多個(gè)模型,每一個(gè)模型能夠去兼容適配不同用戶的手機(jī),去最大化它的算力,然后把模型的效果帶給用戶。這就好比打游戲時(shí)的分辨率,既可以選擇超高清分辨率,也可以選擇低分辨率,深層次詮釋了“可伸縮”性的內(nèi)涵。
模型“又小又快”的實(shí)現(xiàn)條件進(jìn)一步耦合,通過(guò)可伸縮建模技術(shù)一步到位,快速找到最優(yōu)解。但同時(shí),里面涉及的工具、參數(shù)調(diào)節(jié)也愈來(lái)愈復(fù)雜,走過(guò)模型輕量化來(lái)到 AI 2.0時(shí)期,技術(shù)比拼才剛剛開(kāi)始。
隨著大模型來(lái)臨,AI 在智能終端的落地,又將迎來(lái)一個(gè)全新的技術(shù)階段。
大模型跑在手機(jī)上還有多遠(yuǎn)?
不斷優(yōu)化,把 AI 模型一步步變小,在手機(jī)上跑得又好又快。
回溯 xNN 團(tuán)隊(duì)技術(shù)迭代的歷程,這條貫穿其中的主線,也是整個(gè)終端智能化的縮影。
然而,到了“更大參數(shù)、更加復(fù)雜”的大模型應(yīng)用落地的新階段,技術(shù)既有變,也有不變。
不變的是,xNN 團(tuán)隊(duì)對(duì)光錐智能表示,即使在?大模型的階段,其核心矛盾仍在于如何利用有限資源,達(dá)到又好又快的效果,而大模型只不過(guò)進(jìn)一步加深了矛盾。從具體的評(píng)判指標(biāo)來(lái)看,和之前沒(méi)有本質(zhì)區(qū)別,一旦涉及端上部署,始終逃脫不了模型尺寸、性能、速度等。
最大的變量是幾十億、上百億參數(shù)的大模型。如今端側(cè)的現(xiàn)狀是,手機(jī)算力、存儲(chǔ)等資源并沒(méi)有跨越式提升,而龐大的大模型已經(jīng)要迫不及待地成為新時(shí)代的主角,這也是導(dǎo)致大模型應(yīng)用難以打通“最后一公里”的難點(diǎn)所在。
“1.0、2.0階段大部分需要極致優(yōu)化的任務(wù)已經(jīng)完成,大模型尺寸突然暴漲,成為當(dāng)前端側(cè) AI 最大的技術(shù)挑戰(zhàn)。”
xNN 團(tuán)隊(duì)認(rèn)為,從1.0到現(xiàn)在的大模型應(yīng)用落地階段,里面存在著技術(shù)的延續(xù)性。過(guò)去技術(shù)探索構(gòu)筑的能力,尋找“又好又快”最優(yōu)解的經(jīng)驗(yàn)以及場(chǎng)景運(yùn)營(yíng)的積累,皆是走向大模型新階段的基石。
支付寶終端技術(shù)部負(fù)責(zé)人李佳佳覺(jué)得,要站在“巨人肩膀”上,一方面沖著更高的技術(shù)標(biāo)準(zhǔn),繼續(xù)優(yōu)化原有的技術(shù);另一方面可能要圍繞大模型的特質(zhì),做一些新的算法設(shè)計(jì)和突破。
按圖索驥,盡管手握端側(cè) AI 的鑰匙,但要讓大模型真正跑在手機(jī)端,還需要很長(zhǎng)的路要走。
據(jù)光錐智能觀察,現(xiàn)階段,手機(jī)上使用的大模型應(yīng)用,基本上算力還是集中在云上,端側(cè)適配仍處于摸索階段。
目前,華為、小米、Vivo、OPPO等一眾手機(jī)廠商正在圍繞著大模型去做芯片硬件設(shè)計(jì)和操作系統(tǒng)上的優(yōu)化,從底層框架到上層應(yīng)用,盡可能地為大模型跑在手機(jī)上提供更多的計(jì)算資源支撐。
李佳佳解釋稱,未來(lái),大模型要以何種姿勢(shì)降落到手機(jī)端還尚在討論中。
“螞蟻集團(tuán)近期對(duì)外發(fā)布了一系列自研基礎(chǔ)大模型,如何將其應(yīng)用到手機(jī)等終端設(shè)備上,我們重點(diǎn)攻堅(jiān)兩個(gè)關(guān)鍵技術(shù):一方面,進(jìn)一步強(qiáng)化終端推理引擎的計(jì)算效率,充分挖掘手機(jī)異構(gòu)計(jì)算資源以提高大模型的執(zhí)行效率,這對(duì)用戶體驗(yàn)至關(guān)重要;另一方面,通過(guò)技術(shù)手段推進(jìn)大模型的壓縮,保持大模型效果不降低的前提下,減少運(yùn)行內(nèi)存及存儲(chǔ)資源的消耗。于此同時(shí),在持續(xù)強(qiáng)化引擎計(jì)算效能和模型壓縮兩個(gè)關(guān)鍵技術(shù)之外,我們同樣重視與手機(jī)廠商的協(xié)作,結(jié)合廠商硬件能力迭代與我們自身場(chǎng)景和技術(shù)的優(yōu)勢(shì),加速大模型在手機(jī)端應(yīng)用的步伐”。
在技術(shù)實(shí)現(xiàn)思路、路徑走向明了后,究竟何時(shí)可以等到大模型真正跑在手機(jī)上呢?
“未來(lái)1-3年內(nèi)很關(guān)鍵”,支付寶終端技術(shù)部負(fù)責(zé)人李佳佳判斷,“關(guān)鍵指標(biāo)還在模型大小,當(dāng)前一些大模型仍需消耗幾個(gè)GB的物理存儲(chǔ)/運(yùn)行內(nèi)存,基于此,?至少應(yīng)該控制在500MB-1GB以下的水平。”
打通“最后一公里”,同時(shí)讓14億人在手機(jī),用上大模型的奇點(diǎn)時(shí)刻或許即將到來(lái)。
歡迎關(guān)注光錐智能,獲取更多科技前沿知識(shí)!
本文來(lái)自投稿,不代表增長(zhǎng)黑客立場(chǎng),如若轉(zhuǎn)載,請(qǐng)注明出處:http://m.allfloridahomeinspectors.com/quan/105540.html