欧美在线播放一区_国产精品久久久亚洲一区_久久午夜a级毛片_国产精品视频大全

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

我是創(chuàng)始人李巖:很抱歉!給自己產(chǎn)品做個廣告,點擊進來看看。  

作者:賴文昕

編輯:郭思、陳彩嫻

說起擴散模型生成的東西,你會立刻想到什么?

是OpenAI的經(jīng)典牛油果椅子?

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

是英偉達Magic3D生成的藍色箭毒蛙?

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

還是斯坦福大學(xué)和微軟Folding Diffusion生成的蛋白質(zhì)結(jié)構(gòu)?

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

這些都是擴散模型的魔法展示,而近期,關(guān)于擴散模型的研究又進行了一次全新的升級。

由新加坡國立大學(xué)尤洋團隊、加州大學(xué)伯克利分校以及Meta AI Research聯(lián)手發(fā)布的一項名為“Neural Network Diffusion”的研究,已經(jīng)實現(xiàn)了利用擴散模型來生成神經(jīng)網(wǎng)絡(luò),這意味著擴散模型不再局限于生成表面的產(chǎn)品或物體結(jié)構(gòu),而是直接進行底層革新,開始拿神經(jīng)網(wǎng)絡(luò)做文章了,頗有種用魔法來打敗魔法的意味。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

論文地址:https://arxiv.org/pdf/2402.13144.pdf

該研究一出,迅速在國際AI社區(qū)引起了熱烈反響,登上了各大模型開發(fā)平臺的熱搜榜單,在業(yè)界內(nèi)收獲了極高贊譽。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

這項工作中,研究團隊創(chuàng)新性地應(yīng)用擴散模型來生成高性能神經(jīng)網(wǎng)絡(luò)的參數(shù)配置。他們結(jié)合了自動編碼器框架和標準潛在擴散模型(LDM)設(shè)計了一種新穎的方法,即“參數(shù)擴散”(p-diff),通過訓(xùn)練LDM從隨機噪聲中合成有效的神經(jīng)網(wǎng)絡(luò)參數(shù)latent representations。

此方法具有以下特點:1)它始終達到與訓(xùn)練數(shù)據(jù)相似的性能,甚至能在多數(shù)據(jù)集和架構(gòu)中增強性能;2)生成的模型與訓(xùn)練的模型有很大的不同,這表明此方法可以合成新參數(shù),而不是記憶訓(xùn)練樣本。

擴散模型如何生成“神經(jīng)網(wǎng)絡(luò)”?

盡管擴散模型已經(jīng)在視覺內(nèi)容生成任務(wù)上取得了顯著成就,然而在其他眾多領(lǐng)域的應(yīng)用潛力仍有待深入挖掘。

在此之前,學(xué)術(shù)界和工業(yè)界的研究重心主要在于如何通過傳統(tǒng)的學(xué)習(xí)策略來獲得針對特定任務(wù)表現(xiàn)優(yōu)異的神經(jīng)網(wǎng)絡(luò)參數(shù),而不是直接利用擴散模型進行參數(shù)生成。學(xué)者們普遍從統(tǒng)計學(xué)先驗和概率模型的角度出發(fā),例如探索隨機神經(jīng)網(wǎng)絡(luò)架構(gòu)及貝葉斯神經(jīng)網(wǎng)絡(luò)方法,以優(yōu)化模型性能。

而在深度學(xué)習(xí)這個大框架下,雖然監(jiān)督學(xué)習(xí)和自監(jiān)督學(xué)習(xí)一直是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的核心機制,并且在很多實際應(yīng)用中取得了巨大成功。但為了更好地展示擴散模型在生成高效能模型架構(gòu)與參數(shù)方面的卓越能力,研究團隊大膽地將目光投向了尚未被充分探索的領(lǐng)域,嘗試利用擴散模型來創(chuàng)造并優(yōu)化高性能、結(jié)構(gòu)新穎的神經(jīng)網(wǎng)絡(luò)參數(shù)。

簡而言之,“Neural Network Diffusion”項目所采用的是一種名為“神經(jīng)網(wǎng)絡(luò)擴散”的方法(p-diff,p代表參數(shù)),使用標準的LDM來合成新參數(shù)。

該團隊經(jīng)過深入研究神經(jīng)網(wǎng)絡(luò)的訓(xùn)練機制以及擴散模型的工作原理后,敏銳地洞察到:基于擴散原理的圖像生成過程與隨機梯度下降(SGD)等常用學(xué)習(xí)方法之間存在著兩種相似性。這意味著擴散模型或許能夠借鑒并革新現(xiàn)有的訓(xùn)練范式,從而為構(gòu)建更加智能且高效的神經(jīng)網(wǎng)絡(luò)提供新的視角與工具。

首先,神經(jīng)網(wǎng)絡(luò)訓(xùn)練和擴散模型的逆過程都可以被視為從隨機噪聲/初始化到特定分布的轉(zhuǎn)變。其次,高質(zhì)量圖像和高性能參數(shù)也可以通過多次噪聲的添加來降級為簡單分布,例如高斯分布。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

基于這些觀察,研究團隊引入了一種新的參數(shù)生成方法,稱之為“神經(jīng)網(wǎng)絡(luò)擴散”(p-diff,p代表參數(shù)),它采用標準的LDM來合成一組新的參數(shù)。

擴散模型能夠?qū)⒔o定的隨機分布轉(zhuǎn)換為特定的隨機分布,因此研究人員使用了一個自動編碼器和一個標準的LDM來學(xué)習(xí)高性能參數(shù)的分布。

該研究方法整合了參數(shù)自動編碼器和擴散模型來實現(xiàn)神經(jīng)網(wǎng)絡(luò)參數(shù)的創(chuàng)新生成。首先,研究人員選取一組經(jīng)過充分訓(xùn)練且表現(xiàn)出色的模型作為基礎(chǔ),從中抽取一部分關(guān)鍵或有代表性的參數(shù)子集,并將這些多維結(jié)構(gòu)的參數(shù)展平為一維向量形式。

接下來,他們構(gòu)建了一個參數(shù)自動編碼器架構(gòu),其中包含一個編碼器模塊,用于從所提取的一維參數(shù)向量中學(xué)習(xí)潛在的低維表示(latent representations),這一過程能夠捕捉到原有參數(shù)的關(guān)鍵特征和模式。同時配備一個解碼器模塊,其任務(wù)是根據(jù)這些潛在表示恢復(fù)出原始的高維參數(shù)結(jié)構(gòu)。

在此基礎(chǔ)上,團隊進一步訓(xùn)練一個標準的擴散模型(LDM,Latent Diffusion Model)以適應(yīng)參數(shù)生成場景,使其能夠在隨機噪聲輸入下逐步迭代并生成與目標參數(shù)對應(yīng)的高質(zhì)量潛在表示。

訓(xùn)練完成后,研究人員利用一個逆擴散過程(p-diffusion process)來生成新的神經(jīng)網(wǎng)絡(luò)參數(shù)。這個過程始于一個隨機噪聲向量,通過逆向遞歸地應(yīng)用擴散模型的反變換,將其一步步轉(zhuǎn)化為有意義的潛在表示。最后,將這些合成的潛在表示輸入訓(xùn)練好的解碼器中,解碼器會將其轉(zhuǎn)換為全新的、有望保持高性能的神經(jīng)網(wǎng)絡(luò)參數(shù)。這種方法不僅拓展了擴散模型的應(yīng)用領(lǐng)域,還可能挖掘出之前未被發(fā)現(xiàn)的有效網(wǎng)絡(luò)結(jié)構(gòu)和參數(shù)配置。

訓(xùn)練后,研究團隊利用 p-diff 通過以下鏈條生成新的參數(shù):隨機噪聲 → 逆過程 → 訓(xùn)練好的解碼器 → 生成的參數(shù)。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑


為了驗證該方法的有效性,研究團隊緊接著還在MNIST、CIFAR-10/100、ImageNet-1K、STL-10等廣泛的數(shù)據(jù)集上進行了評估實驗,實驗主要在神經(jīng)網(wǎng)絡(luò)ResNet-18/50、ViT-Tiny/Base 和 onvNeXt-T/B 上進行。

研究團隊詳細闡述了具體的訓(xùn)練細節(jié)。在實驗中,自動編碼器和LDM均包含了一個基于 4 層 1D CNN 的編碼器和解碼器。研究人員默認收集所有架構(gòu)的200 個訓(xùn)練數(shù)據(jù)。 在神經(jīng)網(wǎng)絡(luò) ResNet-18/50 上,他們從頭開始訓(xùn)練模型。到了最后一個 epoch中,他們則繼續(xù)訓(xùn)練最后兩個歸一化層并修復(fù)其他參數(shù)。在大多數(shù)情況下,自動編碼器和潛在擴散訓(xùn)練可以在單個英偉達的 A100 40G GPU 上于 1~3 小時內(nèi)完成。

實驗過后,研究人員發(fā)現(xiàn),在大多數(shù)情況下,p-diff的方法取得了與兩個基線相似或更好的結(jié)果,這表明了此方法可以有效地學(xué)習(xí)高性能參數(shù)的分布,并從隨機噪聲中生成優(yōu)異的模型。而且,該方法在各種數(shù)據(jù)集上始終表現(xiàn)良好,也證明了它具有良好的通用性。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

那么如何進一步確認p-diff是否真正可以合成新參數(shù),而不只是在記憶訓(xùn)練樣本呢?

為了驗證p-diff能夠生成一些與原始模型表現(xiàn)不同的新參數(shù),研究團隊設(shè)計了另一個實驗,通過比較原始模型、添加噪聲模型、微調(diào)模型和 p-diff 模型的預(yù)測和可視化來研究它們之間的差異。

他們進行了四組對比:1)原始模型之間的相似性; 2)p-diff模型之間的相似性; 3)原始模型和p-diff模型之間的相似性; 4) 原始模型和 p-diff 模型之間的最大相似度(最近鄰)。

可以發(fā)現(xiàn),在不同情況下,生成的模型之間的差異遠大于原始模型之間的差異。 另外,即使是原始模型和生成模型之間的最大相似度,也低于原始模型之間的相似度。這表明,p-diff 的確可以生成與其訓(xùn)練數(shù)據(jù)表現(xiàn)不同的新參數(shù)。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

結(jié)語

Sora的平地一聲驚雷,讓本就火爆的文生圖、文生視頻的領(lǐng)域又增添了好幾分熱度,也讓在圖像和視頻生成方面取得了顯著成功的擴散模型獲得了更多的關(guān)注。

而無論是Sora、DALL·E 、Midjourney,還是Stable Diffusion等已經(jīng)擁有眾多用戶的模型,它們背后的魔法都是擴散模型。在已有的例子中,擴散模型總是被運用在生成圖片或視頻上,而這一次,擴散模型居然直接滲入更深層,直接生成神經(jīng)網(wǎng)絡(luò),這堪稱機器學(xué)習(xí)中“用魔法打敗魔法”的神操作。

今日,研究團隊中的三作 Zhuang Liu 還在社交媒體上答復(fù)了網(wǎng)友的疑惑,解釋了“Neural Network Diffusion”和Sora 負責人 William Peebles 此前發(fā)布的研究“Learning to Learn with Generative Models of Neural Network Checkpoints”之間的區(qū)別:

William Peebles的研究工作是逐步生成參數(shù),更像是優(yōu)化器,將先前的檢查點作為輸入。 “Neural Network Diffusion”則是直接生成整套參數(shù),無需之前的權(quán)重作為輸入。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

盡管研究團隊目前尚未解決內(nèi)存限制、結(jié)構(gòu)設(shè)計效率和性能穩(wěn)定性等問題,但使用擴散模型生成神經(jīng)網(wǎng)絡(luò)的創(chuàng)新嘗試,讓大模型領(lǐng)域的技術(shù)邊界又向外開拓了一面。

擴散模型未來將會有何發(fā)展,讓我們拭目以待。

雷峰網(wǎng) (公眾號:雷峰網(wǎng)) AI 科技評論將持續(xù)關(guān)注大模型領(lǐng)域動態(tài),歡迎添加anna042023,交流認知,互通有無

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見 轉(zhuǎn)載須知 。

用擴散模型生成神經(jīng)網(wǎng)絡(luò)?NUS 尤洋團隊:這不是開玩笑

隨意打賞

提交建議
微信掃一掃,分享給好友吧。
欧美在线播放一区_国产精品久久久亚洲一区_久久午夜a级毛片_国产精品视频大全
亚洲激情小视频| 亚洲国产精品www| 国产日韩精品入口| 国内外成人免费激情在线视频网站| 韩国三级电影久久久久久| 91久久在线播放| 亚洲女女女同性video| 久久久99爱| 欧美视频在线观看 亚洲欧| 国产色视频一区| 亚洲精品视频免费| 欧美在线视频一区二区三区| 欧美成人综合网站| 国产一区二区三区免费观看| 99av国产精品欲麻豆| 欧美中文在线观看国产| 欧美日韩国产小视频在线观看| 国产一区日韩二区欧美三区| 亚洲毛片av| 久久综合中文| 国产精品乱码久久久久久| 亚洲成人在线| 久久国产欧美精品| 国产精品久久久久婷婷| 亚洲激情视频在线观看| 久久黄金**| 国产精品一区在线观看你懂的| 亚洲精品乱码| 免费91麻豆精品国产自产在线观看| 国产精品久线观看视频| 夜夜嗨一区二区三区| 蜜桃av综合| 一区二区三区自拍| 久久精品国产99| 国产欧美视频一区二区| 亚洲永久精品大片| 国产精品电影观看| 99精品国产在热久久婷婷| 欧美成在线视频| 亚洲国产成人久久综合一区| 久久这里只有| 在线观看一区| 麻豆av一区二区三区| 激情成人av| 久久久夜夜夜| 激情欧美亚洲| 麻豆精品视频在线观看| 亚洲国产成人av在线 | 国产欧美欧洲在线观看| 亚洲免费在线观看视频| 国产精品国产三级国产普通话三级| 亚洲美女尤物影院| 欧美美女福利视频| av成人免费| 国产精品久久久久久久久果冻传媒| 一区二区三区 在线观看视频 | 欧美大片在线观看| 亚洲欧洲一二三| 欧美激情在线狂野欧美精品| 亚洲伦伦在线| 国产精品福利在线观看网址| 亚洲欧美国产制服动漫| 国产日韩综合一区二区性色av| 欧美在线电影| 在线看一区二区| 欧美精品一区二区精品网| 在线亚洲成人| 国产视频自拍一区| 免费久久99精品国产自| 日韩午夜剧场| 国产欧美日本一区二区三区| 久久久久久久久久看片| 亚洲日本免费| 国产欧美一区二区精品婷婷| 久久资源av| 在线一区二区三区四区| 国产一区二区0| 欧美国产日韩精品| 亚洲男人天堂2024| 亚洲二区视频| 国产精品美女在线观看| 开元免费观看欧美电视剧网站| 亚洲精品久久久久久一区二区| 国产精品久久久久久久一区探花| 久久精品国产96久久久香蕉| 亚洲精选久久| 国产综合在线看| 欧美日韩在线播放三区| 久久人人97超碰精品888| 亚洲最新在线视频| 一区视频在线| 国产精品视频999| 欧美激情视频在线播放 | 欧美日韩一级大片网址| 久久狠狠婷婷| 亚洲一区在线免费观看| 亚洲激情校园春色| 国内精品久久久久影院 日本资源| 欧美精品色综合| 久久久久久久成人| 午夜精品www| 一本一本久久a久久精品综合妖精 一本一本久久a久久精品综合麻豆 | 嫩草国产精品入口| 欧美一区视频在线| 一区二区三区回区在观看免费视频| 国模精品一区二区三区| 国产精品青草久久| 欧美日韩精品系列| 欧美成人伊人久久综合网| 久久成人一区二区| 性18欧美另类| 亚洲男人第一av网站| 亚洲视频999| 一区二区免费在线观看| 亚洲美女在线看| 91久久久久久久久| 在线免费不卡视频| 精品51国产黑色丝袜高跟鞋| 国产视频精品xxxx| 国产欧美日韩综合一区在线观看 | 亚洲精品国产品国语在线app | 久久久精品2019中文字幕神马| 亚洲欧美久久久久一区二区三区| 99ri日韩精品视频| 夜夜嗨一区二区| 一本色道久久综合亚洲精品不 | 国产一区二区欧美| 国产日韩精品一区二区| 国产视频欧美视频| 国产欧美一区二区三区另类精品| 国产欧美韩国高清| 国产一区二区三区av电影| 国产一区欧美| 在线免费一区三区| 亚洲欧洲综合| 中文亚洲免费| 亚洲女同在线| 久久久久久久综合| 美女视频一区免费观看| 欧美激情精品久久久久久黑人| 欧美久久久久久久久久| 国产精品xxxxx| 国产麻豆日韩欧美久久| 国语自产精品视频在线看一大j8| 国内精品久久国产| 91久久在线观看| 亚洲午夜激情网页| 久久久精品国产一区二区三区| 狂野欧美激情性xxxx| 欧美精品日韩精品| 国产精品一区在线观看| 在线精品视频一区二区三四| 99re6这里只有精品视频在线观看| 亚洲视频电影图片偷拍一区| 欧美一级理论片| 欧美福利电影网| 国产精品每日更新| 在线观看成人一级片| 在线视频亚洲欧美| 久久久久久国产精品mv| 欧美日本在线观看| 国产一区二区成人久久免费影院| 亚洲第一在线视频| 亚洲综合欧美| 欧美成人一二三| 国产毛片一区| 国产一区二区三区丝袜| 欧美精品久久久久久久免费观看| 欧美理论在线播放| 国产视频欧美| 最新日韩在线视频| 久久gogo国模裸体人体| 欧美日韩国产91| 黄色成人在线观看| 亚洲欧美中文另类| 欧美精品在线免费| 一区二区三区无毛| 午夜精品一区二区三区在线播放| 男人天堂欧美日韩| 国产一区二区精品久久91| 一区二区精品在线| 欧美1区3d| 一区二区亚洲精品| 香港成人在线视频| 国产精品激情电影| 亚洲精选91| 欧美福利影院| 在线欧美日韩国产| 久久久精彩视频| 国产欧美日韩亚洲精品| 亚洲一区二区三区四区中文| 欧美夫妇交换俱乐部在线观看| 韩国三级电影久久久久久| 亚洲欧美日韩国产一区二区| 久久精品视频va| 欧美精品videossex性护士| 国产日韩专区| 性xx色xx综合久久久xx| 国产精品免费小视频| 亚洲一区二区三区涩|