摘要:然而,對于廣大工程人員而言,應(yīng)用新技術(shù)仍存在挑戰(zhàn),谷歌最近開源的庫解決了這個問題。為使開發(fā)者更輕松地使用進行實驗,谷歌最近開源了,一個實現(xiàn)輕松訓(xùn)練和評估的輕量級庫。
生成對抗網(wǎng)絡(luò)(GAN)自被 Ian Goodfellow 等人提出以來,以其優(yōu)異的性能獲得人們的廣泛關(guān)注,并應(yīng)用于一系列任務(wù)中。然而,對于廣大工程人員而言,應(yīng)用新技術(shù)仍存在挑戰(zhàn),谷歌最近開源的 TFGAN 庫解決了這個問題。
項目鏈接:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/gan
使用
訓(xùn)練神經(jīng)網(wǎng)絡(luò)通常需要定義一個損失函數(shù),告訴網(wǎng)絡(luò)自己距離目標(biāo)還有多遠(yuǎn)。例如:圖像分類網(wǎng)絡(luò)通常會給出一個損失函數(shù),對錯誤的分類做出懲罰判定;如果網(wǎng)絡(luò)錯將狗的圖片識別為貓,則獲得高損失值。然而,并非所有問題都可以簡單地用損失函數(shù)來標(biāo)量,特別是當(dāng)問題涉及到人類感知上時,如圖像壓縮或文本轉(zhuǎn)語音系統(tǒng)等。生成對抗網(wǎng)絡(luò)(GAN)的出現(xiàn)解決了其中的很多問題,它是一種先進的機器學(xué)習(xí)方法,已被廣泛應(yīng)用于從文本生成圖像、超分辨率和讓機器人學(xué)習(xí)抓取物體等任務(wù)中。但 GAN 的出現(xiàn)也引入了新的理論,為軟件工程帶來了新的挑戰(zhàn),我們很難跟上 GAN 研究的快速步伐。
為使開發(fā)者更輕松地使用 GAN 進行實驗,谷歌最近開源了 TFGAN,一個實現(xiàn)輕松訓(xùn)練和評估 GAN 的輕量級庫。它為開發(fā)者輕松訓(xùn)練 GAN 提供了基礎(chǔ)條件,提供經(jīng)過完整測試的損失函數(shù)和評估指標(biāo),同時提供易于使用的范例,這些范例展示了 TFGAN 的表達能力和靈活性。谷歌還發(fā)布了一個包含高級 API 的教程,幫助人們快速上手,使用自己的數(shù)據(jù)訓(xùn)練模型。
TFGAN 教程:https://github.com/tensorflow/models/blob/master/research/gan/tutorial.ipynb
上圖展示了對抗損失在圖像壓縮中的影響。最頂端一行圖片來自 ImageNet 數(shù)據(jù)集。中間一行展示了用傳統(tǒng)損失訓(xùn)練的圖像壓縮神經(jīng)網(wǎng)絡(luò)對圖像進行壓縮和解壓縮的結(jié)果。底行圖片展示了使用傳統(tǒng)損失和對抗性損失訓(xùn)練的網(wǎng)絡(luò)進行圖像壓縮的結(jié)果。使用 GAN 損失函數(shù)的圖像更加清晰,包含更多細(xì)節(jié),即使它可能會與原圖像的差距更大。
TFGAN 以幾種簡單的方式支持實驗。它提供簡單的函數(shù)調(diào)用,涵蓋大部分 GAN 用例,讓你僅用幾行代碼就可以用自己的數(shù)據(jù)運行模型。同時,它是以模塊化方式構(gòu)建的,可以覆蓋更多的 GAN 結(jié)構(gòu)設(shè)計。你可以自由選用自己想要的模塊——損失、評估、特征、訓(xùn)練等等,所有這一切都是互相獨立的。TFGAN 的輕量級設(shè)計意味著你既可以在原生 TensorFlow 代碼上使用它,也可以與其他框架一同使用。使用 TFGAN 編寫的 GAN 模型可以輕松獲取未來基礎(chǔ)設(shè)施改善帶來的便利。在這里,你可以從大量已實現(xiàn)的損失和功能中進行選擇,無需重新編寫自己的模型。最后,這些代碼都經(jīng)過了完整測試,你不必?fù)?dān)心使用 GAN 庫經(jīng)常出現(xiàn)的數(shù)值或統(tǒng)計錯誤。
TFGAN 由以下幾個獨立存在的部分組成:
核心:提供訓(xùn)練 GAN 所需的主要基礎(chǔ)設(shè)施。訓(xùn)練分四個階段進行,每個階段都可以通過自定義代碼或使用 TFGAN 庫調(diào)用來完成。
功能:很多常見的 GAN 操作和歸一化技術(shù)可供使用,包括實例歸一化和條件化(conditioning)。
損失:允許輕松利用已實現(xiàn)且經(jīng)過完整測試的損失和懲罰機制進行實驗,如 Wasserstein 損失、梯度懲罰、互信息懲罰等。
評估:使用 Inception Score 或 Frechet Distance 與預(yù)訓(xùn)練的 Inception 網(wǎng)絡(luò)評估無條件生成模型。你還可以使用自己的預(yù)訓(xùn)練分類器獲得更加具體的結(jié)果,或使用其他方法對條件生成模型進行評估。
示例和教程:從示例中可以學(xué)習(xí)如何使用 TFGAN 讓 GAN 訓(xùn)練變得更簡單,你也可以參考更復(fù)雜的示例來啟動自己的項目。這些內(nèi)容包括無條件和條件 GAN、InfoGAN、現(xiàn)有網(wǎng)絡(luò)的對抗損失,以及圖像到圖像翻譯。
大多數(shù)神經(jīng)文本轉(zhuǎn)語音系統(tǒng)(TTS)都會生成過于平滑的頻譜。當(dāng)應(yīng)用 Tacotron TTS 系統(tǒng)時,GAN 可以生成一些更加接近真實紋理的頻譜,從而減少結(jié)果音頻中的人工痕跡。
使用 TFGAN 還意味著你正在使用和大量谷歌研究者相同的基礎(chǔ)工具,這樣,你就可以從谷歌員工開發(fā)的前沿技術(shù)中受益。與此同時,所有人也都可以在 GitHub 上做出自己的貢獻,谷歌希望分享代碼的精神可以促進整個機器學(xué)習(xí)社區(qū)的發(fā)展。
原文地址:https://research.googleblog.com/2017/12/tfgan-lightweight-library-for.html
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://www.ezyhdfw.cn/yun/4705.html
摘要:近日,谷歌大腦發(fā)布了一篇全面梳理的論文,該研究從損失函數(shù)對抗架構(gòu)正則化歸一化和度量方法等幾大方向整理生成對抗網(wǎng)絡(luò)的特性與變體。他們首先定義了全景圖損失函數(shù)歸一化和正則化方案,以及最常用架構(gòu)的集合。 近日,谷歌大腦發(fā)布了一篇全面梳理 GAN 的論文,該研究從損失函數(shù)、對抗架構(gòu)、正則化、歸一化和度量方法等幾大方向整理生成對抗網(wǎng)絡(luò)的特性與變體。作者們復(fù)現(xiàn)了當(dāng)前較佳的模型并公平地對比與探索 GAN ...
摘要:我仍然用了一些時間才從神經(jīng)科學(xué)轉(zhuǎn)向機器學(xué)習(xí)。當(dāng)我到了該讀博的時候,我很難在的神經(jīng)科學(xué)和的機器學(xué)習(xí)之間做出選擇。 1.你學(xué)習(xí)機器學(xué)習(xí)的歷程是什么?在學(xué)習(xí)機器學(xué)習(xí)時你最喜歡的書是什么?你遇到過什么死胡同嗎?我學(xué)習(xí)機器學(xué)習(xí)的道路是漫長而曲折的。讀高中時,我興趣廣泛,大部分和數(shù)學(xué)或科學(xué)沒有太多關(guān)系。我用語音字母表編造了我自己的語言,我參加了很多創(chuàng)意寫作和文學(xué)課程。高中畢業(yè)后,我進了大學(xué),盡管我不想去...
摘要:下圖總結(jié)了絕大多數(shù)上的開源深度學(xué)習(xí)框架項目,根據(jù)項目在的數(shù)量來評級,數(shù)據(jù)采集于年月初。然而,近期宣布將轉(zhuǎn)向作為其推薦深度學(xué)習(xí)框架因為它支持移動設(shè)備開發(fā)。該框架可以出色完成圖像識別,欺詐檢測和自然語言處理任務(wù)。 很多神經(jīng)網(wǎng)絡(luò)框架已開源多年,支持機器學(xué)習(xí)和人工智能的專有解決方案也有很多。多年以來,開發(fā)人員在Github上發(fā)布了一系列的可以支持圖像、手寫字、視頻、語音識別、自然語言處理、物體檢測的...
閱讀 2488·2023-04-25 19:27
閱讀 3566·2021-11-24 09:39
閱讀 3980·2021-10-08 10:17
閱讀 3454·2019-08-30 13:48
閱讀 2005·2019-08-29 12:26
閱讀 3179·2019-08-28 17:52
閱讀 3591·2019-08-26 14:01
閱讀 3589·2019-08-26 12:19