91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI畫的簡筆畫能到什么水平

人工智能與大數(shù)據(jù)技術(shù) ? 來源:金磊 ? 作者:金磊 ? 2020-12-25 11:13 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

AI畫的簡筆畫能到什么水平?

給一張美國演員Rami Malek的照片,效果是這樣的。

是不是和原圖很逼近了?

再來看下輸入《老友記》合影的效果。

雖然人物眾多,但出來的簡筆畫效果,依舊還是能分清劇中的人物。

如果毛發(fā)特別濃密的人物照,AI還能hold得住嗎?

小姐姐“爆炸頭”的邊緣毛發(fā),也算得上是完美還原了。

再近距離一些的呢?來看“霉霉”(Taylor Swift)照片的效果。

可以說是相當(dāng)?shù)募?xì)節(jié)了,把發(fā)絲的層次感、光感,以及衣物的褶皺,都發(fā)揮的“淋漓盡致”。

……

這些就是出自一個叫ArtLine的AI的作品。

而且它在Reddit非?;鸨呀?jīng)達(dá)到了1100+的熱度。

如此惟妙惟肖的效果,你是不是認(rèn)為又是GAN的功勞?

錯!

ArtLine完全沒有用到GAN:

也正因如此,ArtLine的效果真真兒的驚艷到了網(wǎng)友。

那么,它是如何做到的呢?

ArtLine背后的三大“法寶”

ArtLine的作者十分爽快地分享了其背后的三大技術(shù):

Self-Attention

Progressive Resizing

Generator Loss

接下來,一起逐一看下各個技術(shù)背后的細(xì)節(jié)內(nèi)容。

Self-Attention部分引用的技術(shù),出自兩年前GAN之父lan Goodfellow等人提出的研究。

等等,剛才不是還說“沒用到GAN”嗎?

作者對此的解釋是:

并沒有起到太大作用。

這項研究主要是在GAN生成中加入了注意力機制,同時將SNgan的思想引入到生成器當(dāng)中。

所要解決的是傳統(tǒng)GAN自身存在的一些問題,例如:

使用小的卷積核很難發(fā)現(xiàn)圖像中的依賴關(guān)系

使用大的卷積核就會喪失卷積網(wǎng)絡(luò)參數(shù)與計算的效率

研究中核心的自注意力機制如下圖所示。

其中,f(x),g(x)和h(x)都是普通的1x1卷積,差別只在于輸出通道大小不同。

而后,將f(x)的輸出轉(zhuǎn)置,并和g(x)的輸出相乘,再經(jīng)過softmax歸一化,得到一個Attention Map。

得到Attention Map之后,和h(x)逐像素點相乘,得到自適應(yīng)的注意力feature maps。

206cd116-4658-11eb-8b86-12bb97331649.png

從結(jié)果上來看,引入自注意力機制的效果,確實在FID和IS兩個性能指標(biāo)下,得到了較好的效果。

ArtLine涉及到的第二個技術(shù)靈感,來自英偉達(dá)在2018年的一項研究。

20a9d660-4658-11eb-8b86-12bb97331649.png

這項研究主要提出了一種新的訓(xùn)練對抗神經(jīng)網(wǎng)絡(luò)的方法。

核心思想是逐步訓(xùn)練生成器和判別器:從低分辨率開始,隨著訓(xùn)練進程推進,逐步增加新的層來提煉細(xì)節(jié)。

這種方法不僅加快了訓(xùn)練速度并且更加穩(wěn)定,可以產(chǎn)生高質(zhì)量的圖像。

ArtLine所涉及到的最后一個技術(shù),是來自斯坦福大學(xué)李飛飛團隊在2016年提出的研究。

這項研究主要解決了實現(xiàn)的風(fēng)格轉(zhuǎn)換,比較費時的問題。

風(fēng)格轉(zhuǎn)換部分主要用了上面的網(wǎng)絡(luò)模型,這個模型可以分為兩部分:左側(cè)是圖像轉(zhuǎn)換網(wǎng)絡(luò),而右側(cè)是損耗網(wǎng)絡(luò)。

其超分辨率重建也是采用上面的網(wǎng)絡(luò)模型,只是具體內(nèi)部的圖像轉(zhuǎn)換網(wǎng)絡(luò)部分稍有區(qū)別。

這個網(wǎng)絡(luò)與之前的研究相比,效果達(dá)到了相當(dāng)?shù)乃?,但速度卻提升了百倍之多,達(dá)到3個數(shù)量級。

21dfa44c-4658-11eb-8b86-12bb97331649.png

關(guān)于作者

ArtLine的項目作者叫做Vijish Madhavan。

他在GitHub中坦言自己并非程序員出身,也道出了ArtLine目前存在的一些缺陷,例如處理像素低于500px的圖像時,效果并不理想等。

現(xiàn)在,ArtLine可以在線玩了!

感興趣的讀者,可以戳下方鏈接體驗一下。

Colab鏈接:

https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine(Try_it_on_Colab).ipynb.ipynb)
https://colab.research.google.com/github/vijishmadhavan/Light-Up/blob/master/ArtLine.ipynb

GitHub項目地址:

https://github.com/vijishmadhavan/ArtLine

責(zé)任編輯:xj

原文標(biāo)題:這個AI“大師級”簡筆畫水平,驚艷到了網(wǎng)友:竟然不用GAN

文章出處:【微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40001

    瀏覽量

    301644
  • GaN
    GaN
    +關(guān)注

    關(guān)注

    21

    文章

    2370

    瀏覽量

    82803

原文標(biāo)題:這個AI“大師級”簡筆畫水平,驚艷到了網(wǎng)友:竟然不用GAN

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    論馬斯克的預(yù)言:AI使人類邊緣化

    依據(jù) 馬斯克認(rèn)為AI已進入“遞歸式自我改進”階段,新一代的AI模型由上一代模型參與訓(xùn)練,人類監(jiān)督的角色正在被邊緣化。他預(yù)計完全自動化的AI自我改進可能在2026年底或2027年實現(xiàn),屆時AI
    發(fā)表于 03-14 05:27

    使用NORDIC AI的好處

    Nordic 的 Edge AI 主要有以下幾個好處(基于官方資料總結(jié)): 極低功耗、延長電池壽命 在本地運行 AI,減少無線傳輸次數(shù),而無線收發(fā)是最耗電的部分。設(shè)備只需上傳“結(jié)果/事件”,而不是
    發(fā)表于 01-31 23:16

    純4G?血版AI小智產(chǎn)品方案 #小智AI #AI方案商 #4G通話 #AI終端產(chǎn)品

    AI
    不太正經(jīng)的攻城獅
    發(fā)布于 :2025年12月21日 14:36:55

    VS680 HDMI AI分析解決方案 #目標(biāo)識別 #視頻翻譯 #AI #芯片

    AI
    深蕾半導(dǎo)體
    發(fā)布于 :2025年11月12日 10:29:33

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的科學(xué)應(yīng)用

    AI被賦予了人的智能,科學(xué)家們希望在沒有人類的引導(dǎo)下,AI自主的提出科學(xué)假設(shè),諾貝爾獎級別的假設(shè)哦。 AI驅(qū)動科學(xué)被認(rèn)為是科學(xué)發(fā)現(xiàn)的第五個范式了,與實驗科學(xué)、理論科學(xué)、計算科學(xué)、數(shù)據(jù)驅(qū)動科學(xué)一起構(gòu)成
    發(fā)表于 09-17 11:45

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:從AI硬件到AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導(dǎo)體芯片技術(shù)加以實現(xiàn)。 而大腦是一個由無數(shù)神經(jīng)元通過突觸連接而成的復(fù)雜網(wǎng)絡(luò),是極其復(fù)雜和精密的。大腦在本質(zhì)上就是一臺濕潤的軟組織
    發(fā)表于 09-06 19:12

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】基于MaixCAM-Pro的AI生成圖像鑒別系統(tǒng)

    。 你的任務(wù)是:根據(jù)用戶提供的指定主題,自動構(gòu)思并隨機生成具有創(chuàng)造性和童趣的繪本插畫 要求: 1. 圖像風(fēng)格應(yīng)統(tǒng)一為“繪本插畫風(fēng)格”,可帶有手繪、水彩、蠟筆、油畫或簡筆畫的質(zhì)感。 2. 保持溫暖
    發(fā)表于 08-21 13:59

    AI 芯片浪潮下,職場晉升新契機?

    申報人員提供繼續(xù)教育證明 。關(guān)注行業(yè)前沿動態(tài),參加各類專業(yè)培訓(xùn)、學(xué)術(shù)研討會,不僅有助于提升自身專業(yè)水平,還能為職稱申報積累必要的學(xué)分。 通過閱讀最新的學(xué)術(shù)論文、行業(yè)報告,了解 AI 芯片領(lǐng)域的最新研究成果
    發(fā)表于 08-19 08:58

    K230芯片溫度過高會燒掉嗎?最高能到多少度呢?

    如題,K230芯片溫度過高會燒掉嗎?最高能到多少度?我有時候運行的時候發(fā)現(xiàn)芯片溫度到70度了,會不會燒壞
    發(fā)表于 08-08 06:09

    AIoT智能體崛起:物聯(lián)網(wǎng)正塑造AI在實體世界的運行框架

    目前一個值得關(guān)注的趨勢在悄然發(fā)生:AI不再只是一個云端工具,開始成為一個“在場”的智能體,而物聯(lián)網(wǎng)正塑造AI在實體世界的運行框架。本文將通過以下5個部分闡述:1.范式轉(zhuǎn)變:從通用智能到場景智能2.
    的頭像 發(fā)表于 07-31 16:54 ?1103次閱讀
    AIoT智能體崛起:物聯(lián)網(wǎng)正塑造<b class='flag-5'>AI</b>在實體世界的運行框架

    觸摸芯片全面選型指南:從功能到場景的全維度考量

    觸摸芯片全面選型指南:從功能到場景的全維度考量
    的頭像 發(fā)表于 07-17 17:54 ?848次閱讀

    【BPI-CanMV-K230D-Zero開發(fā)板體驗】視頻會議場景下的 AI 應(yīng)用(電子云臺 EPTZ、人像居中 / 追蹤、畫中

    上人物表情細(xì)節(jié),又想看清整個舞臺畫面時,“畫中”功能就提供了這種優(yōu)勢。“畫中”通過在畫面上疊加一個全景畫面,來達(dá)到同時看清人物細(xì)節(jié)和舞臺全景的效果。   除此之外,會議場景還有諸多 AI
    發(fā)表于 07-09 20:56

    不知道怎么原理圖了

    某天,某實驗室,幾位工程師在討論《原理圖設(shè)計規(guī)范》。一秒之前還很和諧,下一秒討論原理圖怎么的時候,大家的意見就分歧很大了。類似于“豆?jié){是喝甜的還是咸的”、“粽子里面是放棗子還是放肉”。原來電路圖
    的頭像 發(fā)表于 04-30 18:40 ?1027次閱讀
    不知道怎么<b class='flag-5'>畫</b>原理圖了