91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能 | 深度學(xué)習(xí)涉足美妝領(lǐng)域,網(wǎng)紅博主要失業(yè)?

電子工程師 ? 來源:YXQ ? 2019-05-27 17:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

場景描述:風(fēng)靡各大直播平臺的美妝博主,憑借高超的化妝技術(shù)吸金無數(shù)。而人工智能也已經(jīng)開始學(xué)習(xí)這一本領(lǐng)。利用深度學(xué)習(xí)計算機視覺技術(shù),僅僅根據(jù)人的眼睛特征,就能給出適合用戶的美妝搭配。

關(guān)鍵詞:幾何變換 triplet 損失函數(shù) 遷移學(xué)習(xí)

近年來,網(wǎng)絡(luò)上涌現(xiàn)出越來越多的美妝博主,他們講解美妝技巧,分享化妝品試用效果,以此積累粉絲,與商家合作銷售產(chǎn)品。

比如,前段時間大火的李佳琦,被稱為「口紅魔鬼」的美妝博主。他曾瘋狂地在一次直播中一口氣試了380 種口紅色號,并創(chuàng)下一分鐘內(nèi)售出14,000 支口紅的紀(jì)錄。

然而,很多愛化妝的妹子應(yīng)該早有領(lǐng)悟,明明買了和博主一模一樣的口紅,可畫出來效果卻不一樣??吹健咐罴宴箓冊囉玫纳柡苊篮芟珊苜F氣,可到了自己嘴上怎么就……

口紅界的「賣家秀」和「買家秀」

沒錯,正是因為每個人的臉型、膚色、唇形等等都不一樣,才導(dǎo)致了「賣家秀」和「買家秀」的結(jié)果。

那么問題來了,怎樣才能知道最適合自己的美妝產(chǎn)品是哪款呢?一個叫做 Mira 的公司給出的答案是:用深度學(xué)習(xí)。

深度學(xué)習(xí)也愛美妝

許多人印象中,人工智能、深度學(xué)習(xí)這些名詞和美妝應(yīng)該八竿子打不著關(guān)系,但位于美國洛杉磯的創(chuàng)企 Mira 可不這么想。

這家公司決定用人工智能技術(shù)幫助廣大愛美女士,比如獲取化妝靈感,購買合適的美妝產(chǎn)品等。

美妝前后,效果堪比換臉

在隨機和數(shù)十位美妝人士詳聊后,Mira 團隊了解到,目前女性消費者在尋找合適的化妝產(chǎn)品和美妝方法時,遇到的最大困難是,沒有權(quán)威且可信的聲音能針對她們個人的美容需求做出指導(dǎo)。

在本文我們就聊聊 Mira 的技術(shù)團隊如何用深度學(xué)習(xí)和計算機視覺技術(shù)發(fā)現(xiàn)切中這個問題要害的實例:找到講解人類具體眼型和面部膚色的美妝大咖、圖片和視頻等信息。

沿著這種方式, Mira 團隊借助三個簡單但強大的知識——幾何變換、triplet 損失函數(shù)和遷移學(xué)習(xí),只用最小限度的人類輸入數(shù)據(jù)就能解決種種困難的美妝推斷問題。

AI 幫你選擇最合適的眼妝

眼部分類示意圖

愛化妝的女士都知道,找到適合自己眼睛的美妝產(chǎn)品和方法是很困難的——每個人的眼型和面部膚色都不一樣。

即便是同一種眼妝(比如煙熏妝),根據(jù)眼型不同,所用的化妝方法也大不相同。

雖然像 Birchbox 等推出了一些有用的化妝指南,但 Mira 團隊經(jīng)過調(diào)查發(fā)現(xiàn),美妝愛好者們通常還是喜歡聽聽專業(yè)且可信的建議,尤其是和自己眼型相似的人的化妝建議,她們對這些建議的重視程度甚至都超過了美容專家的意見。

利用人工智能技術(shù),現(xiàn)在我們根據(jù)自己的眼部特征,以及自己其它獨特的面部特征,就能讓自己知道怎么化妝、買什么化妝品。

AI 美妝第一步:尋找相似性

我們把問題形式化一下:根據(jù)一組面部照片,以及少許數(shù)量的人工標(biāo)記的照片(標(biāo)記了眼睛顏色、眼瞼形狀等),找到兩個眼睛之間的視覺相似性度量(《紅樓夢》中「這個妹妹我曾見過的」就是這個意思)。然后用分類器捕捉人工標(biāo)記的屬性。

本文先重點講解如何確定眼睛之間的相似度,后面會詳細(xì)解釋如何進(jìn)行分類任務(wù)。

原始圖像并不是很適合計算視覺相似性或者進(jìn)行分類任務(wù)。因為它們包含的很多相似性都是表面上的(比如畫的妝很相似,由于強光才造成膚色看起來不同)。

而這些和人物真正的眼部結(jié)構(gòu)及面部膚色并沒有關(guān)系。而且,原始圖像一般都處于高維空間,這就需要大量的有標(biāo)記訓(xùn)練數(shù)據(jù)用于分類任務(wù)。

如上圖,如果僅直接比較圖像像素,人物的眼睛都高度相似,但仔細(xì)注意會發(fā)現(xiàn),雖然人物的眼影、光線和視線方向一致,但她們的眼睛顏色和面部膚色卻各不相同。

處理原始圖像的困難所在:雖然上圖兩人的眼睛大不相同,但初始數(shù)據(jù)比較起來卻很相似

那么 Mira 的首要任務(wù)就是:要獲得眼部照片的低維和密集的數(shù)學(xué)表達(dá)形式,也就是我們所說的嵌套」(embeddings)。

它只會捕捉任務(wù)所需的圖像品質(zhì)(嵌套是一種分類特征,以連續(xù)值特征表示。通常,嵌套是指將高維度向量映射到低維度的空間。)這樣一來,「嵌套」應(yīng)當(dāng)忽略這些信息:

眼睛姿勢/視線方向

具體的光線狀況(當(dāng)然還有強大的濾鏡這些)

不管是臉部畫了什么樣的妝

當(dāng)用三重函數(shù)訓(xùn)練眼睛嵌入時,系統(tǒng)學(xué)會了忽略不相關(guān)特征

AI 美妝第二步:投影變換進(jìn)行圖像歸一化

我們可以通過一個簡單的預(yù)處理步驟——投影變化刪除一整個類別的表面相似性。

雖然裁減過的眼部照片會出現(xiàn)很多明顯的結(jié)構(gòu)性差異(比如眼睛不在照片中心,或者由于頭部傾斜的原因出現(xiàn)旋轉(zhuǎn)等),但投影變化能讓我們「扭曲」片,這樣就能保證相同的眼部標(biāo)志處于相同的坐標(biāo)。

借助一丁點的線性代數(shù)原理,我們就可以將一張圖像「扭曲」,這樣一組點會映射為一個新的理想的形狀。旋轉(zhuǎn)和拉伸圖像的過程如下所示:

使用投影變化,可以將上面的圖像進(jìn)行扭曲處理,上圖中的 4 個紅點會組成一個矩形,從而將紅點圍住的文本「拉直」。Mira 團隊在將眼部照片進(jìn)行正?;幚頃r,應(yīng)用了同樣的方法。

研究人員接用 dlib 檢測出臉部標(biāo)記(如果你對 dlib 感興趣,可以在以下鏈接中了解:http://blog.dlib.net/2014/08/real-time-face-pose-estimation.html)。

剪裁照片中的眼部部位,將其「扭曲」處理,確保它們對齊和一致。這步操作能讓他們專注于讓「嵌套」不受人物頭部姿勢和傾斜角度的影響。

接著進(jìn)行圖像歸一化:檢測出面部標(biāo)志,剪裁眼部圖像,然后用投影轉(zhuǎn)換將眼部圖像「扭曲」至標(biāo)準(zhǔn)位置。

圖像預(yù)處理流程中的圖像樣本

AI 美妝第三步:用 triplet 損失函數(shù)進(jìn)行表示學(xué)習(xí)

「扭曲」處理后的圖像進(jìn)行直接比較時,仍會表現(xiàn)出一些表面相似性,包括視線方向和相似的化妝等。深度學(xué)習(xí)技術(shù)就是解決這個問題的藥方。

研究人員訓(xùn)練了一個卷積神經(jīng)網(wǎng)絡(luò),用眼部照片輸入它后會輸出向量,相比不同人之間,同一個人眼部照片輸出的向量更具相似性。神經(jīng)網(wǎng)絡(luò)會學(xué)習(xí)輸出每個人眼在不同環(huán)境下的穩(wěn)定持續(xù)的表示形式。

當(dāng)然,這里所以靠的正是前面所說的triplet 損失函數(shù),其公式如下所示:

這詳細(xì)說明了當(dāng)函數(shù)將具體個體(錨點和正樣本)的兩個「嵌套」放置的位置比錨點和無關(guān)個體(負(fù)樣本)的位置更近時,模型的損失和優(yōu)化目標(biāo)會遞減。

模型架構(gòu)示意圖

當(dāng)研究人員將眼部照片應(yīng)用到模型中時,他們發(fā)現(xiàn)生成的「嵌套」很好地指出了具有相似眼部結(jié)構(gòu)和面部膚色的兩張照片。

眼部嵌套相似的照片示例

這里所用的方法其實和谷歌的FaceNet 很像,也就是通過對照片進(jìn)行「扭曲」和一致性處理,應(yīng)用 triplet 損失函數(shù),生成臉部級別的圖像嵌套。

AI 美妝第四步:合并嵌套

研究人員對生成的嵌套進(jìn)行了簡單調(diào)試,讓其同樣適用于支持人級(Person-level)的眼部表示——提取出每個幀的全部噪聲數(shù)據(jù)。

通過使用上面神經(jīng)網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,研究人員又采用了新的損失函數(shù),該函數(shù)將多組嵌套的平均值放在極為相近的位置(相對于無關(guān)個體),如下所示:

使用先前神經(jīng)網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,研究人員可以讓網(wǎng)絡(luò)能夠以求平均值的方式將眼部嵌套合并在一起,能看到模型快速收斂。這個過程就是常說的遷移學(xué)習(xí)。

遷移學(xué)習(xí)讓嵌套能夠合并為一個個體眼睛的更為整體的表示。雖然此時神經(jīng)網(wǎng)絡(luò)架構(gòu)非常復(fù)雜了,但模型由于采用了遷移學(xué)習(xí)的原因能夠快速收斂。

最終,研究人員用數(shù)據(jù)集對模型進(jìn)行了驗證,發(fā)現(xiàn)模型生成的嵌套能夠捕捉個體之間的很細(xì)微的相似性,如下所示:

每一行人物的眼部嵌套之間非常相似

看你一眼,就給出完美妝容建議

通過獲得單張照片中人眼的高質(zhì)量數(shù)學(xué)表示,研究人員就能找出人物眼睛構(gòu)造的相似性,這就為只根據(jù)人的眼睛,為他/她匹配合適的眼妝風(fēng)格打下了基礎(chǔ)。

Mira 技術(shù)團隊表示接下來的任務(wù)是應(yīng)用幾種監(jiān)督式學(xué)習(xí)方法(分類眼型、回歸眼睛顏色等),以及一些分析方法,搭建出能為人們提供化妝建議的 AI 模型。

也就是說,未來,妹子們不必再發(fā)愁畫什么樣的妝最適合自己的眼睛和膚色了,更不必機械地參考標(biāo)準(zhǔn)化妝指南和美妝博主試色效果,AI 會為你推薦更適合你自己的美妝術(shù)。

如此一來,美妝博主們恐怕要被搶飯碗了?不過,李佳琦也不用再那么辛苦地,在一次直播中試色 380 次了。

注:本文所有代碼和結(jié)果的實現(xiàn)用到了 NumPy,SciPy,Matplotlib,Chainer,dlib 和 SqueezeNet 架構(gòu)。

超神經(jīng)百科

遷移學(xué)習(xí)

遷移學(xué)習(xí)是一種機器學(xué)習(xí)方法,就是把為任務(wù) A 開發(fā)的模型作為初始點,重新使用在為任務(wù) B 開發(fā)模型的過程中。

深度學(xué)習(xí)中,在計算機視覺任務(wù)和自然語言處理任務(wù)中,將預(yù)訓(xùn)練的模型作為新模型的起點是一種常用的方法,通常這些預(yù)訓(xùn)練的模型在開發(fā)神經(jīng)網(wǎng)絡(luò)的時候已經(jīng)消耗了巨大的時間資源和計算資源,遷移學(xué)習(xí)可以將已習(xí)得的強大技能遷移到相關(guān)的的問題上。

以下是兩個常用的方法:

1. 開發(fā)模型的方法

2. 預(yù)訓(xùn)練模型的方法

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1818

    文章

    50115

    瀏覽量

    265591
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5599

    瀏覽量

    124423

原文標(biāo)題:深度學(xué)習(xí)涉足美妝領(lǐng)域,網(wǎng)紅博主要失業(yè)?

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    淺談人工智能(2)

    接前文《淺談人工智能(1)》。 (5)什么是弱人工智能、強人工智能以及超人工智能? 弱人工智能(Weak AI),也稱限制
    的頭像 發(fā)表于 02-22 08:24 ?162次閱讀
    淺談<b class='flag-5'>人工智能</b>(2)

    人工智能與機器學(xué)習(xí)在這些行業(yè)的深度應(yīng)用

    人工智能和機器學(xué)習(xí)問世以來,多個在線領(lǐng)域的數(shù)字化格局迎來了翻天覆地的變化。這些技術(shù)從誕生之初就為企業(yè)賦予了競爭優(yōu)勢,而在線行業(yè)正是受其影響最為顯著的領(lǐng)域。
    的頭像 發(fā)表于 02-04 14:44 ?508次閱讀

    華盛昌DeepSense深度感測大模型通過生成式人工智能服務(wù)備案

    近日,深圳市華盛昌科技實業(yè)股份有限公司(以下簡稱“華盛昌”)的“DeepSense深度感測大模型”在歷經(jīng)屬地網(wǎng)信辦初審、中央網(wǎng)信辦終審及六大部委意見征詢后,通過廣東省生成式人工智能服務(wù)
    的頭像 發(fā)表于 09-08 14:49 ?1837次閱讀

    航天宏圖人工智能技術(shù)深度賦能社會治理現(xiàn)代化

    航天宏圖多年來持續(xù)重點投入技術(shù)研發(fā),尤其專注人工智能深度探索。航天宏圖多以自主研發(fā)“天權(quán)大模型” 是一款基于多模態(tài)大模型技術(shù)的遙感解譯專用AI大模型,它以人工智能為底座,提供遙感影像智能
    的頭像 發(fā)表于 09-06 10:35 ?1176次閱讀
    航天宏圖<b class='flag-5'>人工智能</b>技術(shù)<b class='flag-5'>深度</b>賦能社會治理現(xiàn)代化

    挖到寶了!人工智能綜合實驗箱,高校新工科的寶藏神器

    和生態(tài)體系帶到使用者身邊 ,讓我們在技術(shù)學(xué)習(xí)和使用上不再受制于人。 三、多模態(tài)實驗,解鎖AI全流程 它嵌入了2D視覺、深度視覺、機械手臂、語音識別、嵌入式傳感器等多種類AI模塊,涵蓋人工智能領(lǐng)
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實驗箱,高校新工科的寶藏神器!

    和生態(tài)體系帶到使用者身邊 ,讓我們在技術(shù)學(xué)習(xí)和使用上不再受制于人。 三、多模態(tài)實驗,解鎖AI全流程 它嵌入了2D視覺、深度視覺、機械手臂、語音識別、嵌入式傳感器等多種類AI模塊,涵蓋人工智能領(lǐng)
    發(fā)表于 08-07 14:23

    超小型Neuton機器學(xué)習(xí)模型, 在任何系統(tǒng)級芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競爭對手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文中,我們將介紹
    發(fā)表于 07-31 11:38

    人工智能在汽車行業(yè)中的應(yīng)用

    ?人工智能(AI)是許多行業(yè)和應(yīng)用領(lǐng)域的熱門話題。但對于汽車行業(yè)而言,這并非一個新概念。人工智能,尤其是機器學(xué)習(xí)——即通過數(shù)據(jù)讓機器學(xué)習(xí)并隨
    的頭像 發(fā)表于 07-31 11:07 ?2055次閱讀

    CES Asia 2025蓄勢待發(fā),聚焦低空經(jīng)濟與AI,引領(lǐng)未來產(chǎn)業(yè)新變革

    可能性。智能無人機在物流配送、巡檢監(jiān)測等領(lǐng)域的應(yīng)用愈發(fā)成熟,大大提高了工作效率和精準(zhǔn)度。低空經(jīng)濟的發(fā)展,不僅帶動了相關(guān)技術(shù)的進(jìn)步,還創(chuàng)造了新的就業(yè)機會和經(jīng)濟增長點。 人工智能領(lǐng)域同樣發(fā)
    發(fā)表于 07-09 10:29

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會發(fā)展的當(dāng)下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲備,掌握大模型知識都已成為新時代的必修課。從職場上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    生成式人工智能認(rèn)證(GAI認(rèn)證)官網(wǎng) - 全國統(tǒng)一認(rèn)證中文服務(wù)平臺上線

    在科技日新月異的今天,人工智能(AI)正以前所未有的速度改變著我們的生活和工作方式。其中,生成式人工智能作為AI領(lǐng)域的一顆璀璨新星,正逐漸成為職場新寵。然而,隨著其應(yīng)用的普及,如何標(biāo)準(zhǔn)化、系統(tǒng)化地
    的頭像 發(fā)表于 05-14 17:30 ?1197次閱讀

    開售RK3576 高性能人工智能主板

    ,HDMI-4K 輸出,支 持千兆以太網(wǎng),WiFi,USB 擴展/重力感應(yīng)/RS232/RS485/IO 擴展/I2C 擴展/MIPI 攝像頭/紅外遙控 器等功能,豐富的接口,一個全新八核擁有超強性能的人工智能
    發(fā)表于 04-23 10:55

    雅詩蘭黛利用微軟科技AI技術(shù)加速高端創(chuàng)新

    匹配、虛擬試妝的閉環(huán),將數(shù)據(jù)積淀轉(zhuǎn)化為敏捷商業(yè)優(yōu)勢。AI系統(tǒng)將進(jìn)一步拓展至生產(chǎn)培訓(xùn)等領(lǐng)域,持續(xù)領(lǐng)跑高端創(chuàng)新。
    的頭像 發(fā)表于 04-22 16:10 ?1113次閱讀

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺,加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長領(lǐng)域提供解決方案,包括企業(yè)級AI智能體、定制化行業(yè)大型語言模型及搭載N
    的頭像 發(fā)表于 03-26 14:42 ?752次閱讀
    Cognizant將與NVIDIA合作部署神經(jīng)<b class='flag-5'>人工智能</b>平臺,加速企業(yè)<b class='flag-5'>人工智能</b>應(yīng)用

    人工智能視覺識別技術(shù)的應(yīng)用領(lǐng)域及場景

    人工智能視覺識別技術(shù)的應(yīng)用領(lǐng)域及場景
    的頭像 發(fā)表于 03-14 11:41 ?2993次閱讀