3D打印的人工智能設(shè)備以光速識別物體

發(fā)布日期:2018-08-06 08:37:32

      使用3D打印機(jī),加州大學(xué)洛杉磯分校電氣和計算機(jī)工程師團(tuán)隊創(chuàng)建了一個基于人工智能(AI)的設(shè)備,可以分析大量數(shù)據(jù)并以光速識別物體。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中發(fā)展最快的機(jī)器學(xué)習(xí)方法之一,通常用于醫(yī)學(xué)圖像分析,語言翻譯,圖像分類,語音識別以及解決更具體的任務(wù),例如解決逆成像問題。
     傳統(tǒng)上,深度學(xué)習(xí)系統(tǒng)被實(shí)現(xiàn)為在計算機(jī)上執(zhí)行以數(shù)字化學(xué)習(xí)數(shù)據(jù)表示,并執(zhí)行與人類性能相當(dāng)或甚至更好的高級任務(wù)。然而,由加州大學(xué)洛杉磯分校電氣和計算機(jī)工程教授Aydogan Ozcan博士領(lǐng)導(dǎo)的團(tuán)隊引入了一種物理機(jī)制,使用全光學(xué)衍射深度神經(jīng)網(wǎng)絡(luò)(D2NN)實(shí)現(xiàn)深度學(xué)習(xí)。該光學(xué)人工神經(jīng)網(wǎng)絡(luò)設(shè)備直觀地模擬大腦如何處理信息。它使用從對象本身反射的光來在很短的時間內(nèi)識別該對象,這是計算機(jī)簡單地“看到”對象所需的時間。
       創(chuàng)建人工神經(jīng)網(wǎng)絡(luò)的過程始于計算機(jī)模擬設(shè)計。然后,研究人員使用3D打印機(jī)制作了非常薄的8厘米見方的聚合物晶圓。每個晶片具有不平坦的表面,這有助于在不同方向上衍射來自物體的光。這些層看起來對眼睛是不透明的,但實(shí)驗中使用的亞毫米波長太赫茲頻率的光可以穿過它們。每層由數(shù)萬個人造神經(jīng)元組成,在這種情況下,是能穿過微小像素。一系列像素化層一起用作“光學(xué)網(wǎng)絡(luò)”,其形成來自物體的入射光穿過它們,然后網(wǎng)絡(luò)識別對象,因為來自對象的光主要被衍射到分配給該類型對象的單個像素。
Ozcan研究組/加州大學(xué)洛杉磯分校

       研究人員使用計算機(jī)對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,通過學(xué)習(xí)每個物體在該物體發(fā)出的光線穿過設(shè)備時產(chǎn)生的衍射光圖案來識別其前面的物體。 “訓(xùn)練”使用了一種稱為深度學(xué)習(xí)的人工智能分支,其中機(jī)器通過重復(fù)和隨著時間的推移“學(xué)習(xí)”模式出現(xiàn)。“使用逐層制造的無源元件,并通過光衍射將這些層相互連接,創(chuàng)造了一個獨(dú)特的全光平臺,以光速執(zhí)行機(jī)器學(xué)習(xí)任務(wù)?!監(jiān)zcan博士說。

       在他們的實(shí)驗中,研究人員證明該裝置可以準(zhǔn)確識別手寫的數(shù)字和衣物,這兩種都是人工智能研究中常用的測試。它還可以在太赫茲光譜上執(zhí)行成像鏡頭的功能。加州大學(xué)洛杉磯分校的研究人員認(rèn)為,基于該設(shè)備的新技術(shù)可用于加速涉及排序和識別物體的數(shù)據(jù)密集型任務(wù)。例如,使用該技術(shù)的無人駕駛汽車可以立即做出反應(yīng),甚至比使用現(xiàn)有技術(shù)更快,對停車標(biāo)志做出反應(yīng)。使用基于UCLA系統(tǒng)的設(shè)備,一旦來自標(biāo)志的光擊中它,汽車將“讀取”標(biāo)志,而不是必須“等待”汽車的相機(jī)對物體成像然后使用其計算機(jī)來找出對象是什么。基于本發(fā)明的技術(shù)還可以用于顯微成像和醫(yī)學(xué),例如,用于分選數(shù)百萬個細(xì)胞以尋找疾病的跡象。

Ozcan研究組/加州大學(xué)洛杉磯分校

       由于其組件可以由3D打印機(jī)創(chuàng)建,因此人工神經(jīng)網(wǎng)絡(luò)可以用更大和更多的層制作,從而產(chǎn)生具有數(shù)億個人造神經(jīng)元的設(shè)備。那些更大的設(shè)備可以同時識別更多的對象或執(zhí)行更復(fù)雜的數(shù)據(jù)分析。并且組件可以廉價制作, 由加州大學(xué)洛杉磯分校團(tuán)隊創(chuàng)建的設(shè)備可以低于50美元。

中國3D打印網(wǎng)譯自:3ders.org