文庫中心
news information
- 線束組裝膠帶纏繞指示書
- 線束密封件的設計
- 線束包扎和固定設計
- 汽車碳纖維應用技術解析
- 動力電池內部線束布置及
- 防水連接器的性能標準
- 【IQC】如何做好來料檢驗
- 乘聯會預測2020年國內汽車
- 同比下降6.4% 9月份汽車進
- 投資96億 廣州將建國家級
聯系我們
contact us
-
地址:山東省濟南市歷下區解放路華強廣場A1307
-
電話:
-
座機:400-0304-588
-
郵箱:
所(suo)謂(wei)人(ren)(ren)工(gong)(gong)智(zhi)(zhi)能(neng)(neng)(Artificial Intelligence;縮寫:AI),是(shi)指(zhi)以人(ren)(ren)工(gong)(gong)辦法來結(jie)(jie)束人(ren)(ren)類所(suo)具有(you)之(zhi)智(zhi)(zhi)慧的(de)(de)技術。只不(bu)過,現在(zai)(zai)能(neng)(neng)結(jie)(jie)束與人(ren)(ren)類智(zhi)(zhi)能(neng)(neng)平等的(de)(de)技術還(huan)不(bu)存在(zai)(zai),世界(jie)上絕大(da)大(da)都的(de)(de)人(ren)(ren)工(gong)(gong)智(zhi)(zhi)能(neng)(neng)仍(reng)是(shi)只能(neng)(neng)處理某個特定問題。
一(yi)、AI的三次(ci)浪潮
第(di)一次AI浪潮
第(di)一次AI浪(lang)潮起于(yu)1950~1960年,止于(yu)1980年代。由(you)于(yu)出現在(zai)網絡之前,因此又被稱為“古典人工智(zhi)能”。這時(shi)期出現的“符(fu)號(hao)主(zhu)義”與“聯合主(zhu)義”,分(fen)別(bie)是日后“專家(jia)系統”與“深度學習”的雛形。只不過,雖然當時(shi)的效果(guo)已能解(jie)開拼圖或(huo)簡略的游戲(xi),卻幾乎無(wu)法處理有用的問題。
第2次(ci)AI浪潮(chao)
第2次AI熱潮伴隨著核算(suan)機的(de)廣泛,出現(xian)在1980年代。這時期所(suo)進(jin)行的(de)研討,是以灌注(zhu)「專家知識」作(zuo)為規(gui)則,來幫助處理(li)特定問題的(de)“專家系統”(Expert system)為主。可(ke)是,縱使當時有商業運用的(de)實例(li),運用范疇(chou)卻很有限,熱潮也因此逐漸衰退。
第三次AI浪潮(chao)第三(san)次AI浪潮(chao)則出(chu)現(xian)于(yu)2010年代,伴隨著高功用核(he)(he)算機、因特網、大數(shu)據、傳感器的廣泛,以(yi)及核(he)(he)算成本的下降,“機器學習(xi)”隨之興(xing)起。所謂機器學習(xi)(Machine leaning),是(shi)指讓(rang)核(he)(he)算機許多學習(xi)數(shu)據,使它可以(yi)像人類相同辨識聲音及形(xing)象,或(huo)是(shi)針對問題做出(chu)適宜的判(pan)別。
二、AI的三大(da)技術(shu)
快(kuai)速了解了AI的發展史后(hou),我們來(lai)看(kan)看(kan)當代人工(gong)智能(neng)的三大(da)代表性(xing)模型:遺傳算法、專(zhuan)家系統(tong)、類神(shen)經網絡。
1、遺傳算法
遺傳算法(fa)(Genetic algorithm;GA),又(you)稱(cheng)為(wei)演(yan)(yan)化(hua)(hua)式(shi)算法(fa)(Evolutionary algorithm),是受達爾文(wen)演(yan)(yan)化(hua)(hua)論所啟示的(de)(de)人工智能。它透(tou)過「適者(zhe)生存」的(de)(de)規則,將“優異的(de)(de)個(ge)別”幻(huan)想成“好的(de)(de)答案”,透(tou)過演(yan)(yan)化(hua)(hua)的(de)(de)辦(ban)法(fa)來找(zhao)出最(zui)佳(jia)解。
2、專家系統(tong)
專(zhuan)家系(xi)統(Expert system),則是(shi)針對預設的(de)問題,事前預備好許(xu)多的(de)對應辦法(fa)。它運用(yong)在許(xu)多當地,尤其(qi)是(shi)疾(ji)病診斷。只(zhi)不過,專(zhuan)家系(xi)統只(zhi)能針對專(zhuan)家預先考慮過的(de)狀(zhuang)況來(lai)預備對策,它并沒有自行學(xue)習的(de)才(cai)干,因此仍是(shi)有其(qi)局限(xian)性。
3、類(lei)神經(jing)網絡(luo)
從第三(san)次AI浪潮所興起的(de)(de)機器學(xue)習(Machine learning)有許(xu)多種(zhong)辦法,其間最受注視的(de)(de),莫過于深(shen)度(du)學(xue)習(Deep learning)了(le)。所謂深(shen)度(du)學(xue)習,是透過仿照人(ren)腦(nao)的(de)(de)“類神經網絡(luo)”(Neural network)來(lai)學(xue)習許(xu)大都據的(de)(de)辦法。
類神經網絡的由(you)來
若(ruo)你去查詢腦的內部,會發現有許多稱為(wei)“神(shen)經元”的神(shen)經細(xi)胞相(xiang)相(xiang)互連。一(yi)個神(shen)經元從其他神(shen)經元那里接(jie)納的電氣信(xin)號量達某必定(ding)值以(yi)上,就會振作(zuo)(神(shen)經激動(dong));在某必定(ding)值以(yi)下,就不會振作(zuo)。
振作起來的(de)神經(jing)元(yuan),會(hui)將電器信號傳送給(gei)下一個相(xiang)(xiang)連(lian)的(de)神經(jing)元(yuan)。下一個神經(jing)元(yuan)同樣會(hui)因(yin)此振作或(huo)不振作。簡(jian)略(lve)來說,相(xiang)(xiang)相(xiang)(xiang)互(hu)連(lian)的(de)神經(jing)元(yuan),會(hui)構(gou)成聯合傳遞行為。我們透過將這(zhe)種(zhong)相(xiang)(xiang)連(lian)的(de)結構(gou)來數學模型化,便構(gou)成了類(lei)神經(jing)網絡(luo)。
類神經網絡:深度(du)學習
我(wo)們可(ke)以(yi)發現,經模型化(hua)的的類神經網(wang)絡,是由(you)“輸入層(ceng)(ceng)”(Input layer)、“躲藏層(ceng)(ceng)”(Hidden layer)及“輸出層(ceng)(ceng)”(Output layer)等三(san)層(ceng)(ceng)所構成。其他,學習(xi)數據則是由(you)輸入數據以(yi)及相對應的正確答復來組成。
以形象辨(bian)識(shi)為例,為了讓(rang)AI學習類神(shen)經網絡(luo)的模型,首先(xian)有(you)必要先(xian)將形象學習數據(ju)切割成像(xiang)素(su)數據(ju),然后將各像(xiang)素(su)值輸進輸入(ru)層。
接(jie)受了(le)數(shu)據(ju)的(de)輸入層(ceng)(ceng)(ceng)(ceng),將(jiang)像素值乘上“權重”后,便傳送(song)給后方躲藏層(ceng)(ceng)(ceng)(ceng)的(de)神經(jing)元。躲藏層(ceng)(ceng)(ceng)(ceng)的(de)各個神經(jing)元會累加(jia)前一(yi)層(ceng)(ceng)(ceng)(ceng)所接(jie)納(na)到的(de)值,并(bing)將(jiang)其(qi)效果再(zai)乘上“權重”后,傳送(song)給后方的(de)神經(jing)元。最終,經(jing)由輸出層(ceng)(ceng)(ceng)(ceng)的(de)神經(jing)元的(de)輸出,便可得到形(xing)象辨識的(de)猜想效果。
為了(le)讓輸出(chu)層的值跟各個輸入數(shu)據所對應的正解數(shu)據持平(ping),會對各個神經元的輸入核算出(chu)恰當(dang)的“權重”值。
這個權重的(de)(de)(de)核算(suan),一般是運(yun)用“過(guo)失倒傳遞算(suan)法”(Error Back Propagation),運(yun)用與(yu)正解數據之(zhi)間的(de)(de)(de)過(guo)失,從輸出層逆推(tui)回去。透過(guo)各「權重」的(de)(de)(de)調整,來縮小輸出層的(de)(de)(de)值(zhi)與(yu)正解數據的(de)(de)(de)值(zhi)之(zhi)間的(de)(de)(de)過(guo)失,以樹立出結(jie)束學習(xi)的(de)(de)(de)模型。
由于曩昔類神經網絡之間進行傳遞的權(quan)重值難以優化,因此曾有大都(dou)研(yan)討(tao)者對類神經網絡的研(yan)討(tao)持否(fou)定態(tai)度。直到2006年,辛頓(Geoffrey Hinton)開宣布自動編碼器(Autoencoder)的辦(ban)法(fa),才(cai)突破了這項(xiang)瓶頸。
自(zi)動編(bian)碼(ma)器是(shi)指,在類神(shen)經(jing)網絡(luo)的輸(shu)入層和輸(shu)出層運用相同數據,并將躲藏層設置(zhi)于二者(zhe)之(zhi)間,藉此用來調整類神(shen)經(jing)網絡(luo)之(zhi)間的權重參數的一種辦法(fa)。使用以自(zi)動編(bian)碼(ma)器所獲得的類神(shen)經(jing)網絡(luo)權重參數值(zhi)進行(xing)初始化后(hou),便能運用「過失(shi)倒傳(chuan)遞算法(fa)」,前進多層類神(shen)經(jing)網絡(luo)的學習準確度。
透過類(lei)神經網絡,深(shen)度學習便(bian)成為(wei)了“只需將數據輸入類(lei)神經網絡,它就能自行(xing)抽出特(te)征”的人工(gong)智能,而這又稱(cheng)為(wei)“特(te)征學習”(feature learning)。
深度學習最擅長(chang)的,是它能辨識圖畫數據(ju)或波形數據(ju)這類(lei)無法符(fu)號(hao)化的數據(ju)。自2010年代以來,如(ru)Google、Microsoft及(ji)Facebook等美國出(chu)名IT企業,都初步著手深度學習的研討(tao)。例(li)如(ru),蘋果「Siri」的語音辨認,Microsoft查找(zhao)引(yin)擎「Bing」所具有的形象(xiang)查找(zhao)等等,而Google的深度學習項目(mu)也已超越1,500項。
至于深(shen)度(du)學(xue)(xue)習如此騰躍(yue)的生長,要(yao)歸功于硬設備(bei)的進(jin)(jin)步。圖形處理器(GPU)大(da)廠(chang)輝達(da)(NVIDIA)使用(yong)(yong)該(gai)公(gong)司的圖形適配(pei)器來進(jin)(jin)步深(shen)度(du)學(xue)(xue)習的功用(yong)(yong),供(gong)給鏈接庫(ku)(Library)和(he)結(jie)構(gou)(framework)產品(pin),并活(huo)躍(yue)開設研(yan)討課程(cheng)。其他(ta),Google也(ye)揭露了(le)結(jie)構(gou)「TensorFlow」,可以將深(shen)度(du)學(xue)(xue)習運(yun)用(yong)(yong)于數(shu)據分析。
三、AI的三大運(yun)用
AI運用(yong)范疇(chou)首要(yao)可(ke)分為語(yu)音辨認、形象辨識(shi)以(yi)及自然語(yu)言(yan)處理等(deng)三部分。
1、語音辨認(ren)
語音(yin)(yin)辨認(ren)部分(fen),透(tou)過多年來語音(yin)(yin)辨認(ren)比賽CHiME的(de)研(yan)討(tao),已(yi)經(jing)有了平等人類的(de)辨識度(CHiME,是針對實(shi)際日子(zi)環(huan)境下的(de)語音(yin)(yin)辨認(ren),所進行評測(ce)的(de)世界語音(yin)(yin)辨認(ren)比賽)。此外,Apple、Google、Amazon也相繼提出可運用于(yu)日常(chang)日子(zi)的(de)效(xiao)力,因此其成熟(shu)度已(yi)達到有用等級。
2、形象辨識
形(xing)象辨(bian)識部分,雖(sui)然一般圖片的(de)辨(bian)識已有(you)平(ping)等于人類的(de)辨(bian)識率,但動(dong)態形(xing)象的(de)辨(bian)識準確(que)度(du)卻仍比不上人類,現(xian)在(zai)還在(zai)進行各(ge)種算法的(de)測驗。其間,形(xing)象辨(bian)識現(xian)在(zai)最火熱的(de)運用場域非自動(dong)駕馭莫(mo)屬了。
整個汽車、信息通訊(xun)工業都(dou)正朝著自駕車的方向盡力(li),例(li)如Google繼續進行(xing)自動(dong)駕馭的研討,TOYOTA也在美國樹(shu)立(li)豐田研討所(suo),可以(yi)知道(dao)現階段的開發已非常挨(ai)近有(you)用化。因(yin)此,我(wo)們(men)可判別現在形象(xiang)辨識的成熟度是介在研討和(he)有(you)用等級(ji)之間(jian)。
3、自(zi)然語言處(chu)理(li)
自然語(yu)言處理(Natural language processing;NLP),是試著讓人(ren)工(gong)智能(neng)能(neng)了(le)解人(ren)類所(suo)寫的文字(zi)和(he)所(suo)說的言語(yu)。NLP首先會分(fen)化(hua)詞(ci)性,稱之“語(yu)素分(fen)析”(morphemic analysis),在分(fen)化(hua)出最小的字(zi)義(yi)單位后(hou),接著會進(jin)行“語(yu)法分(fen)析”(syntactic analysis),最終再透(tou)過“語(yu)意分(fen)析”(semantic analysis)來了(le)解含義(yi)。
輸出部分(fen),自(zi)然語言處(chu)理(li)也與(yu)生(sheng)成(cheng)文(wen)(wen)法(fa)(generative grammar)密切相關。生(sheng)成(cheng)文(wen)(wen)法(fa)理(li)論認(ren)為,只需(xu)遵照規則即可(ke)生(sheng)成(cheng)文(wen)(wen)句。這也代(dai)表著,只需(xu)把規則組合在一(yi)起,便(bian)可(ke)能生(sheng)成(cheng)文(wen)(wen)章(zhang)。
在自然語言處理(li)中,最具(ju)代表性的(de)(de)運(yun)用就(jiu)是“談(tan)(tan)天(tian)機(ji)器人(ren)(ren)”(Chatbot)了(le),它是一種(zhong)如真人(ren)(ren)般,可(ke)透過文字音訊與人(ren)(ren)對話的(de)(de)程(cheng)序。2016年,臉書推出(chu)了(le)“Facebook Messenger Platform”,而Line也推出(chu)了(le)“Messaging API”,因此促進這種(zhong)搭載NLP技術的(de)(de)談(tan)(tan)天(tian)機(ji)器人(ren)(ren)成為注視的(de)(de)焦點。
其他,由IBM所開發的(de)華(hua)生(IBM Watson),也(ye)(ye)是(shi)運用NLP的(de)人工智能而(er)成。華(hua)生可以(yi)從維基百科等語料庫中(zhong)抽取(qu)知識,學習詞(ci)匯(hui)與詞(ci)匯(hui)之間(jian)的(de)相關性。現在,就連軟件銀(yin)行(SoftBank)機器(qi)人Pepper也(ye)(ye)是(shi)搭載華(hua)生系統(tong)。
只不(bu)過,由(you)于在日常對話(hua)中,我們很常省掉詞句,也不(bu)用定會提及時(shi)空布景,因(yin)此當時(shi)的Chatbot尚無法與人(ren)類(lei)進(jin)行不(bu)著邊際(ji)的對話(hua)。所以說,現行大(da)都(dou)的Chatbot廠(chang)商,仍是會約束(shu)對話(hua)的環境與運用范(fan)疇(chou)。
一(yi)、AI的三次(ci)浪潮
第(di)一次AI浪潮
第(di)一次AI浪(lang)潮起于(yu)1950~1960年,止于(yu)1980年代。由(you)于(yu)出現在(zai)網絡之前,因此又被稱為“古典人工智(zhi)能”。這時(shi)期出現的“符(fu)號(hao)主(zhu)義”與“聯合主(zhu)義”,分(fen)別(bie)是日后“專家(jia)系統”與“深度學習”的雛形。只不過,雖然當時(shi)的效果(guo)已能解(jie)開拼圖或(huo)簡略的游戲(xi),卻幾乎無(wu)法處理有用的問題。
第2次(ci)AI浪潮(chao)
第2次AI熱潮伴隨著核算(suan)機的(de)廣泛,出現(xian)在1980年代。這時期所(suo)進(jin)行的(de)研討,是以灌注(zhu)「專家知識」作(zuo)為規(gui)則,來幫助處理(li)特定問題的(de)“專家系統”(Expert system)為主。可(ke)是,縱使當時有商業運用的(de)實例(li),運用范疇(chou)卻很有限,熱潮也因此逐漸衰退。
第三次AI浪潮(chao)第三(san)次AI浪潮(chao)則出(chu)現(xian)于(yu)2010年代,伴隨著高功用核(he)(he)算機、因特網、大數(shu)據、傳感器的廣泛,以(yi)及核(he)(he)算成本的下降,“機器學習(xi)”隨之興(xing)起。所謂機器學習(xi)(Machine leaning),是(shi)指讓(rang)核(he)(he)算機許多學習(xi)數(shu)據,使它可以(yi)像人類相同辨識聲音及形(xing)象,或(huo)是(shi)針對問題做出(chu)適宜的判(pan)別。
二、AI的三大(da)技術(shu)
快(kuai)速了解了AI的發展史后(hou),我們來(lai)看(kan)看(kan)當代人工(gong)智能(neng)的三大(da)代表性(xing)模型:遺傳算法、專(zhuan)家系統(tong)、類神(shen)經網絡。
1、遺傳算法
遺傳算法(fa)(Genetic algorithm;GA),又(you)稱(cheng)為(wei)演(yan)(yan)化(hua)(hua)式(shi)算法(fa)(Evolutionary algorithm),是受達爾文(wen)演(yan)(yan)化(hua)(hua)論所啟示的(de)(de)人工智能。它透(tou)過「適者(zhe)生存」的(de)(de)規則,將“優異的(de)(de)個(ge)別”幻(huan)想成“好的(de)(de)答案”,透(tou)過演(yan)(yan)化(hua)(hua)的(de)(de)辦(ban)法(fa)來找(zhao)出最(zui)佳(jia)解。
2、專家系統(tong)
專(zhuan)家系(xi)統(Expert system),則是(shi)針對預設的(de)問題,事前預備好許(xu)多的(de)對應辦法(fa)。它運用(yong)在許(xu)多當地,尤其(qi)是(shi)疾(ji)病診斷。只(zhi)不過,專(zhuan)家系(xi)統只(zhi)能針對專(zhuan)家預先考慮過的(de)狀(zhuang)況來(lai)預備對策,它并沒有自行學(xue)習的(de)才(cai)干,因此仍是(shi)有其(qi)局限(xian)性。
3、類(lei)神經(jing)網絡(luo)
從第三(san)次AI浪潮所興起的(de)(de)機器學(xue)習(Machine learning)有許(xu)多種(zhong)辦法,其間最受注視的(de)(de),莫過于深(shen)度(du)學(xue)習(Deep learning)了(le)。所謂深(shen)度(du)學(xue)習,是透過仿照人(ren)腦(nao)的(de)(de)“類神經網絡(luo)”(Neural network)來(lai)學(xue)習許(xu)大都據的(de)(de)辦法。
類神經網絡的由(you)來
若(ruo)你去查詢腦的內部,會發現有許多稱為(wei)“神(shen)經元”的神(shen)經細(xi)胞相(xiang)相(xiang)互連。一(yi)個神(shen)經元從其他神(shen)經元那里接(jie)納的電氣信(xin)號量達某必定(ding)值以(yi)上,就會振作(zuo)(神(shen)經激動(dong));在某必定(ding)值以(yi)下,就不會振作(zuo)。
振作起來的(de)神經(jing)元(yuan),會(hui)將電器信號傳送給(gei)下一個相(xiang)(xiang)連(lian)的(de)神經(jing)元(yuan)。下一個神經(jing)元(yuan)同樣會(hui)因(yin)此振作或(huo)不振作。簡(jian)略(lve)來說,相(xiang)(xiang)相(xiang)(xiang)互(hu)連(lian)的(de)神經(jing)元(yuan),會(hui)構(gou)成聯合傳遞行為。我們透過將這(zhe)種(zhong)相(xiang)(xiang)連(lian)的(de)結構(gou)來數學模型化,便構(gou)成了類(lei)神經(jing)網絡(luo)。
類神經網絡:深度(du)學習
我(wo)們可(ke)以(yi)發現,經模型化(hua)的的類神經網(wang)絡,是由(you)“輸入層(ceng)(ceng)”(Input layer)、“躲藏層(ceng)(ceng)”(Hidden layer)及“輸出層(ceng)(ceng)”(Output layer)等三(san)層(ceng)(ceng)所構成。其他,學習(xi)數據則是由(you)輸入數據以(yi)及相對應的正確答復來組成。
以形象辨(bian)識(shi)為例,為了讓(rang)AI學習類神(shen)經網絡(luo)的模型,首先(xian)有(you)必要先(xian)將形象學習數據(ju)切割成像(xiang)素(su)數據(ju),然后將各像(xiang)素(su)值輸進輸入(ru)層。
接(jie)受了(le)數(shu)據(ju)的(de)輸入層(ceng)(ceng)(ceng)(ceng),將(jiang)像素值乘上“權重”后,便傳送(song)給后方躲藏層(ceng)(ceng)(ceng)(ceng)的(de)神經(jing)元。躲藏層(ceng)(ceng)(ceng)(ceng)的(de)各個神經(jing)元會累加(jia)前一(yi)層(ceng)(ceng)(ceng)(ceng)所接(jie)納(na)到的(de)值,并(bing)將(jiang)其(qi)效果再(zai)乘上“權重”后,傳送(song)給后方的(de)神經(jing)元。最終,經(jing)由輸出層(ceng)(ceng)(ceng)(ceng)的(de)神經(jing)元的(de)輸出,便可得到形(xing)象辨識的(de)猜想效果。
為了(le)讓輸出(chu)層的值跟各個輸入數(shu)據所對應的正解數(shu)據持平(ping),會對各個神經元的輸入核算出(chu)恰當(dang)的“權重”值。
這個權重的(de)(de)(de)核算(suan),一般是運(yun)用“過(guo)失倒傳遞算(suan)法”(Error Back Propagation),運(yun)用與(yu)正解數據之(zhi)間的(de)(de)(de)過(guo)失,從輸出層逆推(tui)回去。透過(guo)各「權重」的(de)(de)(de)調整,來縮小輸出層的(de)(de)(de)值(zhi)與(yu)正解數據的(de)(de)(de)值(zhi)之(zhi)間的(de)(de)(de)過(guo)失,以樹立出結(jie)束學習(xi)的(de)(de)(de)模型。
由于曩昔類神經網絡之間進行傳遞的權(quan)重值難以優化,因此曾有大都(dou)研(yan)討(tao)者對類神經網絡的研(yan)討(tao)持否(fou)定態(tai)度。直到2006年,辛頓(Geoffrey Hinton)開宣布自動編碼器(Autoencoder)的辦(ban)法(fa),才(cai)突破了這項(xiang)瓶頸。
自(zi)動編(bian)碼(ma)器是(shi)指,在類神(shen)經(jing)網絡(luo)的輸(shu)入層和輸(shu)出層運用相同數據,并將躲藏層設置(zhi)于二者(zhe)之(zhi)間,藉此用來調整類神(shen)經(jing)網絡(luo)之(zhi)間的權重參數的一種辦法(fa)。使用以自(zi)動編(bian)碼(ma)器所獲得的類神(shen)經(jing)網絡(luo)權重參數值(zhi)進行(xing)初始化后(hou),便能運用「過失(shi)倒傳(chuan)遞算法(fa)」,前進多層類神(shen)經(jing)網絡(luo)的學習準確度。
透過類(lei)神經網絡,深(shen)度學習便(bian)成為(wei)了“只需將數據輸入類(lei)神經網絡,它就能自行(xing)抽出特(te)征”的人工(gong)智能,而這又稱(cheng)為(wei)“特(te)征學習”(feature learning)。
深度學習最擅長(chang)的,是它能辨識圖畫數據(ju)或波形數據(ju)這類(lei)無法符(fu)號(hao)化的數據(ju)。自2010年代以來,如(ru)Google、Microsoft及(ji)Facebook等美國出(chu)名IT企業,都初步著手深度學習的研討(tao)。例(li)如(ru),蘋果「Siri」的語音辨認,Microsoft查找(zhao)引(yin)擎「Bing」所具有的形象(xiang)查找(zhao)等等,而Google的深度學習項目(mu)也已超越1,500項。
至于深(shen)度(du)學(xue)(xue)習如此騰躍(yue)的生長,要(yao)歸功于硬設備(bei)的進(jin)(jin)步。圖形處理器(GPU)大(da)廠(chang)輝達(da)(NVIDIA)使用(yong)(yong)該(gai)公(gong)司的圖形適配(pei)器來進(jin)(jin)步深(shen)度(du)學(xue)(xue)習的功用(yong)(yong),供(gong)給鏈接庫(ku)(Library)和(he)結(jie)構(gou)(framework)產品(pin),并活(huo)躍(yue)開設研(yan)討課程(cheng)。其他(ta),Google也(ye)揭露了(le)結(jie)構(gou)「TensorFlow」,可以將深(shen)度(du)學(xue)(xue)習運(yun)用(yong)(yong)于數(shu)據分析。
三、AI的三大運(yun)用
AI運用(yong)范疇(chou)首要(yao)可(ke)分為語(yu)音辨認、形象辨識(shi)以(yi)及自然語(yu)言(yan)處理等(deng)三部分。
1、語音辨認(ren)
語音(yin)(yin)辨認(ren)部分(fen),透(tou)過多年來語音(yin)(yin)辨認(ren)比賽CHiME的(de)研(yan)討(tao),已(yi)經(jing)有了平等人類的(de)辨識度(CHiME,是針對實(shi)際日子(zi)環(huan)境下的(de)語音(yin)(yin)辨認(ren),所進行評測(ce)的(de)世界語音(yin)(yin)辨認(ren)比賽)。此外,Apple、Google、Amazon也相繼提出可運用于(yu)日常(chang)日子(zi)的(de)效(xiao)力,因此其成熟(shu)度已(yi)達到有用等級。
2、形象辨識
形(xing)象辨(bian)識部分,雖(sui)然一般圖片的(de)辨(bian)識已有(you)平(ping)等于人類的(de)辨(bian)識率,但動(dong)態形(xing)象的(de)辨(bian)識準確(que)度(du)卻仍比不上人類,現(xian)在(zai)還在(zai)進行各(ge)種算法的(de)測驗。其間,形(xing)象辨(bian)識現(xian)在(zai)最火熱的(de)運用場域非自動(dong)駕馭莫(mo)屬了。
整個汽車、信息通訊(xun)工業都(dou)正朝著自駕車的方向盡力(li),例(li)如Google繼續進行(xing)自動(dong)駕馭的研討,TOYOTA也在美國樹(shu)立(li)豐田研討所(suo),可以(yi)知道(dao)現階段的開發已非常挨(ai)近有(you)用化。因(yin)此,我(wo)們(men)可判別現在形象(xiang)辨識的成熟度是介在研討和(he)有(you)用等級(ji)之間(jian)。
3、自(zi)然語言處(chu)理(li)
自然語(yu)言處理(Natural language processing;NLP),是試著讓人(ren)工(gong)智能(neng)能(neng)了(le)解人(ren)類所(suo)寫的文字(zi)和(he)所(suo)說的言語(yu)。NLP首先會分(fen)化(hua)詞(ci)性,稱之“語(yu)素分(fen)析”(morphemic analysis),在分(fen)化(hua)出最小的字(zi)義(yi)單位后(hou),接著會進(jin)行“語(yu)法分(fen)析”(syntactic analysis),最終再透(tou)過“語(yu)意分(fen)析”(semantic analysis)來了(le)解含義(yi)。
輸出部分(fen),自(zi)然語言處(chu)理(li)也與(yu)生(sheng)成(cheng)文(wen)(wen)法(fa)(generative grammar)密切相關。生(sheng)成(cheng)文(wen)(wen)法(fa)理(li)論認(ren)為,只需(xu)遵照規則即可(ke)生(sheng)成(cheng)文(wen)(wen)句。這也代(dai)表著,只需(xu)把規則組合在一(yi)起,便(bian)可(ke)能生(sheng)成(cheng)文(wen)(wen)章(zhang)。
在自然語言處理(li)中,最具(ju)代表性的(de)(de)運(yun)用就(jiu)是“談(tan)(tan)天(tian)機(ji)器人(ren)(ren)”(Chatbot)了(le),它是一種(zhong)如真人(ren)(ren)般,可(ke)透過文字音訊與人(ren)(ren)對話的(de)(de)程(cheng)序。2016年,臉書推出(chu)了(le)“Facebook Messenger Platform”,而Line也推出(chu)了(le)“Messaging API”,因此促進這種(zhong)搭載NLP技術的(de)(de)談(tan)(tan)天(tian)機(ji)器人(ren)(ren)成為注視的(de)(de)焦點。
其他,由IBM所開發的(de)華(hua)生(IBM Watson),也(ye)(ye)是(shi)運用NLP的(de)人工智能而(er)成。華(hua)生可以(yi)從維基百科等語料庫中(zhong)抽取(qu)知識,學習詞(ci)匯(hui)與詞(ci)匯(hui)之間(jian)的(de)相關性。現在,就連軟件銀(yin)行(SoftBank)機器(qi)人Pepper也(ye)(ye)是(shi)搭載華(hua)生系統(tong)。
只不(bu)過,由(you)于在日常對話(hua)中,我們很常省掉詞句,也不(bu)用定會提及時(shi)空布景,因(yin)此當時(shi)的Chatbot尚無法與人(ren)類(lei)進(jin)行不(bu)著邊際(ji)的對話(hua)。所以說,現行大(da)都(dou)的Chatbot廠(chang)商,仍是會約束(shu)對話(hua)的環境與運用范(fan)疇(chou)。