在所有關(guān)于殺手機(jī)器人的高調(diào)宣傳下,2017年在人工智能方面取得了一些顯著的進(jìn)步。例如,今年初名為L(zhǎng)ibratus(冷撲大師)的人工智能系統(tǒng)可能會(huì)使頂尖德州撲克選手陷入尷尬的境地;更有名氣點(diǎn)的AlphaGo,數(shù)次讓圍棋冠軍折戟。而在現(xiàn)實(shí)世界中,機(jī)器學(xué)習(xí)正在用于改善農(nóng)業(yè),擴(kuò)大醫(yī)療保健的覆蓋面。
但是你*近和Siri或者Alexa談過(guò)了嗎?那么你會(huì)知道,盡管炒作、信心百倍的億萬(wàn)富翁,可還有很多事情,人工智能仍然不能做或無(wú)法理解。人工智能還面臨著五大棘手問(wèn)題,明年專(zhuān)家們得絞盡腦汁了。
理解語(yǔ)言
機(jī)器在使用文本和語(yǔ)言方面比以往任何時(shí)候都更好。Facebook可以讀出對(duì)視障人士的圖像描述。谷歌更是做了一個(gè)高級(jí)的工作,在回復(fù)電子郵件時(shí)給出簡(jiǎn)短建議。然而,軟件仍然不能真正理解我們?cè)捳Z(yǔ)中的意思,以及我們分享給它們的想法。波特蘭州立大學(xué)教授梅蘭妮·米切爾(MelanieMitchell)表示:“我們能夠把我們學(xué)到的概念以不同的方式結(jié)合起來(lái),并在新的情況下應(yīng)用。”“而AI和機(jī)器學(xué)習(xí)系統(tǒng)卻做不到。”
米切爾將今天的軟件描述為數(shù)學(xué)家GianCarlo-Rota所說(shuō)的“意義障礙”。一些領(lǐng)先的AI研究團(tuán)隊(duì)正試圖找出如何去解決的方法。
這項(xiàng)工作有的旨在為機(jī)器提供一種常識(shí)基礎(chǔ),以及支撐我們自己思維的物質(zhì)世界。例如,F(xiàn)acebook研究人員正試圖通過(guò)觀看視頻來(lái)教軟件來(lái)理解現(xiàn)實(shí)。還有的模擬我們用與世界相關(guān)的知識(shí)可以來(lái)做什么。谷歌一直試圖創(chuàng)造出能學(xué)習(xí)隱喻的軟件。米切爾已經(jīng)嘗試過(guò)使用類(lèi)比和關(guān)于世界的概念來(lái)系統(tǒng)解釋照片中發(fā)生的事情。
阻礙機(jī)器人革命的“現(xiàn)實(shí)鴻溝”
機(jī)器人硬件已經(jīng)相當(dāng)不錯(cuò)了。你只需花500美元就可以買(mǎi)到手掌大小的無(wú)人機(jī),還配有高清攝像頭。搬運(yùn)箱子和兩條腿走路的機(jī)器也有所改進(jìn)。為什么我們沒(méi)有被機(jī)械助手包圍住呢?因?yàn)榻裉斓臋C(jī)器人缺乏匹配它們先進(jìn)肌肉的大腦。
讓機(jī)器人做任何事情都需要針對(duì)特定??的任務(wù)進(jìn)行特定的編程。它們可以學(xué)習(xí)操作,如抓取物體的重復(fù)試驗(yàn)(和試錯(cuò))。但是這個(gè)過(guò)程相對(duì)較慢。一個(gè)有希望的捷徑是讓機(jī)器人在虛擬、模擬的世界中訓(xùn)練,然后把那些來(lái)之不易的知識(shí)下載到物理機(jī)器人體內(nèi)。然而,這種方法受到了“現(xiàn)實(shí)鴻溝”的困擾?,F(xiàn)實(shí)鴻溝這個(gè)短語(yǔ)描述了機(jī)器人在模擬過(guò)程中學(xué)到的技能在轉(zhuǎn)移到物理世界中時(shí)并不總是有效。
不過(guò),“現(xiàn)實(shí)鴻溝”正在縮小。10月份,谷歌對(duì)虛擬和現(xiàn)實(shí)機(jī)器人進(jìn)行實(shí)驗(yàn),用手臂學(xué)會(huì)拾取包括膠帶座、玩具和梳子在內(nèi)的各種物體,得到了有希望的結(jié)果。
進(jìn)一步的發(fā)展也給自動(dòng)駕駛汽車(chē)工作者帶來(lái)曙光。無(wú)人駕駛競(jìng)賽中的公司們?cè)谔摂M街道上部署虛擬車(chē)輛,以減少在實(shí)際交通和道路條件下測(cè)試所花費(fèi)的時(shí)間和金錢(qián)。無(wú)人駕駛創(chuàng)業(yè)公司Aurora首席執(zhí)行官ChrisUrmson說(shuō),讓虛擬測(cè)試更適用于真實(shí)車(chē)輛是他團(tuán)隊(duì)的優(yōu)先考慮項(xiàng)之一。之前領(lǐng)導(dǎo)谷歌母公司Alphabet自主汽車(chē)項(xiàng)目的Urmson說(shuō):“明年以后我們可以很好地利用它來(lái)加快學(xué)習(xí)。”
防范AI黑客攻擊
運(yùn)行著我們的電網(wǎng)、安全攝像頭和手機(jī)的軟件受到安全漏洞的困擾。我們不應(yīng)該期望無(wú)人車(chē)和家用機(jī)器人的軟件有什么不同。事實(shí)上,這可能會(huì)更糟糕:有證據(jù)表明,機(jī)器學(xué)習(xí)軟件的復(fù)雜性引入了新的攻擊途徑。
研究人員今年表示,你可以在機(jī)器學(xué)習(xí)系統(tǒng)內(nèi)隱藏一個(gè)秘密觸發(fā)器,導(dǎo)致它在看到一個(gè)特定的信號(hào)時(shí)變身“邪惡”模式。紐約大學(xué)研究小組設(shè)計(jì)了一個(gè)街道識(shí)別系統(tǒng),通常情況下它能正常工作,除非它看到黃色便簽。將一張黃色便簽粘貼到布魯克林的停車(chē)標(biāo)志上,導(dǎo)致系統(tǒng)將該標(biāo)志報(bào)告為限速。這些騙術(shù)可能會(huì)對(duì)自動(dòng)駕駛汽車(chē)造成潛在問(wèn)題。
這種威脅被認(rèn)為是非常嚴(yán)重的,世界上*重要的機(jī)器學(xué)習(xí)會(huì)議的研究人員,在本月早些時(shí)候召開(kāi)了一個(gè)關(guān)于機(jī)器欺騙威脅的研討會(huì)。研究人員討論了一些惡魔般的技巧,比如如何生成看起來(lái)與人類(lèi)一樣看似正常的手寫(xiě)數(shù)字,但軟件看起來(lái)卻不同。例如,你所看到的是數(shù)字2,機(jī)器視覺(jué)系統(tǒng)看就是3。研究人員還討論了這種攻擊的可能防御方法,并且擔(dān)心人工智能被用來(lái)愚弄人類(lèi)。
組織研討會(huì)的TimHwang預(yù)測(cè),隨著機(jī)器學(xué)習(xí)變得更容易部署,功能更強(qiáng)大,使用該技術(shù)操縱人是不可避免的。他說(shuō):“你不再需要滿(mǎn)滿(mǎn)一屋子的博士來(lái)研究機(jī)器學(xué)習(xí)。”Hwang指出,在2016年總統(tǒng)選舉期間,俄羅斯的虛假宣傳運(yùn)動(dòng)是AI增強(qiáng)信息戰(zhàn)的潛在先行者。他說(shuō):“為什么不在這些活動(dòng)中看到機(jī)器學(xué)習(xí)領(lǐng)域的技術(shù)呢?Hwang預(yù)測(cè)了一個(gè)可能使機(jī)器學(xué)習(xí)產(chǎn)生虛假視頻和音頻的騙術(shù)。
不止桌游
Alphabet的圍棋冠軍軟件在2017年迅速發(fā)展。5月份,AlphaGo一個(gè)更強(qiáng)大的版本擊敗了中國(guó)圍棋冠軍柯潔。AlphaGo的創(chuàng)造者是研究部門(mén)DeepMind,隨后構(gòu)建了一個(gè)版本,AlphaGoZero,通過(guò)自我學(xué)習(xí)而打敗人類(lèi)。12月,AlphaZero又一次升級(jí),它可以學(xué)習(xí)下棋和日本棋類(lèi)游戲?qū)⑵濉?/span>
這一系列結(jié)果令人印象十分深刻,同時(shí)也提醒人們AI軟件的局限性。國(guó)際象棋、將棋和圍棋都很復(fù)雜,但所有對(duì)手都有相對(duì)簡(jiǎn)單的規(guī)則和游戲玩法。它們是對(duì)計(jì)算機(jī)快速篩選未來(lái)許多可能的一種良好匹配。但生活中的大多數(shù)情況和問(wèn)題都不是那么整齊有序。
這就是為什么DeepMind和Facebook都在2017年開(kāi)始制作多人游戲《星際爭(zhēng)霸》的原因。不過(guò),兩者都還沒(méi)有取得太大進(jìn)展?,F(xiàn)在,由業(yè)余愛(ài)好者打造的*好的機(jī)器人,甚至都比不上那些技術(shù)高超的玩家。DeepMind的研究人員OriolVinyals今年早些時(shí)候?qū)IRE說(shuō),他的軟件現(xiàn)在缺乏必要的規(guī)劃和記憶能力,需要仔細(xì)地收集和指揮一支軍隊(duì),同時(shí)對(duì)對(duì)手的行動(dòng)進(jìn)行預(yù)測(cè)和反應(yīng)。并非巧合的是,這些技能也會(huì)讓軟件在幫助諸如辦公室工作或真正的軍事行動(dòng)等真實(shí)任務(wù)方面做得更好。2018年星際爭(zhēng)霸或類(lèi)似游戲的重大進(jìn)展可能預(yù)示著人工智能的強(qiáng)大新應(yīng)用。
教AI辨別是非
即使在上述領(lǐng)域沒(méi)有取得新的進(jìn)展,如果現(xiàn)有的AI技術(shù)被廣泛采用,經(jīng)濟(jì)和社會(huì)的許多方面也會(huì)發(fā)生很大的變化。當(dāng)企業(yè)和政府急于這樣做時(shí),有人擔(dān)心人工智能和機(jī)器學(xué)習(xí)造成的意外和故意傷害。
在本月的NIPS機(jī)器學(xué)習(xí)大會(huì)上,如何讓技術(shù)保持在安全和道德的范圍內(nèi)是一個(gè)突出討論的話(huà)題。研究人員發(fā)現(xiàn),機(jī)器學(xué)習(xí)系統(tǒng)在接受來(lái)自“完美世界”的數(shù)據(jù)訓(xùn)練時(shí),可以挑選出令人討厭的或不想要的行為,比如永久的性別刻板印象?,F(xiàn)在,一些人正在研究可以用于審計(jì)內(nèi)部工作的人工智能系統(tǒng)技術(shù),并確保它們?cè)趶氖陆鹑诨蜥t(yī)療等行業(yè)工作時(shí)做出公平的決策。
明年應(yīng)該能看到科技公司提出如何讓人工智能站邊人性的想法。谷歌,F(xiàn)acebook,微軟和其他人已經(jīng)開(kāi)始討論這個(gè)問(wèn)題,并且成立一個(gè)新的非營(yíng)利組織PartnershiponAI,該組織將研究和嘗試塑造人工智能的社會(huì)影響。同時(shí)還有來(lái)自許多獨(dú)立組織的壓力。一個(gè)名為“人工智能基金倫理與治理”的慈善項(xiàng)目正在支持麻省理工學(xué)院,哈佛大學(xué)等其他人研究人工智能和公共利益。紐約大學(xué)的一個(gè)新研究機(jī)構(gòu)AINow也有類(lèi)似的任務(wù)。在*近的一份報(bào)告中,它呼吁各國(guó)政府發(fā)誓放棄在刑事司法或福利等領(lǐng)域使用沒(méi)有公開(kāi)檢查的“黑匣子”算法。