關(guān)于人工智能你未必知道的十大誤區(qū)
- 發(fā)布時(shí)間:2016-03-29 07:36:00 來(lái)源:人民網(wǎng) 責(zé)任編輯:王磊
自從20年前電腦在國(guó)際象棋對(duì)決中敗陣以來(lái),人們一直認(rèn)為至少圍棋上電腦是無(wú)法勝過(guò)人類的。但在AlphaGo4:1完勝韓國(guó)圍棋職業(yè)九段棋手李世石后,人類感受到了人工智能(AI)的進(jìn)化?;蛟S要理解AI的威脅和發(fā)展并不那么容易,但關(guān)于AI的種種都將隨著科技的進(jìn)步而逐漸明朗。日本Livedoor新聞網(wǎng)3月25日的文章里就為大家解開(kāi)了一些有關(guān)AI的誤區(qū)。
誤區(qū)1:AI一定無(wú)法擁有與人類一樣的感性
紐約大學(xué)心理學(xué)家Gary Marcus表示,幾乎所有AI相關(guān)業(yè)者都認(rèn)為,機(jī)械最終會(huì)超越人類。部分對(duì)此抱有懷疑的人多認(rèn)為使AI擁有人類般的感性是不可能的,或是說(shuō)人腦有一些本質(zhì)上獨(dú)特的東西等等,但這些觀點(diǎn)卻并沒(méi)有什么說(shuō)服力。人類可以說(shuō)是一種生物機(jī)械,本質(zhì)上與機(jī)械是沒(méi)有區(qū)別的,與計(jì)算機(jī)一樣存在于物質(zhì)世界,遵從物理法則。
誤區(qū)2:AI擁有自我意識(shí)
倫敦帝國(guó)學(xué)院認(rèn)知機(jī)器人技術(shù)學(xué)家Murray Shanahan指出,不應(yīng)混淆自我與智能這兩個(gè)概念。他表示:“自我意識(shí)確實(shí)是一個(gè)充滿吸引力的主題,但是我認(rèn)為那對(duì)于人類級(jí)別的AI來(lái)說(shuō)是不必要的。更準(zhǔn)確地說(shuō),‘意識(shí)’是數(shù)種心理認(rèn)知類的特征,只不過(guò)對(duì)于人類來(lái)說(shuō)被歸為了一種?!倍遥幢阌袡C(jī)器人讓人類無(wú)法分辨它與人類的區(qū)別,我們也不能說(shuō)它就擁有了自我。
誤區(qū)3:無(wú)需畏懼AI
Facebook的CEO馬克 扎克伯格認(rèn)為,我們無(wú)需畏懼AI,它們只會(huì)帶給世界各種好處,比如在無(wú)人駕駛汽車、新藥開(kāi)發(fā)等領(lǐng)域。但他并沒(méi)有考慮到,AI帶來(lái)的不一定都是善。高智能的系統(tǒng)或許在特定的領(lǐng)域無(wú)所不能,但在其他的領(lǐng)域則不然。另外,大多機(jī)械系統(tǒng)并沒(méi)有完全考慮到安全層面。一旦有類AI的系統(tǒng)被用在不好的方面,后果難以想象。
誤區(qū)4:AI很聰明,所以不會(huì)失敗
牛津大學(xué)Peter McIntyre與Stuart Armstrong認(rèn)為,AI一般受程序控制,不認(rèn)為AI有聰明到可以理解我們期望。他們認(rèn)為:“超級(jí)AI在定義上是在所有領(lǐng)域上都超越人腦的智慧的存在”?!斑@樣的存在是可以理解我們想讓其所達(dá)到的意圖的”。雖然AI被程序所控制,但如果足夠聰明的話它將能夠理解法的精神與人的意圖。
誤區(qū)5:我們能解決一切AI的控制問(wèn)題
當(dāng)我們制造出一個(gè)比人類聰明的AI的時(shí)候,我們將面臨能否控制它的問(wèn)題。比如,事先設(shè)置“應(yīng)該取悅?cè)祟悺钡某绦?,使其只擁有作為人類的工具的功能,在代碼中寫(xiě)入對(duì)人類的愛(ài)與尊敬這樣的概念等等。另外也有觀點(diǎn)認(rèn)為,為避免其世界觀過(guò)于單純,應(yīng)該寫(xiě)入接受智慧的、文化的、社會(huì)多樣性的程序。但以上都是在想用簡(jiǎn)單的語(yǔ)言來(lái)給AI植入人類復(fù)雜的價(jià)值觀。
誤區(qū)6:人類會(huì)被超級(jí)AI毀滅
我們無(wú)法斷言AI是否會(huì)毀滅人類或者人類將無(wú)法控制AI。牛津大學(xué)哲學(xué)家Nick Bostrom認(rèn)為,真正超級(jí)AI的出現(xiàn)或許是人類所發(fā)明的有史以來(lái)最大的危機(jī)。超級(jí)AI想要達(dá)成的目標(biāo)中,可能大多都有消滅人類的理由。但我們無(wú)法確定AI會(huì)以什么形式和方式對(duì)人類產(chǎn)生威脅。
誤區(qū)7: 超級(jí)AI是友好的
哲學(xué)家Immanuel Kant認(rèn)為理性與倫理有很強(qiáng)的關(guān)聯(lián)。神經(jīng)學(xué)家David Chalmers在論文中采納了他的觀點(diǎn),用于解釋超級(jí)AI的進(jìn)化:“如果這是正確的,那么可以預(yù)想理性爆發(fā)于倫理爆發(fā)是相連的,那么(超級(jí)AI的)系統(tǒng)會(huì)既聰明又懂倫理,可以預(yù)想將會(huì)是善良的?!钡槍?duì)聰明的AI就會(huì)是善良的這一點(diǎn),Armstrong認(rèn)為,“進(jìn)行反倫理行為的聰明人要比不聰明的更易造成大規(guī)模的危害。理性帶給了他們更聰明的為惡的能力而非行善”。某個(gè)主體的目標(biāo)達(dá)成能力與他的目的是否正確無(wú)關(guān)。
誤區(qū)8:AI與機(jī)器人技術(shù)的風(fēng)險(xiǎn)是一樣的
這一誤區(qū)源自不少機(jī)器人電影。如果超級(jí)AI想要?dú)缛祟惖脑挘鼞?yīng)該會(huì)使用更加有效率的方式,比如散播瘟疫、破壞大氣層等等。AI的危險(xiǎn)不在于驅(qū)使機(jī)器人來(lái)統(tǒng)治世界,而是其對(duì)世界本身的影響力。
誤區(qū)9:科幻作品所展現(xiàn)的AI的未來(lái)是正確的
科幻作品的確展現(xiàn)了許多作家或是未來(lái)學(xué)家的想象。但如今超級(jí)AI所導(dǎo)致的問(wèn)題跟那些完全不同。并且人類與AI在本質(zhì)上的區(qū)別,決定了人類不可能完全了解、預(yù)測(cè)其本質(zhì)與形式。許多的科幻作品為了作品的趣味性,犧牲了許多科學(xué)上的正確性。
誤區(qū)10:被AI接手工作是可怕的
AI能夠自動(dòng)完成工作和AI要?dú)缛祟愂莾纱a事。無(wú)疑,AI將會(huì)替換既存的許多工作。但即使如此,并不是說(shuō)人類無(wú)法面對(duì)這種變化了。能從大量的體力腦力勞動(dòng)中解脫出來(lái)難道不是人類的目標(biāo)嗎?
總而言之,AI會(huì)產(chǎn)生大量新的生產(chǎn)方式。 隨著AI的進(jìn)化,使用AI進(jìn)行生產(chǎn)的產(chǎn)業(yè)也就會(huì)進(jìn)化。將來(lái),我們的基本需求就會(huì)更容易得到滿足了。(實(shí)習(xí)編譯:倪海風(fēng) 王琦 審稿:馬麗)
- 股票名稱 最新價(jià) 漲跌幅
- 祥龍電業(yè) 6.77 10.08%
- 安彩高科 10.18 10.05%
- 傲農(nóng)生物 19.98 10.02%
- 振華股份 15.92 10.02%
- 東軟集團(tuán) 15.94 10.01%
- 世運(yùn)電路 18.15 10.00%
- 天鵝股份 23.65 10.00%
- 七一二 43.81 9.99%
- 愛(ài)嬰室 31.60 9.99%
- 西部黃金 21.48 9.98%
- 外媒:滴滴考慮2017年在美國(guó)上市
- 千家第三方支付企業(yè)被指無(wú)照經(jīng)營(yíng)
- 人人游戲私有化亂象:138名離職員工的期權(quán)去了哪
- 首例電競(jìng)直播侵權(quán)案終審宣判:斗魚(yú)被判賠110萬(wàn)元
- 人民日?qǐng)?bào)談小米平衡車傷人:標(biāo)準(zhǔn)缺乏產(chǎn)業(yè)野蠻生長(zhǎng)
- 國(guó)際反假聯(lián)盟暫停阿里會(huì)員資格 加入一月即被除名
- 微信支付高層地震 騰訊金融戰(zhàn)略層面領(lǐng)跑者缺位
- 慘被拋棄:諾基亞功能機(jī)業(yè)務(wù)被微軟關(guān)閉
- 蘋(píng)果投資滴滴背后的秘密 原來(lái)10億美元要這么花
- 中概股私有化大潮背后:PE散戶化 VC產(chǎn)業(yè)化