放心吧,人類(lèi)同胞們,機(jī)器人在至少十年左右的時(shí)間里不太可能會(huì)奴役或消滅人類(lèi)。前谷歌首席執(zhí)行官埃里克·施密特(Eric Schmidt)上周在慕尼黑安全會(huì)議(Munich Security Conference)上發(fā)言時(shí),對(duì)影視作品中流行的末日?qǐng)鼍氨憩F(xiàn)得非常輕描淡寫(xiě),他說(shuō):
“每個(gè)人都立刻想要談?wù)撍械碾娪爸兴枋龅哪┤請(qǐng)鼍埃铱梢院茏孕诺馗嬖V你,這樣的場(chǎng)景離我們至少還有一二十年的距離。我們可以為之擔(dān)心,但讓我們過(guò)一段時(shí)間再來(lái)?yè)?dān)心這個(gè)問(wèn)題。”
實(shí)際上,這并不令人感到欣慰。近年來(lái),人工智能和機(jī)器人技術(shù)的迅速發(fā)展,使這樣的討論變得更加廣泛。講述機(jī)器人起義的科幻電影便隨著整整一代人的成長(zhǎng),因此幾乎可以肯定的是,這些場(chǎng)景正是我們?cè)谒伎紮C(jī)器人未來(lái)時(shí)所想象的場(chǎng)景。
這當(dāng)然是合理的,但不太可能發(fā)生。施密特接著說(shuō):
“我想提醒大家的另一點(diǎn)是,這些技術(shù)仍然存在嚴(yán)重的錯(cuò)誤,它們不應(yīng)該被用于生活中的關(guān)鍵決策。所以我不想坐在一架由計(jì)算機(jī)操控駕駛的飛機(jī)上。這項(xiàng)技術(shù)目前還不夠可靠,還有很多錯(cuò)誤存在。人工智能只是建議性的,它能讓人們變得更聰明,但我不會(huì)讓它負(fù)責(zé)指揮和控制。”
最后一句話是關(guān)鍵。即使我們中的大多數(shù)人不這么認(rèn)為,但研究人員明白,盡管人工智能可以增強(qiáng)人類(lèi)的能力,但還不適合取代人類(lèi)。人類(lèi)的大腦是復(fù)雜的。雖然一個(gè)40歲的人不能記住維基百科,也不能打敗最優(yōu)秀的撲克玩家,但是典型的機(jī)器人還無(wú)法處理人類(lèi)擅長(zhǎng)的簡(jiǎn)單的即興創(chuàng)作。
事實(shí)上,人工智能和機(jī)器人擅長(zhǎng)的大部分工作都是些較低級(jí)的任務(wù),是簡(jiǎn)單而又可重復(fù)的目標(biāo),它們都很容易定義和衡量。機(jī)器人并不擅長(zhǎng)即興創(chuàng)作;它們需要一套明確的規(guī)則,而這些規(guī)則將越來(lái)越需要包括發(fā)生故障時(shí)的安全措施,比如在故障發(fā)生時(shí)關(guān)閉機(jī)器。
盡管這些技術(shù)將繼續(xù)改進(jìn),但機(jī)器人的感知能力在短期內(nèi)并不會(huì)出現(xiàn)。對(duì)于一個(gè)機(jī)器人來(lái)說(shuō),如果它是危險(xiǎn)的,那么它必須提前被設(shè)定為危險(xiǎn)的。所以,我們害怕的不應(yīng)該是機(jī)器人,而是負(fù)責(zé)編寫(xiě)代碼的人類(lèi)。