比爾·蓋茨、霍金、特斯拉CEO伊隆·馬斯克三人都曾公開表達(dá)過對于人工智能可能會威脅人類的擔(dān)憂,呼吁我們要對人工智能持謹(jǐn)慎態(tài)度。
比爾·蓋茨:“如果我們能夠很好地駕馭,機(jī)器能夠為人類造福,但如果若干年后機(jī)器發(fā)展得足夠智能就將成為人類的心頭大患?!?
霍金:“人工智能計算機(jī)可能在接下來的100年之內(nèi)就將人類取而代之。如果這樣的事情成為了現(xiàn)實,我們必須確保計算機(jī)和我們站在同一戰(zhàn)線上...我們的未來是一場不斷增長的科技力量與人類使用科技的智慧之間的競爭。”
馬斯克:“我們的人工智能系統(tǒng),必須按照我們的意愿工作。不受控制的人工智能可能比核武器更危險?!?
但正沉浸在人工智能好處中的我們,時不時地掏出手機(jī),丟個“0除以0等于幾”的問題給Siri調(diào)戲一番,感慨下人工智能的美好。我們也許在想,是大佬們危言聳聽了吧,“造物主”的我們肯定有辦法控制它們。
這不,今天就出了一個打臉新聞——德國大眾的機(jī)器人攻擊致死一名工人。
今日(
)消息,據(jù)英國《金融時報》報道,德國大眾位于卡塞爾附近的一家工廠近日發(fā)生悲劇,一名技術(shù)人員因突遭機(jī)器人攻擊,最終因傷重不治身亡。
這名不幸身亡的技術(shù)人員正值21歲英年,是一位外部承包商,事發(fā)時他正與同事一起安裝機(jī)器人,但機(jī)器人卻突然抓住他的胸部,然后使勁壓在一塊鐵板上。
機(jī)器人上工作臺在西方國家已經(jīng)是一個很普遍的事情,機(jī)器人會被放在安全籠的后面,以避免它們與人類意外接觸。因此極少會發(fā)生與機(jī)器人有關(guān)的死亡事件。而此次悲劇,經(jīng)過檢察機(jī)關(guān)調(diào)查后發(fā)現(xiàn),是由于出事人員事發(fā)時正好站在安全籠里面造成的。第二名技術(shù)人員由于在籠子外面,因此沒有受到任何傷害。
事后,大眾公司發(fā)言人強(qiáng)調(diào),肇事機(jī)器人并不屬于新一代輕量級機(jī)器人,后者可以在生產(chǎn)線上與工人們并肩工作,還不需要安全籠。另外發(fā)言人還強(qiáng)調(diào),肇事機(jī)器人并沒有出現(xiàn)技術(shù)故障。言外之意,事故的發(fā)生完全是人為操作不當(dāng),機(jī)器人可是無辜的,而且我們已經(jīng)有了更加先進(jìn)安全的新機(jī)器人了呢。
無論錯究竟在誰,人類死于機(jī)器都是一件讓同類的我們在情感上不好接受的事。雖然Space X的火箭剛在上周末爆炸,搞砸了馬斯克的生日,但馬斯克依舊心系全人類,設(shè)法讓人工智能安全起來。
人工智能安全化的邏輯很簡單:既然人工智能可能是惡魔,那就教它一些做人的道理好了。
同樣是今天(
)的消息,彭博社日前透露,馬斯克籌了1000萬美元用來研發(fā)懂得“倫理道德”的機(jī)器人,以確保他們不會毀滅人類。
今年1月,馬斯克將這1000萬美元資金交給未來生命研究所,其中700萬美元是馬斯克自掏腰包,其他均來自公開慈善項目組織。部分資金將投入到世界各地的37個研究項目中。
未來生命研究所負(fù)責(zé)人馬克斯·泰格馬克表示:“目前為止,所有投資都是確保系統(tǒng)更加智能化,這是首次有投資被用于限制智能化?!?
其中3個項目研究將幫助人工智能系統(tǒng)通過觀察我們的行為,從而了解人類需求。另外2個項目則研發(fā)一種人工智能倫理道德系統(tǒng),讓人工智能系統(tǒng)學(xué)會解釋自己的行為,告訴人類它們做出每個決定的原因。這不禁讓人聯(lián)想到今年上映的機(jī)器人電影《超能查派》,影片中查派能夠快速學(xué)習(xí),吸取人類的教導(dǎo)。
晉城龍鼎 -
晉城網(wǎng)站建設(shè)為您解答!