作者 / Rodney Brooks:麻省理工學院的松下機器人學名譽教授,曾擔任麻省理工學院人工智能實驗室主任,后來擔任CSAIL主任。他曾共同創辦iRobot、Rethink Robotics和Robust AI,目前擔任 Robust AI 首席技術官。
本文內容轉自Rodney Brooks的博客及IEEE Spectrum,文中是Brooks從事機器人領域工作近50年中,所學到的一些知識。
為了紀念艾薩克·阿西莫夫和阿瑟·克拉克,他將這些知識總結為「機器人三定律」:
1、機器人的外觀可以體現其功能和智能程度,它必須履行或稍微超出這一預期,否則將不會被接受。
2、當機器人與人類共存于同一空間時,機器人絕不能剝奪人類的自主權,尤其是當機器人出現故障時(它們有時會不可避免地會出現故障)。
3、(實驗室外的)機器人技術,還需要經過 10 年以上的穩步改進,才能達到降低成本的同時,并充分了解其局限性,從而實現 99.9% 的交付率。每過 10 年,其可靠性就會增加 9%。
這些定律,是以「讓機器人在現實世界中工作」的角度制定的——當人們為機器人付費,必然希望獲得投資回報,這與在實驗室中演示demo或者前沿技術有很大區別。
實驗室的研發人員興趣在于展示技術的可行性,但在現實世界中,只有客戶、員工或客戶。而且,機器人必須在沒有外部干預和輔助的情況下工作,并帶來良好體驗,否則客戶就不會帶來更多銷量。
因此,新的「三定律」與部署在現實世界中的真實機器人有關,也與日常生活中的機器人有關。
外表給予的承諾
Brooks旗下的多家公司生產過各種類型的機器人,并大規模銷售。設計機器人時,設計人員會花很多心思考慮其外觀,因為這會告訴買家或用戶可對機器人抱有的期望。
iRobot的 Roomba 看起來像一個扁平的圓盤,它可以清潔地板,同時也可以在原地旋轉。圓盤的低矮外形使它可以進入廚房的踢腳板下方,清潔櫥柜略微突出的地板。
但是,大家也能看出它并不能上下樓梯,而是有一個把手,可以被人提起來。它與卡通片里的清潔機器人Rosey不同,Roomba從外表一看就不能清潔窗戶,實際上也是做不到。
同樣來自 iRobot 的Packbot是一款可遠程操作的軍用機器人,它看起來確實非常與眾不同。它有履帶輪,就像一輛微型坦克,這種外觀讓任何人看起來都覺得它能夠穿越崎嶇的地形,不會被臺階、巖石或地形的落差所阻擋。
2011 年,福島核事故發生時,Packbots 能夠在被海嘯摧毀和損毀的反應堆建筑物內操作,在遠程控制下打開門把手,駛上瓦礫覆蓋的樓梯,并將攝像頭對準模擬壓力和溫度計,以便試圖確保核電站安全的工人能夠了解核電站高放射性區域的情況。
巴格達勝利基地聯合機器人維修支隊中的 iRobot PackBot 正在拾取
「三定律」的第一點是提醒設計者,不要讓機器人看起來比實際功能更夸張。也許這會為你的公司帶來資金,讓投資者增加期待。但是,如果它不能實現那些與外表匹配的功能時,它會讓客戶失望。
失望的客戶不會成為你的產品/機器人的擁護者,也不會成為回頭客。
維護人類的自主權
如果人們接受機器人在工作場所工作,那么最糟糕的事情就是機器人成為累贅,讓人類的工作或生活變得更加困難。
例如,在醫院里,機器人負責將臟床單或碗碟從病房樓層運送到需要清洗的地方,本意是讓護士的工作更輕松,但它們往往起到了相反的作用。
如果機器人不知道發生了什么,在緊急情況下不讓開,它們很可能會妨礙護士的一些救生工作。
醫院中的機器人還有一種不太常見、但不可接受的行為,是讓它們在電梯門前、中央和擋路處停滯,阻礙人們進出電梯。
另外,過去幾年,居住在舊金山或德克薩斯州奧斯汀的人們,已經親眼目睹了機器人每天給人們帶來煩惱。這些機器人就是無人駕駛汽車,它們在城市中行駛,沒有人類乘客。
有些車輛因堵塞路口而臭名昭著,其他司機、行人或警察對此束手無策,只能等待部署這些車輛的公司,通過遠程操作員注意到被困車輛,并將其讓開。
更糟糕的是,他們會誤入火災周邊現場,那里有消防車、消防員和實際著火的建筑物,他們會感到困惑,然后停下來,有時會停在消防栓上。
消防員無法移動車輛,也無法與車輛溝通,這與人類司機駕駛的汽車形成鮮明對比。
在部分場景中,自動駕駛汽車剝奪了人們在街上做日常事務的自主權,更糟糕的是,它剝奪了消防員的自主權,而消防員的職責是保護其他人類。部署的機器人如果不尊重人類及其需要做的事情,就不會得到人類的尊重,最終將被淘汰。
堅固耐用,高效工作
制造在現實世界中的可靠機器人很難。事實上,制造任何在物理世界中工作且可靠的東西都非常困難。
要讓客戶對機器人感到滿意,需要使其每次嘗試執行任務時,都必須能夠看起來正常工作,否則用戶會產生質疑。
但是“看起來”在這里是什么意思呢?這意味著用戶至少可以假設它會起作用,作為他們對其工作功效的默認理解。
棘手的部分是機器人與現實物理世界的互動。
由于軟件程序是與易于理解的抽象機器交互,因此它們不會因為「指令無法與執行硬件一致」而失敗。
而當這些相同的程序與物理世界交互,無論是人類、網絡連接還是鼠標等輸入設備,則都有可能會失敗,因為這時程序所包含的指令,是基于現實世界中未滿足的假設。
機器人在現實世界中會受到各種力的影響,包括周圍物體精確位置的影響,還有與行為多變的人類進行交互。
沒有哪個研究生或初級工程師,熱衷于讓機器人在第8354次嘗試中,還只能做已經達成過的事情——讓軟件能夠充分適應特定情況下和特定時刻的不確定變化,才是機器人技術面臨的真正挑戰。
精美的宣傳視頻并不等于每次都能為客戶提供相應服務。我們在新聞中看到的大多數關于機器人內容,都是實驗室demo的演示。沒有數據表明該解決方案的通用性如何,也沒有數據表明為了得到視頻中的效果,需要進行多少次嘗試。更糟糕的是,有時視頻還是遠程操作的,或者加速了很多倍。
Brooks表示,很少能有一項在實驗室演示后,不到十年就能投入使用的新技術。需要花費一些時間來檢驗該方法的效果,并對其進行充分描述,以便它在現實世界中獨立工作的部署機器人不太可能失敗。
即便如此,也會出現故障,還需要很多年的時間來解決存在問題的區域,并以防御性的方式將其融入機器人產品中,以免再次發生故障。
大多數機器人都需要有緊急停止按鈕,以便人類可以關閉它們。如果客戶覺得有必要按下該按鈕,那么意味著制造和銷售該款機器人的人就失敗了。不過他們還沒有讓機器人運行得足夠好,以至于連這樣的糟糕案例都還沒有經歷過。
近期,Rodney Brooks也曾發表過「AI三定律」:
1.當一個AI系統執行任務時,人類觀察者會立即對其在看似相關的領域的一般能力做出估計。通常,這種估計會被極大地夸大。
2.大多數成功的人工智能部署都會在某個環節涉及人類(可能是它們正在幫助的人),而人類的智慧能夠彌補其中的不足。
3.如果不仔細限制AI系統的部署方式,那么總會有一長串特殊情況需要數十年才能發現和修復。矛盾的是,所有這些修復工作本身都是AI完全能夠完成的。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.