科學(xué)家談無人駕駛:如果無人駕駛汽車出錯(cuò)造成事故 怎么辦?
摘要: 第三屆世界頂尖科學(xué)家論壇將于10月30日-11月1日在上海舉行。包括61位諾貝爾獎(jiǎng)得主在內(nèi),近140位諾貝爾獎(jiǎng)、圖靈獎(jiǎng)、菲爾茲獎(jiǎng)、沃爾夫獎(jiǎng)、拉斯克獎(jiǎng)等全球頂尖科學(xué)獎(jiǎng)項(xiàng)得主出席。論壇期間將有130余場科學(xué)家獨(dú)立演講、70余場主題峰會(huì),大部分活動(dòng)將通過網(wǎng)絡(luò)向公眾直播。
第三屆世界頂尖科學(xué)家論壇將于10月30日-11月1日在上海舉行。包括61位諾貝爾獎(jiǎng)得主在內(nèi),近140位諾貝爾獎(jiǎng)、圖靈獎(jiǎng)、菲爾茲獎(jiǎng)、沃爾夫獎(jiǎng)、拉斯克獎(jiǎng)等全球頂尖科學(xué)獎(jiǎng)項(xiàng)得主出席。論壇期間將有130余場科學(xué)家獨(dú)立演講、70余場主題峰會(huì),大部分活動(dòng)將通過網(wǎng)絡(luò)向公眾直播。
在過往的兩屆世界頂尖科學(xué)家論壇上,人工智能是科學(xué)家繞不開話題。在人工智能技術(shù)落地的各種應(yīng)用中,自動(dòng)駕駛,或稱無人駕駛是最具代表性的場景之一。
我們何時(shí)能實(shí)現(xiàn)L5級(jí)別的自動(dòng)駕駛,當(dāng)無人駕駛汽車出錯(cuò),造成了事故,該怎么辦?小編特此整理世界頂尖科學(xué)家論壇往屆參與者關(guān)于無人駕駛的討論,希望能為讀者理清無人駕駛技術(shù)的發(fā)展脈絡(luò)、挑戰(zhàn)和困難。
除了人臉識(shí)別外,當(dāng)下,人工智能技術(shù)發(fā)展最有代表性的另一項(xiàng)落地技術(shù)應(yīng)該要算無人駕駛了。在第二屆世界頂尖科學(xué)家論壇上,科學(xué)家們就以無人駕駛為例,闡述了技術(shù)發(fā)展下的倫理道德約束,以及技術(shù)與人之間的關(guān)系。
首先,與飛機(jī)和火車在出廠時(shí)都經(jīng)過嚴(yán)密的安全測試不同,無人駕駛汽車出廠的時(shí)并不安全,它就有一個(gè)“計(jì)算黑盒”,來進(jìn)行端對(duì)端的計(jì)算控制。在無人機(jī)駕駛起初出廠前,眾多科技公司都認(rèn)為自己的路測公里已經(jīng)達(dá)標(biāo)。
這一點(diǎn),在科學(xué)家們看來,并不如此。“他們也是認(rèn)為公里數(shù)統(tǒng)計(jì)可信度就夠了,公司會(huì)說我這個(gè)無人駕駛汽車測過幾百萬公里的運(yùn)作,都是安全的,因此我就認(rèn)為它是安全的。而這種說法只是統(tǒng)計(jì)學(xué)上面的安全可靠性。做特斯拉的那一位就說我們這個(gè)車已經(jīng)很安全了,如果出問題我可以付錢等等,但這些都是非常盲目樂觀的情緒?!? 2007年圖靈獎(jiǎng)得主約瑟夫·斯發(fā)基斯說。
針對(duì)自動(dòng)駕駛安全公里數(shù),斯發(fā)基斯認(rèn)為不能盲目信任數(shù)據(jù),更重要的是應(yīng)該是在不同的危險(xiǎn)場景下去實(shí)驗(yàn),需要有各種各樣的標(biāo)準(zhǔn),嘗試各種各樣的選擇,覆蓋所有的場景,才能更好地保證自動(dòng)駕駛汽車的安全。
2018年,美國優(yōu)步(UBER)公司的一輛自動(dòng)駕駛測試車18日晚間在亞利桑那州撞倒一名中年女性,這名女性在送醫(yī)之后不治,全球首例自動(dòng)駕駛致死案就此發(fā)生。從這場事故開始,公眾對(duì)于無人駕駛就有些敵對(duì)的情緒。
“這可能也是要引起重視,尤其是在技術(shù)的接納程度上。關(guān)鍵問題就是我們什么時(shí)候能夠接受自動(dòng)系統(tǒng),就算不能夠完全理解它采取什么樣的行動(dòng)或者什么樣的決策,但我們?cè)撛趺礃咏邮苓@種技術(shù),這是我們必須要討論的問題?!奔s瑟夫·斯發(fā)基斯。
在約瑟夫·斯發(fā)基斯看來,人的行為、情緒也是影響技術(shù)的因素之一。在談?wù)撊伺c技術(shù)的關(guān)系時(shí),人的行為發(fā)生什么樣的改變,公眾對(duì)于這個(gè)會(huì)有什么反應(yīng),也必須是要討論和考慮的。
未來,我們或許會(huì)進(jìn)入這樣的場景:到處都是無人駕駛的車,或者無人駕駛車和人開的車混在一起。當(dāng)發(fā)生交通事故了,如果這個(gè)事故是由人造成的,公眾可能還能接受。但是如果這個(gè)事故是機(jī)器造成的,那人們的反應(yīng)會(huì)非常劇烈。為什么,這也是技術(shù)公司在開發(fā)自動(dòng)駕駛汽車時(shí),應(yīng)該要考慮到的。
如果真是無人駕駛汽車出錯(cuò)造成了事故,那么該采取什么措施。在2013年諾貝爾化學(xué)獎(jiǎng)獲得者、美國南加州大學(xué)教授亞利耶·瓦謝爾(Arieh Warshel)教授看來,懲罰措施是繞不過去的話題,比如,如果特斯拉的車造成人類死亡,這個(gè)公司可能需要配上數(shù)十億。
“如果你想要算系統(tǒng)責(zé)任的話,比如說責(zé)任乘以十,你懲罰的后果可能要乘以一千?,F(xiàn)在的情況是,對(duì)于政府來說,如果開發(fā)的成本降一點(diǎn),許多制車廠其實(shí)已經(jīng)這樣做了,下降一點(diǎn)就可以把省下來的錢付一筆給保險(xiǎn)公司,從而用保險(xiǎn)的方式來解決安全隱患。但這樣的后果是很嚴(yán)重的。”約瑟夫·斯發(fā)基斯說。
科學(xué)家,無人駕駛,出錯(cuò),造成事故






