我們如何知道自動駕駛汽車何時安全?當它們能應對世界上最糟糕的司機時——《華爾街日報》
Christopher Mims
想象一下,在一個類似《瘋狂的麥克斯》或《速度與激情》中公路狂飆的世界裏學開車。
在這個世界裏,沒有人遵守交通法規或車道標線,從分心駕駛者到亂穿馬路的行人,所有人都在故意迫使你做出生死攸關的瞬間抉擇。
工程師們表示,讓自動駕駛汽車經受這樣的考驗,正是製造商和監管機構確認它們能否擔起守護人類生命責任的終極試金石。
要理解其中緣由,需先了解自動駕駛系統核心人工智能算法如何通過訓練應對複雜狀況。幾乎所有系統製造商都主要依靠模擬環境進行訓練。密歇根大學工程學教授、自動駕駛測試基地Mcity主任劉歡指出,這比用真實車輛採集現實數據安全經濟得多。
劉歡補充道,儘管許多公司吹噓其自動駕駛/半自動駕駛車輛的實際路測里程,但它們的模擬測試里程很可能超出千倍。
例如谷歌姊妹公司Waymo宣稱,其無人駕駛車輛累計行駛已超200萬英里。
“我們在公共道路實測數千萬英里,在模擬環境更達數十億英里,“Waymo安全研究總監特倫特·維克托表示。
劉歡解釋道,現實中車輛可能需行駛數百甚至數千英里才會遇到值得學習的新狀況,但在模擬中工程師能讓自動駕駛系統持續遭遇全球最糟糕駕駛者的極限挑戰。
其結果,實際上為自動駕駛車輛提供了一門速成課程。
關於全自動駕駛汽車即將大規模推廣的承諾,尤其是特斯拉首席執行官埃隆·馬斯克所提出的,已一再被證明是無稽之談。但這並不意味着我們不會很快看到更多無人駕駛車輛上路,即便只是象徵性的。無論如何,利用最嚴苛場景進行測試和訓練,對於實現這些車輛的應用以及最終驗證其安全性都至關重要。
自動駕駛汽車推廣的一大障礙是所謂的“邊緣案例”:罕見但可能引發災難的場景,這些已導致多起事故,例如特斯拉自動駕駛系統故障引發的超過36萬輛汽車召回事件。通過模擬技術,可以對這些邊緣案例——比如行人突然從車輛正前方橫穿馬路——進行反覆演練。
開發駕駛輔助與自動駕駛系統的公司Mobileye首席技術官沙伊·沙萊夫-施瓦茨表示,這些模擬駕駛的極端環境不僅能訓練自動駕駛系統,還能完成同等重要的事——測試系統性能。
正是所有這些訓練與測試,將我們帶到了當下這個節點——Waymo和通用汽車旗下Cruise兩家公司正在多個城市積極測試無人駕駛出租車,而Mobileye宣佈將在2026年前為汽車製造商提供能在個人車輛上完全接管高速公路駕駛的系統。用數學方法證明自動駕駛系統比人類更安全,將是實現從數百輛無人出租車上路,到最終讓數百萬輛各類型自動駕駛汽車普及的關鍵。
Mobileye表示,到2026年將為汽車製造商提供一套能在個人車輛上完全接管高速公路駕駛的系統。圖片來源:Jeenah Moon/Reuters沙列夫-施瓦茨補充説,若缺乏此類驗證,監管機構將沒有客觀標準來評估系統是否合格。
但有了這種驗證,自動駕駛汽車就可能獲得安全監管部門頒發的"駕駛執照”。不妨稱之為"瘋狂麥克斯駕駛測試”——這種嚴苛考驗恐怕只有好萊塢導演,或是性格温和的自動駕駛工程師才能想出來。
在美國,國家公路交通安全管理局已着手製定新規,其中可能包含此類要求。這些規則仍在起草中,具體內容尚不明確。歐洲和中國已針對自動駕駛汽車制定了製造商必須遵守的標準,而美國目前的做法則有所不同。
“美國政府的做法是’別干涉,讓公司為所欲為,等出了問題再讓他們吃官司’。“沙列夫-施瓦茨説道。
即便交通規則簡單明瞭,人類行為卻複雜難測
Waymo公司長期保持着一個傳統:在允許自動駕駛系統與真實行人、騎行者及其他車輛互動之前,會先在模擬環境中對其進行極限壓力測試。
公司採用的一種方法被稱為“碰撞避免測試”(簡稱CAT)。Waymo將其自動駕駛軟件置於可能導致傷亡的模擬場景中,隨後評估其表現與全神貫注的人類駕駛員相比如何。典型場景包括行人亂穿馬路、自行車從停靠的卡車後突然衝出、其他司機突然變道——基本上涵蓋所有可能引發事故的情況。
測試自動駕駛車輛應對複雜情況能力的關鍵,在於預判可能出現的場景類型。模擬的全面性完全取決於其所基於的真實場景數據庫。
因此,業界已發起多項倡議來收集並共享關於導致碰撞及其他事故的場景數據池。
其中包括由Deepen AI公司與英國華威大學合作的Safety Pool倡議,該數據庫包含超過27萬種場景,可供自動駕駛系統製造商用於軟件訓練和測試。另有主要由德國企業牽頭、17國參與的SET Level項目。
Waymo、Cruise、特斯拉、Motional(現代與Aptiv的合資企業)以及Mobileye等公司,都擁有龐大的道路人類危險行為場景數據庫。
一輛真正的自動駕駛汽車在Mcity測試設施中遭遇模擬危險場景。圖片來源:布倫達·阿亨/密歇根大學Mobileye公司發言人表示,該公司已從自身駕駛輔助系統測試中積累了約400拍字節的行車影像數據,同時還從配備其系統的部分消費者車輛中收集匿名數據。特斯拉則宣稱自2015年推出Autopilot技術以來,同樣積累了海量車輛數據。Waymo安全主管維克多指出,其機器人出租車配備了全方位高精度傳感器,因此能獲取運營道路的異常詳盡數據。
這些數據寶庫提供了大量人類老司機都熟悉的複雜路況案例,例如在沒有明確綠燈箭頭指示時進行轉彎操作。
“無保護左轉往往是自動駕駛車輛的難題,“密歇根大學的劉教授表示。事實上,當自動駕駛系統需要預測人類行為而非簡單遵循交通規則時,就容易出現問題。他補充説,其他挑戰性場景還包括匯入車流,以及周邊車輛同時意圖變道的情況。
在某些場景下,自動駕駛系統只需遵守規則就能輕鬆超越人類——例如,美國人似乎尤其不擅長在雙車道環島中行駛。劉教授和他的學生們對此深有體會,因為他們已在安娜堡市的八個交叉路口安裝了傳感器,包括他家附近的一個環島。
“這是我們縣最危險的環島,“劉教授説。儘管有警示標誌提醒,但一些人類駕駛員進入環島時仍會犯下未禮讓雙車道車輛的錯。但他補充説,自動駕駛系統不應犯同樣的錯誤。
我們對"安全"的定義可能需要改變
沒有任何自動駕駛車輛能完全避免事故——尤其是在一個真實人類駕駛員、行人和騎行者經常引發事故的世界裏。
沙列夫-施瓦茨表示,無論自動駕駛系統面對挑戰時多麼強大,最終都需要政府來判斷它們是否足夠安全。儘管所有自動駕駛公司都在使用模擬來訓練和測試車輛,但衡量其性能的標準各不相同。這也是這些車輛行為存在差異的部分原因。
不論是不久的將來我們跳上一輛自動駕駛出租車,還是按下汽車上的"自動駕駛"開關,這項技術的關鍵推動力都將是信任。我們如何知道可以信任這些車輛?部分原因將是它們已經從瘋狂麥克斯式的駕駛學校畢業了。
欲獲取更多《華爾街日報》科技分析、評測、建議和頭條新聞,請訂閲我們的每週通訊。
寫信給克里斯托弗·米姆斯,郵箱:[email protected]
刊登於2023年5月20日印刷版,標題為《自動駕駛汽車對決全球最差司機》。