文/于欣烈
最近特斯拉的一起自動駕駛交通事故炸了鍋。一輛開啟AutoPilot功能的ModelS撞上一輛卡車,車主不幸身亡。我看到不少打着Self-Driving、無人駕駛或自動駕駛事故緻死的标題,引發不少關于無人駕駛的悲觀讨論。但事實并不是這樣。事故車輛啟用的AutoPilot并不能代替司機駕駛車輛,隻是一種輔助駕駛功能,要求司機掌控方向盤而不是電腦。
關于事故的具體介紹和AutoPilot需要駕駛員手握方向盤等使用條件,建議大家看下特斯拉官方聲明,掌握一些基礎知識才能有效讨論。事故的具體責任,還需要美國國家公路交通安全管理局調查後判定,根據現有的信息,我有些自己的看法:1.特斯拉不應在量産車上提供Beta版服務特斯拉一直稱AutoPilot還處于測試階段,并不完善。盡管特斯拉說明了AutoPilot啟用時駕駛員需要雙手握好方向盤,以及自動駕駛功能不能識别的一些情況。但很多用戶是普通人,并沒有能力來判斷,當時路況條件是否符合要求,或者自己是否适合使用AutoPilot。
AutoPilot的主要功能推出後,很多用戶認為它無所不能。不管是不是特斯拉宣傳過度,用戶對自動駕駛的理解失控了。各種瘋狂的ModelS“大撒把”視頻一度風靡視頻網站。
吓壞了的Musk多次口頭警告用戶,并在年初的一次升級裡,限制了AutoPilot部分功能。但這項測試服務仍被保留在幾萬輛車上。關于汽車的行駛和安全,不應該存在Beta服務。
2.放棄使用部分自動駕駛按照汽車産業的劃分,自動駕駛被分為四個階段:輔助駕駛、部分自動駕駛、高度自動駕駛和完全自動駕駛。目前一些高配置汽車上,會有偏道提醒等功能,這屬于輔助駕駛。
特斯拉的AutoPilot還屬于部分自動駕駛——這是風險最大的階段。在部分自動駕駛下,要求我們開車時,一方面要相信雷達、傳感器和自動刹車系統能對路況做出反應;另一方面還要高度集中,在自動駕駛功能失效時,接管對車子的控制。但特斯拉忽視了人性。
一旦我發現前車刹車後AutoPilot總能很好的自動減速,建立起信任後自己的惰性就會發生作用——啟動AutoPilot的情況下,我就不會集中注意力,每次都及時對前車做出反應。可你又告訴我,别信賴它,它時靈時不靈。我的内心是崩潰的。且不論我們普通人能不能做到這麼機敏。在這兩種狀态下的切換,就需要至少幾十秒的時間。在發生意外的一刹那,根本來不及切換。所以我認同谷歌的做法,開發出一輛完全依賴自動駕駛功能的汽車,不需要一個普通人在兩種模式下不斷切換。即便是兩種模式切換,也要清晰地區分人在駕駛(基礎輔助駕駛功能)和完全自動駕駛。要麼我在開車,要麼機器在開車。避免半自動駕駛這種混合模式中,人性帶來的負面影響。
3.不要再把輔助駕駛功能叫做“自動駕駛”
關于這起事故有很多讨論熱點:用激光雷達是否可以避免事故;啟用“AutoPilot”時,事故責任的判定等等。但特斯拉最大的“惡”卻少有人明确提出來——它把一項輔助駕駛功能,直接命名為“自動駕駛AutoPilot”。這樣的名字直接誤導了用戶對駕駛一輛車的理解。
在汽車行業内,自動駕駛被分為了四個階段:輔助駕駛、部分自動駕駛、高度自動駕駛和完全自動駕駛。
特斯拉的“AutoPilot”功能一般被視為第二階段,即部分自動駕駛。官方也對外宣稱這并不是一套完全自動駕駛系統,并且承認它目前還處于測試階段……但特斯拉把這樣一套還處于測試階段的半自動系統,激進地命名為“自動駕駛”并推向了幾萬名普通車主。
普通消費者沒多少人理解四個階段的區别,他們也不在乎。他們中很多人會按字面意思去理解。盡管特斯拉在OTA“自動駕駛”功能時會有一堆聲明,告誡用戶這是一套輔助駕駛系統,要把手放在方向盤上等等。但普通用戶在Youtube上看到各種大撒把式“自動駕駛”視頻時(特斯拉CEOElonMusk的前妻都發布過這樣的視頻),他們會喪失辨别能力。
對特斯拉“自動駕駛”理解的失控,可能并非特斯拉的錯。但這就是市場,這就是用戶。
這讓我想起一位朋友,作為智能硬件工程師,他對用戶的誤操作和抱怨怒不可遏,“他們不好好看說明書嗎?”
ElonMusk已經成為了這個時代光環最耀眼的企業家。從電動汽車、新能源到太空火箭,他的天賦和努力,創造了一個又一個的奇迹。作為一名可以改變世界的企業家,Musk或許應該意識到,他同時會改變很多普通人的日常生活。我想他應該聽聽前輩貝索斯的那段演講:“聰明是一種天賦,而善良是一種選擇,選擇比天賦更重要。”