一架滿載乘客的飛機從紐約起飛後遭遇鳥群撞擊,兩台引擎全部失靈,英雄機長奇迹般地實現了水上安全迫降。這是電影《薩利機長》講述的真實故事。不過,迫降成功隻是故事的開始。随後,薩利機長接受了航空安全部門的輪番調查和盤問,他被質疑:為什麼不返航到拉瓜迪亞機場,而要冒險迫降?也許機長并不是英雄,而是拿全體乘客性命開玩笑的莽夫?
在聽證會上,航空安全部門展示了模拟數據。在先進技術的支持下,機器完美地還原了當天飛機遭遇鳥群撞擊之後的高度、速度、角度等數據,以及天氣、風向等外部環境因素。模拟結果表明:這架飛機完全可以成功返航,在原機場着陸。
眼看薩利機長就要聲名掃地,這時他指出了一個關鍵因素:機器可以完美地模拟客觀數據,卻沒有考慮到,當時駕駛飛機的是活生生的人。人不可能像機器一樣毫無感情地做出最理性的選擇,而是需要時間進行反應、思考、判斷。
果然,當機器模拟将人的反應時間考慮進去之後,飛機便無法再成功着陸機場,水上迫降成為唯一的選擇。
在不通人性的機器面前,英雄機長的命運險些被毀掉。其實,這個世界上還有千千萬萬小人物,也因為機器不通人性、不具備人文關懷,而生活在糟糕的處境之中。
這類小人物中最典型的,就是美國不少快餐連鎖和大型超市的工作人員。他們大多是按小時數拿薪水的合同工,收入本就微薄。近幾年,企業大規模采用機器進行排班,讓他們受到進一步的剝削。
這種排班的核心是基于顧客流量來安排上崗員工。其實,超市和快餐店本來就會進行這種“科學排班”:周二上午人流少,少安排人上崗;周五晚上人流多,全員上崗。不過,新的數據技術讓這種方法的複雜性達到了前所未有的程度。比如,下雨時,可能會有更多人走進咖啡店,所以這時要多安排人手;某個晚上附近的體育場有大型賽事,可能會給快餐店帶來一大批深夜客流;甚至,根據社交媒體上提及的某一産品的熱度,來預測門店的人流……這一切都讓人流預測和排班安排達到了前所未有的科學化程度,但它給店裡的打工者帶來了災難性的後果。
為什麼會這樣?首先,這種複雜的預測方式,往往需要利用非常新的數據(比如天氣預測、社交媒體熱度),因此很多時候隻能提前一兩天完成預測。這也就意味着,員工的排班表無法在一個月前就安排好,而是提前一兩天才能得到,而且永遠處于不可預測的變動之中——因為數據是不斷變動的。這也就意味着這些打工者永遠處于不确定性之中,随時可能被叫去工作,無法掌控自己的時間,這對需要照顧家庭的人來說尤為不便。
其次,此前超市和快餐店的打工者還能享受一些間歇的清閑,不至于每一分鐘都在高壓之下,但是現在,拜算法所賜,他們基本上每一分鐘都要處于緊繃的狀态,因為機器算法的終極目标就是使每一位員工在崗時的工作投入最大化。這對于企業盈利的目标而言自然是合理的,但它沒有考慮到,員工作為活生生的人在這種制度下要承受巨大壓力。
此外,機器還會自動完成一些奇葩的排班方式。比如,晚上值最後一班崗,工作到11點關店,第二天一早又要上最早一班,淩晨4點就要起來去開店。這種情況一度非常普遍,以至于人們發明了一個詞:clopening,即關門(closing)和開門(opening)的合體。有這種排班方式,并不是機器有意為難打工者,而是因為在機器的算法中,并沒有“人類需要充足的睡眠時間”這樣的設定。
數學家凱西·奧尼爾在《數學殺傷性武器》一書中講述了不通人性的機器剝削底層打工者的故事。她提醒我們:機器和算法最終體現的,其實是制造機器、設計算法的人的意志。從這個意義上說,機器不通人性并不可怕,隻要制造機器、設計算法的人多一些人性的考慮和關懷,比如禁止連續排最晚班和最早班,要求提前一周定下排班表,等等,事情就不會變得那麼糟糕,就像在薩利機長的聽證會中加入那關鍵性的35秒一樣。
(小南摘自《南方周末》2017年2月9日,勾犇圖)