1980年,麻省理工學院人工智能實驗室年輕的程序員理查德·M·斯托曼被一臺打印機惹惱了。
打印機是施樂公司捐贈的最新款,可以直接網絡打印,屬于尚未上市銷售的概念款。比起舊打印機,新玩意兒效率高了一個數量級,但也產生了新麻煩:由于聯網打印,機器同時服務多人,卡紙問題也比前一代嚴重。
最開始,這個問題似乎很簡單。人工智能實驗室聚集著當時全美最優秀的程序員,遇到類似問題,技術極客們一般是進入機器控制程序,直接對內部軟件做修改。
事實上,之前那臺舊打印機的卡紙問題,就是理查德·M·斯托曼加了幾行代碼解決的。
這正是施樂公司這樣的企業喜歡把產品捐送給實驗室的原因,這群極客如同企業外延的研發部門,他們的修修補補,很多時候會成為下一代產品創新調整的方向。
然而這一次,斯托曼想修改打印機軟件時碰了一鼻子灰。作為凝結了當時最前沿技術的打印機,施樂公司在這款產品上花費不菲,也對其寄予厚望。為了盡可能保護未來的商業利益,施樂公司封閉了產品源代碼。
這個舉動惹惱了斯托曼。
在此之前,軟件是圈子里的共有資源。極客們把各種軟件復制來復制去,如同接受來自天上的雨水一樣理所當然。互相復制、修改和使用軟件,并不影響其他人,甚至更多時候,是帶來創新和進步。整個計算機世界的基石正是在這種共享和復制之中不斷建造和發展的。
施樂公司封閉源代碼的行為,在斯托曼看來,如同給這個知識自由流動的世界突然筑起了一座大壩,不僅破壞了二戰后深植入軟件開發中的科學精神,也是對程序員群體的背叛,它讓程序員成為“被雇傭者”,而不再是軟件的主人。
打印機事件是斯托曼的人生轉折。幾年后他發起自由軟件運動,并建立自由軟件聯盟,阻擊一切私有軟件。
時至今日,雖然斯托曼和自由軟件聯盟的偏激經常受到質疑,但斯托曼時代構建計算機世界的方式,時刻提醒人們,為什么“開放”和“分享”應該也必須是互聯網的精神內核。
重述這個古早期故事,是因為美團公開部分外賣算法后,有很多這樣的跟帖討論:為什么要公開?
互聯網行業的光環真是消失太久了,這個新聞后最需要的疑問本該是:為什么還有公司沒有這么做?
除了傳統,互聯網發展歷史一再證明,開放并非僅僅是這個行業散發倫理道德光芒的精神圖騰,也是企業競爭中殺傷力極強的武器。
全球知名互聯網企業幾乎無一不或多或少受益于開放。與開放平臺Linux關系密切的Google自不必說,如今邪惡到面目可憎的facebook,正是2006年宣布開放戰略后,迅速將老牌社交網站MySpace拋在身后。
《Facebook效應》作者把扎克伯克做出“開放”決定的那一刻,稱為Facebook的EurekaMoment。那段時間,Facebook高級經理戴夫·莫林甚至把托克維爾的《論美國的民主》作為建立新版Facebook的理念指引,扎克伯格個人主頁上的簡介則是:“我正在努力讓整個世界變得更加開放”。雖然今天看來無比諷刺。
2008年,比爾蓋茨在退休前一周的高管會議上,突然宣布擁抱開源的決定。盡管后面的繼任者史蒂夫·鮑爾默又走了一段彎路,但這個決定緩和了微軟與開發者社區的緊張關系,也為之后Windows Azure成為微軟扭轉命運的關鍵鑰匙埋下了希望之種。
大公司擁抱開放的背后蘊含著一個簡單事實:一個公司的技術能力和管理半徑永遠有邊界,那么為什么不盡可能借助外部力量呢?借助開放力量,互聯網公司往往可以獲得更寬廣的護城河,甚至形成壟斷——既然既符合市場倫理也符合效益邏輯,那么為什么時至今日,公開算法仍然是一個小眾選擇?
公開算法與互聯網公司以往的開放,最大的區別在于:算法時代的人,不再僅僅是技術的使用者和創造者,而是成為技術的一部分,受到算法規則的控制。
在一檔關于網約車的音頻節目討論中,司機們對看不見摸不著的算法既憤怒又敬畏,他們不斷地總結嘗試各種方法反抗、逃避和挑戰算法的約束,比如利用醉酒無責取消的平臺規則,拒絕掉不劃算的短途單,比如把定位一直定在機場,多接機場的單子。
但更多時候,司機們的反抗很無力。由于既無法得到嚴密的證實,也無法被真正證偽,大多數接單技巧像是玄學,比如把藍牙關掉再打開,就會有大單出現,多在紅綠燈附近徘徊,單子會多,或者打電話跟客服吵一架,平臺會立刻派出高質量大單。這些方法如同數字時代的拜神驅邪,魔幻又荒誕。
這一切展示著人類歷史的新篇章:人不再是技術的絕對主導者,人的行為、習慣被分解為大數據,成為幫助算法制定規則、構建權力的燃料,然后又成為算法實現目的的工具。
《大西洋月刊》在去年一篇反思硅谷和數字技術的文章中,諷刺硅谷科技巨頭“過去十年中最引人注目的創新之一不是計算機學會開車,而是讓計算機學會指揮人開車”。
基辛格則在更早期一篇文章中憂心忡忡的表示:“我們無法完全預測新技術的變革帶來的影響,它發展到頂點時,可能會帶來一個依賴于資料和演算法驅動的機器、不受倫理或道德規范約束的世界。”
2016年,威斯康星州一宗汽車盜竊案曾掀起一場關于算法公平的討論。由于案件量刑時參考了智能數字模型,引發司法界對“算法中加入性別、種族參數”是否造成歧視,和“算法不公開”是否違反了司法透明的爭議。
討論結果是建議算法不要用在刑事司法、醫療保健、社會福利和教育等公共領域。
但這種擱置和回避只能是暫時的,算法困局早已經蔓延過公共領域,變成了與真實個體之間的矛盾。
2020年底,4名被Uber解雇的司機,把Uber告上了法庭,理由是:沒有明確告知解雇原因。司機們堅稱自己一直合法運營,卻被大數據判定為違規。
這是2018年歐盟公布《通用數據保護條例》后出現的首個相關案例。
《通用數據保護條例》是歐洲近幾年最重要的數字法案之一,其立法根基是包含了“反歧視”和“數據透明”在內的“數據正義”。根據這一法案,個人有權了解個人數據如何被收集和使用。
支持4名Uber司機的機構之一App Drivers & Couriers Union是2016年幫助Uber司機打贏雇員身份案的組織,其網站聲明中明確表示,這個案子將檢驗《通用數據保護條例》保護個人免受不公平的自動化決策影響的程度。
算法可以設定和尋求到最優效率,但人的世界里,從來不是只有效率。這是人與算法的矛盾,也是解決人與算法矛盾的錨。
我國在今年9月份啟動為期3年的算法監管計劃,2個月后又正式實施《個人信息保護法》,不管美團公布算法的舉動是不是受此影響,至少在嘗試重新梳理人與算法的道路上,我們也邁出了第一步。
東
潘石屹的兩次挫敗
沒有出街的海報
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.