banner
虫子游戈

虫子游戈

一个写故事的人类
mastodon
email

大數據與人工智慧是否會摧毀民主?

本文譯自 Scientific American 上的英文版,德文版見 Spektrum der Wissenschaft。作者:Dirk Helbing 、Bruno S. Frey 、Gerd Gigerenzer 、Ernst Hafen 、Michael Hagner 、Yvonne Hof 斯特特 、Jeroen van den Hoven 、Roberto V. Zicari 、Andrej Zwitter。2017 年 2 月 25 日。

「啟蒙是人類遠離自我強化的不成熟並從中崛起。不成熟是在沒人引導時沒有理解他人的能力。」

—— 伊曼努爾・康德《什麼是啟蒙?》(1784)

數字革命正在全面開花。這將如何改變我們的世界?我們產生的數據每年都會多一倍。換句話說:2016 年我們產生的數據與直到 2015 年的整個人類歷史所產生的數據一樣多。每分鐘,我們都會進行數十萬次谷歌搜索,發布數十萬條 Facebook 帖子。這些數據中包含著能揭示我們所思所感的信息。不久之後,我們周遭的事物(甚至包括我們的衣物)也都會連接到互聯網上。據估計,10 年內將會有 1500 億聯網的測量傳感器,比地球人口多 20 倍。屆時,數據量每 12 小時就會翻番。很多公司已經在嘗試用這樣的「大數據(Big Data)」賺「大錢(Big Money)」了。

所有的東西都會智能化;很快我們就不僅會有智能手機,還會有智能家居、智慧工廠和智慧城市。可以期待這樣的發展會造就智慧的國家和更智慧的星球嗎?

事實上,人工智能領域正在取得令人矚目的發展進步,尤其是其對數據分析自動化的貢獻。人工智能不再是一行行寫出來的,現在它已經具備了學習能力,因此能夠實現持續的自我演進。最近谷歌 DeepMind 開發的算法自己學會了通關 49 個 Atari 遊戲。現在的算法在識別手寫語言和模式方面幾乎已經和人類一樣好了,甚至在某些任務上還優於人類。它們也能描述照片和視頻的內容。如今,70% 的金融交易都是由算法執行的。一部分新聞內容也是自動生成的。這一切會造成一些重大的經濟後果:在未來的 10 到 20 年時間裡,今天大約一半的工作都將處於算法的威脅之下。當今的世界 500 強企業中的 40% 都將在十年內消失。

可以預計,超級計算機很快就將在幾乎所有領域超過人類能力 —— 大概會在 2020 年到 2060 年之間。專家們已經開始敲打警鐘。特斯拉的伊隆・馬斯克、微軟的比爾・蓋茨和蘋果公司聯合創始人史蒂夫・沃茲尼亞克等有技術遠見的人都警告說超級智能是對人類存在嚴重的危險,甚至可能比核武器還危險。

這是杞人憂天嗎?#

有一件事很顯而易見:我們的經濟和社會組織方式將發生根本性的變化。我們正經歷著自第二次世界大戰結束以來最大的變革;在生產自動化與創造了自動駕駛汽車之後,接下來就是社會的自動化了。也因此,社會站在了一個交叉路口,未來可能有巨大的機會,也可能存在可觀的風險。如果我們做出錯誤的決定,那就將可能威脅到我們最偉大的歷史成就。

1940 年代,美國數學家諾伯特・維納(1894-1964)發明了控制論。他認為系統的行為可以通過適當的反饋來控制。很快,一些研究者就想象可根據這一基本原理控制經濟和社會,但那時候還不存在必需的技術。

如今,新加坡已被視為數據控制型社會的完美範例。一開始為了保護其公民免受恐怖主義侵害的項目計劃最終也給其經濟和移民政策、房地產市場和學校課程造成了影響。中國也在走類似的路。百度(中國的谷歌)近期邀請了軍方參與其「中國腦計劃」。這涉及到在收集自用戶的搜索引擎數據上運行所謂的「深度學習算法」。除此之外,中國也正計劃著某種形式的社會控制。據近期的報導,每個中國公民都會有一個所謂的「社會信用分」,這將決定他們在哪種條件下可以獲得貸款、工作或去其它國家的旅行簽證。這種類型的個人監控將包含人民的互聯網瀏覽情況以及他們的社交行為(詳見「聚焦中國」一節)。

隨著消費者面臨著愈見頻繁的信用檢查,某些網上商店正在實驗個性化定價,我們西方在這方面也在向類似的方向發展。我們也越來越明顯地看到我們全都站在機構監控的視野正中心。這一情況在 2015 年被披露出來,英國特勤局的「Karma Police」項目被公開,表明他們會全面篩查每個人的互聯網使用情況。「老大哥」正在變成現實嗎?

程序化社會,程序化公民#

所有東西一開始都相當無害。搜索引擎和推薦平台已開始為我們提供產品和服務的個性化建議。這種信息基於收集自之前的搜索、購買和出行行為以及社交活動的個人數據和元數據。儘管正式說來用戶的身份是受保護的,但在實踐中卻可以很輕鬆地推斷出來。如今,算法相當清楚地知道我們做了什麼、我們在想什麼以及我們的感受 —— 甚至可能比我們的朋友、家人或甚至我們自己都還清楚。很多時候,我們收到的推薦實在太適合了,以至於我們會覺得所得到的結果是我們自己的決定,儘管實際上它們不是我們的。事實上,我們正以這種方式受到比以往任何時候都成功的遠程控制。我們被了解得越多,我們的選擇就越不可能是自由的,就越可能是由其他人預先確定的。

但問題不止於此。某些軟件平台正向「說服式計算(persuasive computing)」發展。未來,這些平台有能力使用複雜精細的操控技術引導我們完成一整套動作,以便執行複雜的工作流程或為互聯網平台生成免費的內容,而公司企業則可從中大賺特賺。現在的趨勢是從編程計算機向編程人發展。

這些技術在政治世界也日漸流行。在「微推(nudge)」這一標籤下,政府正大規模地嘗試通過「微推」(這是家長主義的一種現代形式)方法引導公民實現更健康或對環境更友好的行為。這種新式的充滿關懷的政府不僅對我們所做的事情感興趣,而且也想要確保我們做的是它認為正確的事。這裡要依賴的神奇魔法就是「大微推(big nudging)」,即「大數據」與「微推」的組合。對很多人來說,這似乎是一種數字權杖,讓人可以高效地統治民眾,且無需讓公民參與到民主過程中。這能夠克服既得利益者的阻礙並優化世界的發展嗎?如果可以,那麼公民可能將處於數據驅動的「明君」的統治下,它將能像數字魔杖一樣實現所需的經濟和社會成果。

預先編程的災難#

但看看相關的科研文獻,其中表明以所謂的「優化」方式控制人們的意見的嘗試都注定要失敗,因為這個問題非常複雜。意見形成的動態過程充滿了變數。沒人知道數字魔杖(即操縱性的微推技術)應該以怎樣的方式得到最好的使用。什麼是好的?什麼是壞的?衡量標準往往在事後才變得顯而易見。舉個例子,在 2009 年的德國豬流感疫情期間,每個人都被鼓勵去接種疫苗。但是,我們現在知道一定比例的接種者會患上一種不尋常的疾病 —— 發作性嗜睡症(narcolepsy)。幸運的是,選擇接種的人沒有變得更多!

另一個例子是醫療保險提供商最近嘗試通過發放智能健康手環來鼓勵人們更多鍛煉,以降低人群中的心血管疾病發病數量;但最終,這又可能導致髖部手術增多。在社會這樣的複雜系統中,一個方面的改進幾乎不可避免地會導致另一個方面的劣化。因此,大規模干預有時候可能最終成為大規模錯誤。

不僅如此,罪犯、恐怖分子和極端主義者遲早會嘗試奪取這個數字魔杖的控制權 —— 甚至我們可能都注意不到。幾乎所有的公司和機構都曾被攻破過,甚至包括五角大樓、白宮和國家安全局(NSA)。

當缺乏足夠的透明度和民主控制時,還會出現一個進一步的問題:系統受到來自內部的侵蝕。搜索算法和推薦系統可能受到影響。公司企業可以競價購買特定的詞組,以得到更偏愛的結果。政府也可能有能力影響結果。在選舉期間,政府可以微推尚未決定的選民,讓他們支持自己 —— 這是一種難以檢測的操縱。因此,不管是誰控制了這項技術,都能贏得選舉 —— 將他們自己推向權力。

在很多單個搜索引擎或單個社交媒體平台佔據主導市場份額的國家,這一問題還會更加嚴重。公眾可能受到決定性的影響,這些國家也可以被遠程干預。儘管歐洲法院於 2015 年 10 月 6 日做出的判決限制了歐洲數據的無限制出口,但這個潛在問題在歐洲範圍仍未內得到解決,在其它地方就更別說了。

我們可以預計會出現怎樣的不良副作用?為了操縱不被察覺,他們會採用一種所謂的「共振效應(resonance effect)」—— 為每個個體充分定制的建議。通過這種方式,局部趨勢會在重複之中逐漸得到強化,最終導致「過濾氣泡(filter bubble)」或「回聲室效應(echo chamber effect)」:最終你接收到的所有信息都只是反射回來的你自身的觀點。這會導致社會極化,分割為不同的群體,而且這些群體之間無法再互相理解,彼此之間的衝突也與日俱增。個性化信息可能以這種方式無意中破壞社會凝聚力。目前美國政治中就能觀察到這一現象:民主黨和共和黨的分割越來越嚴重,使得政治妥協變得幾乎不再可能。結果就是社會的碎片化,甚至可能引發社會崩潰。

由於共振效應,社會中意見的大規模變化僅能以緩慢和漸進的方式實現。這種效應的發生存在時間延遲,但同樣,已經發生的也無法輕易消除。比如,對少數族裔或移民的怨恨可能會失控;過多的民族主義情緒可能導致歧視、極端主義和衝突。

也許更重要的是,操縱方法事實上會改變我們做決定的方式。它們能至少暫時性地掩蓋其它相關的文化和社會習慣。總的來說,大規模地使用操縱方法可能導致嚴重的社會危害,包括在數字世界中採取殘忍的行為。誰應該對此負責呢?

法律問題#

鑑於過去幾年中針對煙草公司、銀行、IT 和汽車公司的巨額罰款,這會帶來不應被忽視的法律問題。但如果有的話,哪些法律可能會被違反?首先,操縱技術很顯然會限制選擇的自由。如果對我們的行為的遠程控制效果良好,那麼我們基本上就會成為數字奴隸,因為我們只會執行實際上由其他人事先做出的決定。當然,操縱技術僅有部分效果。儘管如此,我們的自由還是會慢慢消失,但當然 —— 目前而言,這個速度慢到人們不會有多少抵抗。

偉大的啟蒙者伊曼努爾・康德曾給出了與此非常相關的見解。他指出了很多事情,其中之一是試圖決定其國民的幸福的國家是暴政國家。然而,個人自我發展的權利只能被有權控制他們的生活的人行使,而這是以信息自決(informational self-determination)為前提的。這正是我們最重要的憲法權利。除非這些權利得到尊重,否則民主就不能很好地發揮效力。如果這些權利受到了限制,就會危害到我們的憲法、我們的社會和國家。

因為大微推等操縱技術的工作方式與個性化廣告類似,所以其它法律也會受到影響。廣告必須有一說一,不能有誤導性。它們也不允許利用某些心理操縱技術,比如潛意識刺激。這就是禁止在電影中插入一瞬間軟飲料廣告的原因,因為這樣的話廣告就不是有意識地感知到的,而可能仍會有潛意識的影響。此外,當前普遍存在的個人數據的收集和處理肯定不符合歐洲國家以及其它一些地方的應用數據保護法。

最後,個性化定價的合法性也值得懷疑,因為這可能是對內部信息的錯誤使用。其它相關的方面還可能有違反平等和非歧視的原則以及競爭法,因為自由的市場准入和價格透明無法再得到保證。這種情況可類比在其它國家以更低的價格出售產品的企業,但卻試圖阻止通過這些國家進行購買。這種情況過去曾導致了很高的懲罰性罰款。

個性化廣告和定價不同於老式的廣告或折扣券,因為後者不是針對性的,也不會侵犯我們的隱私,不會利用我們的心理弱點以及剝奪我們的批判性思考。

此外,我們還不要忘記,在學術界,即使最無害的決策實驗都被認為是以人類為受試者,這必須得到公眾所能依靠的道德倫理委員會的批准。在每個案例中,受試人員都被要求表明知情並同意。相反,單次點擊來確認我們同意上百頁的「使用條款」協議的內容(現在很多信息平台都使用了這種模式)是非常不合適的。

儘管在學術界是這樣,但微推等操縱技術卻能對數百萬人執行實驗,而且不會告知他們,沒有透明也沒有道德倫理限制。甚至 Facebook 等大型社交網絡或 OkCupid 等在線約會平台都已經公開承認進行著這樣的社會實驗。如果我們想要避免對人類和社會的不負責任的研究(只要想想看之前有心理學家參與了實施酷刑),那麼我們就亟需強制施行高標準,特別是科學質量標準和類似於希波克拉底誓言的行為準則。

我們的思想、我們的自由、我們的民主都已經淪陷了嗎?#

我們假設存在這樣一個超智能機器,它具有神一般的知識和超人類的能力:我們會遵照它的指令嗎?這似乎是可能的。但如果我們這樣做,那麼伊隆・馬斯克、比爾・蓋茨,史蒂夫・沃茲尼亞克、斯蒂芬・霍金等人發出的警告就會變成現實:計算機將接管這個世界。我們必須清楚地認識到超智能也可能犯錯、撒謊、追求自私利益或被操縱。最重要的是,它可能比不上整個群體的分散的集體智慧。

用計算機集群來替代所有公民的思考的想法是很荒唐的,因為這會極大降低可實現的方案的多樣性和質量。我們已經可以很明顯地看到,儘管近來數據顯著增多而且還使用了個性化的信息,但這個世界的問題卻沒有減少 —— 相反!世界和平很脆弱。氣候的長期變化可能導致自恐龍滅絕以來最嚴重的物種損失。我們還遠沒有克服金融危機及其對經濟的影響。據估計,網絡犯罪每年會造成 3 萬億美元損失。國家和恐怖分子也都在為網絡戰爭做準備。

image

圖 1:數字世界的發展。來自:Dirk Helbing。在大數據的幫助下,現在我們可以做出更好的、基於證據的決策。但是,自上而下的控制會越來越失敗,因為隨著我們的世界的網絡化,社會的複雜度會爆發式地增長。分佈式控制方法將變得越來越重要。只有通過利用集體智慧,我們才有可能找到解決我們這個世界的複雜性難題的合適解決方案。

在一個飛速變化的世界中,超智能可能永遠無法給出完美的決策(見圖 1):系統複雜度的增長速度快於數據量的增長,而數據量的增長速度又快於數據處理能力的發展,而數據傳輸速度又有限。這會導致系統忽視局部的知識和事實,而這對於實現優秀的解決方案而言又很重要。分佈式的局部控制方法往往優於中心化的方法,尤其是在行為高度可變、難以預測而且無法實時優化的複雜系統中。這在城市的交通控制中已經成為了現實,對於我們高度網絡化、全球化的世界的社會和經濟系統而言,問題還會更甚。

此外,還存在一種危險:通過強大的算法來實現決策操縱有可能破壞「集體智慧」的根基,而集體智慧往往能靈活地適應我們這個複雜世界的挑戰。要讓集體智慧發揮效力,個體的信息搜索和決策必須獨立進行。但是,如果我們的判斷和決策是由算法預先確定的,那麼這實際上會造成對人的洗腦。智慧的存在會降格為單純的指令接收者,只是自動響應刺激而已。

換句話說:個性化信息在我們周圍構建了「過濾氣泡」,這是一種囚禁我們思想的數字監獄。在這樣的情況下,創造力和「跳出盒子」思考何以可能實現?最終,技術官僚式行為的中心化系統以及使用超智能信息系統的社會控制會導向一種新形式的獨裁統治。因此,在「家長制自由主義(liberal paternalism)」旗幟下的自上而下控制的社會原則上不過是一種帶著好看面具的極權主義政權。

事實上,大微推的目標是將很多人的行為約束到規範內並操縱他們的觀點和決定。這會將其置於政治宣傳的舞台中央,目標是通過行為控制剝奪公民的能力。我們認為其長期後果是致命的,尤其是考慮到上面提到的危害文化的影響時。

更好的數字社會是可能的#

儘管全球競爭激烈,但民主國家的明智做法是不要把多個世紀以來的成就拋弃。與其它政治制度相比,西方民主國家的優勢在於他們已經學會了應對多元化和多樣性。現在它們只需要學習如何更多地利用它們。

未來,這些國家將在企業、政府和公民之間找到一個健康的平衡。這需要網絡化的思維方式以及建立信息、創新、產品和服務的「生態系統」。為了實現良好的效果,不僅創造參與的機會很重要,而且還要支持多樣性。因為我們沒有辦法確定最好的目標函數:我們應該優化人均國民生產總值還是可持續性?權力還是和平?幸福還是預期壽命?通常情況下,只有在事實發生後,我們才能知道哪個更好。通過允許追尋各種不同的目標,一個多元化的社會能夠更好地應對可能出現的各種意料之外的難題。

中心化的、自上而下的控制是過去的方案,這只適合複雜度低的系統。聯邦制度和多數決議是現在的方案。隨著經濟和文化的發展,社會複雜度也會繼續提升。未來的方案是集體智慧。這意味著公民科學、眾包和在線討論平台是提供更多知識、思想和資源的非常重要的新方法。

集體智慧需要高度多樣化。但是,如今的個性化信息系統正在削弱多樣化,並且這一趨勢正在加強。

社會多樣性與生物多樣性一樣重要。這不僅有助於集體智慧和創新,還能為社會提供彈性 —— 即我們的社會應對意外衝擊的能力。降低社會多樣性往往還會降低經濟和社會的機能和表現。這就是極權主義政權經常與鄰國發生衝突的原因。社會多樣性降低的典型長期後果是政治不穩定和戰爭,這種情況在歷史長河中屢見不鮮。因此,多元化和參與權不應被視為對公民的讓步,而應被看作是繁榮、複雜、現代的社會的功能性先決條件

image

圖 2:數字交叉路口。來自:Dirk Helbing。我們的社會正處於一個交叉路口:如果更多強大的算法被少數決策制定者控制並降低我們的自決能力,我們會堕回一種封建制度(Feudalism 2.0),因為此時我們將失去重要的歷史成就。但是,現在我們還有機會選擇實現數字民主或 Democracy 2.0 的道路,這能讓我們所有人都受益(參見https://vimeo.com/147442522)。

總體而言,可以說我們現在正站在一個交叉路口(見圖 2)。大數據、人工智能、控制論和行為經濟學正在塑造我們的社會 —— 無論是讓這個社會更好或更壞。如果這些廣泛使用的技術與我們社會的核心價值觀不兼容,那麼它們遲早會造成廣泛的破壞。它們可能造就具有極權特徵的自動化社會。在最糟糕的情況中,中心化的人工智能會控制我們所知所想,還會控制我們的行為方式。我們正處在這樣一個歷史性時刻,是時候必須決定正確的道路了 —— 這條道路將能讓我們受益於這場數字革命。因此,我們敦促遵守以下基本原則:

  1. 進一步分散信息系統的功能;
  2. 支持信息自決和參與;
  3. 提升透明度以獲得更好的信任;
  4. 減少信息的扭曲和污染;
  5. 啟用用戶可以控制的信息過濾技術;
  6. 支持社會和經濟多樣性;
  7. 提升互操作性和改善合作協同的機會;
  8. 創建數字助理和協調工具;
  9. 支持集體智慧;
  10. 通過數字認知教育和啟蒙來促使公民在數字世界中進行負責任的行為。

遵循這一數字政策,我們都將能從這場數字革命的成果中受益,不管是經濟、政府、公民,還是其它。我們還在等什麼?

一個應對數字時代策略#

大數據和人工智能無疑是重要的創新。從個性化醫療到可持續城市,它們具有催化經濟價值和社會進步的巨大潛力。然而,使用這些技術來剝奪公民的能力是完全不可接受的。大微推和公民信用分會中心化地濫用所收集到的個人數據,以一種本質上極權主義的方式進行行為控制。這不僅與人權和民主原則不相容,而且也不適用於管理現代的創新型社會。為了解決這個世界的真正問題,需要信息和風險管理領域提出遠遠更好的方法。負責任創新的研究領域以及「Data for Humanity」倡議能為大數據和人工智能應該如何被用於造福社會提供指導。

現在我們能做什麼?首先,即使在數字革命的這個時代,公民的基本權利也應得到保護,因為這些基本權利是現代的實際可行的民主社會的基本前提。這需要在信任與合作的基礎上創造一種新的社會契約,它不會將公民和客戶視為障礙或可以利用的資源,而是將他們視為夥伴。為此,國家必須提供合適的監管框架,確保以符合民主的方式設計和使用這些技術。這必須要保證信息自決,而且不僅是理論上的保證,而且還要實際得到確保,因為這對我們而言是一種以自決和負責任的方式生活的先決條件。

我們應該有權獲得收集自我們的個人數據的副本。法律應當規定,這個信息必須以一種標準化格式自動發送到個人數據存儲位置,個人可以藉此管理對他們的數據的使用情況(可能得到某些特殊的基於 AI 的數字助理的支持)。為了確保更好的隱私以及防止歧視,法律必須懲罰對數據的無授權使用。然後,個人要有能力決定誰可以使用他們的信息、用於什麼目的以及使用多長時間。此外,還必須採取適當的措施來確保數據的存儲和交換安全。

考慮多個指標的複雜精細的信譽系統可能有助於提升我們決策所基於的信息的質量。如果數據過濾器以及推薦和搜索算法可由用戶選擇和配置,那麼我們就可以從不同的角度檢查問題,我們就更不容易受到失實信息的操縱影響。

此外,我們需要為公民提供有效的投訴程序以及對違反規則的有效制裁。最後,為了實現足夠的透明和信任,領先的科學機構應當充當目前逃避民主控制的數據和算法的受託人。這也要求有適當的行為準則,這些行為準則至少必須被有權訪問敏感數據和算法的人遵守 —— 這是一種針對信息技術從業者的希波克拉底誓言。

此外,我們還需要一個數字議程,以為新的工作和數字社會的未來打基礎。每年我們都向農業和公共基礎設施、學校和大學投入數十億美元 —— 以造福工業和服務業。

因此,我們需要哪些公共系統來確保數字社會取得成功?第一,需要全新的教育理念。應當更重視批判性思維、創造力、創新力和創業精神,而不是製造標準化的工人(這些工人未來的任務將由機器人和計算機算法完成)。教育還應讓人理解如何負責任地以及批判性地使用數字技術,因為公民必須清楚地了解數字世界與物理世界互相影響的方式。為了讓公民能有效且負責任地行使自己的權利,他們必須理解這些技術,知道怎樣使用是合適的。因此,科學、工業、政治和教育機構都更需要廣泛地提供這些知識。

第二,需要有可參與的平台,這能讓人更容易成為自僱者、設立他們自己的項目、尋找合作夥伴、向全世界推廣產品和服務、管理資源以及納稅和為社會保障做貢獻(一種向所有人共享的經濟)。為了讓這方面做得更好,城鎮甚至鄉村都可設立新興數字社區中心,新想法可以在這裡免費得到共同發展和測試。在這些中心發現的開放和創新方法的推動下,可以促進大規模的協作式創新。

特定類型的競賽可以為創新提供額外的動力、有助於提高公眾的認知度以及為參與式的數字社會創造發展動力。它們在動員民間社會方面尤其有用,可以確保當地為解決全球性問題做貢獻(比如通過「氣候奧運會」的形式)。舉個例子,以協調稀缺資源為目標的平台可以幫助釋放循環和共享經濟的巨大潛力,而這方面目前仍發展有限。

有了開放數據策略的承諾,政府和行業將越來越多地將數據提供給科學和公共用途,從而為有效的信息和創新生態系統創造條件,以緊跟我們這個世界的挑戰。這可以通過減稅來激勵,類似於某些國家通過減稅來激勵人們使用對環境友好的技術。

第三,建立由公民運行的「數字神經系統」可為每個人開啟新的物聯網(Internet of Things)機會,並為所有人提供可用的實時數據觀測。如果我們希望以更可持續的方式使用資源以及減慢氣候變化的速度,那麼我們就需要測量我們與其他人以及環境交互時的正面和負面副作用。通過使用適當的反饋回路,系統可以通過自組織的方式被施加影響,進而實現所需的結果。

為了成功實現這一點,我們需要各種激勵和交換系統,並將其提供給所有經濟、政治和社會創新者。這可以創造出全新的市場,並由此為新的繁榮奠定基礎。通過多元化的金融體系(例如功能差異化的貨幣)以及用於補償創新發明的新規則,將推動數字經濟那近乎無限的潛力得到釋放。

為了更好地應對我們未來世界的複雜性和多樣性並將其轉變為一個優勢,我們將需要個人數字助理。這些數字助理也將受益於人工智能的發展。可以預見,未來將會根據需要靈活地構建和配置許多結合人類智慧與人工智能的網絡。但是,為了讓我們保有對自己生活的控制權,應該以一種分佈式的方式控制這些網絡。尤其是要讓人們能根據需要登入或退出。

民主平台#

「文化維基百科(Wikipedia of Cultures)」最終可以幫助協調高度多樣化世界中的各種活動,並使它們相互兼容。它將使世界文化中隱含的成功原則變得顯而易見,這樣它們就能以新的方式結合起來。像這樣的「文化基因組項目(Cultural Genome Project)」也會是某種類型的和平項目,因為它也會提升公眾對社會文化多樣性價值的認識。全球的公司早就知道,文化多樣化和多學科的團隊會比同質化團隊更成功。但是,有效地整理很多人的知識和想法需要一種框架才能創造出集體智慧,而這個框架在許多地方仍還缺乏。為了改變這一點,提供在線的商議平台將會非常有用。它們還能創造出實現升級的數字民主所需的框架,同時為公民提供更多參與機會。這是很重要的,因為當今世界面臨的很多問題都只能通過民間社會的貢獻來管理。

聚焦中國:未來的社會看起來就像這樣嗎?#

行為和社會控制將如何影響我們的生活?目前正在中國施行的社會信用分能讓我們一窺一二。在中國,所有公民都在一個一維評分指標下被評級。他們所做的每件事都會影響到自己分數的增減。這種做法的目標不僅是大規模監控。這個分數還依賴於個人在互聯網上的點擊情況以及他們是否政治正確的行為,這個分數能決定他們的信用條件、特定工作的權利以及旅行簽證。因此,這個社會信用分關乎行為和社會控制。即使朋友和熟人的行為也會影響這一分數,即也應用了家族連帶責任的原則:每個人同時變成了美德的衛士和窺密的線人;思考非正統思想的人會被孤立。如果這種類似的原則在民主國家得到普遍應用,那麼不管是國家政府還是有影響力的公司設定了這些規則,最終都無關緊要了 —— 在這兩種情況下,民主的支柱都將面臨直接的威脅:

  • 跟踪和衡量所有會留下數字痕跡的行為都會導致公民變得「赤身裸體」,他們的人格尊嚴和隱私會逐漸受到侵蝕。
  • 決策將不再是自由的,因為來自政府或公司角度的定義該評分系統標準的錯誤選擇會產生負面的後果。原則上講,個體的自主權將被剝除。
  • 每個小錯誤都會受到懲罰,沒有人不被懷疑。無罪推定原則將被淘汰。預測性警務(Predictive Policing)甚至將導致對還未發生(僅僅是預計會發生)的違規行為施加懲罰。
  • 由於底層算法不能完全保證不出差錯地運作,所以公平和正義的原則會被一種新形式的任意評估所替代,人們也幾乎無法針對它為自己辯護。
  • 如果個人的目標是外部設定的,那麼個人自我發展的可能性會被消除,由此民主多元化也會被消除。
  • 地方的文化和社會規範將不再是適當的、依賴具體情況的行為的基礎。
  • 使用一維的目標函數控制社會會導致更多衝突,並由此損害社會安全。可以預見這會導致嚴重的不穩定,正如我們在我們的金融體系中看到的那樣。

這樣的社會控制會將自我負責的公民轉變為作為奴才(underling)的個人,導向封建主義 2.0(Feudalism 2.0)。這與民主價值觀截然相反。因此,現在是啟蒙 2.0(Enlightenment 2.0) 的時候了,它將以數字自決為基礎,催生出民主 2.0(Democracy 2.0)。這需要民主的技術:與民主原則兼容的信息系統。否則,它們將摧毀我們的社會。

擴展閱讀#

ACLU: Orwellian Citizen Score, China's credit score system, is a warning for Americans, http://www.computerworld.com/article/2990203/security/aclu-orwellian-citizen-score-chinas-credit-score-system-is-a-warning-for-americans.html

Big data, meet Big Brother: China invents the digital totalitarian state. The worrying implications of its social-credit project. The Economist (December 17, 2016).

Harris, S. The Social Laboratory, Foreign Policy (29 July 2014), http://foreignpolicy.com/2014/07/29/the-social-laboratory/

Tong, V.J.C. Predicting how people think and behave, International Innovation, http://www.internationalinnovation.com/predicting-how-people-think-and-behave/

Volodymyr, M., Kavukcuoglu, K., Silver, D., et al.: Human-level control through deep reinforcement learning. In: Nature, 518, S. 529-533, 2015.

Frey, B. S. und Gallus, J.: Beneficial and Exploitative Nudges. In: Economic Analysis of Law in European Legal Scholarship. Springer, 2015.

Gigerenzer, G.: On the Supposed Evidence for Libertarian Paternalism. In: Review of Philosophy and Psychology 6(3), S. 361-383, 2015.

Grassegger, H. and Krogerus, M. Ich habe nur gezeigt, dass es die Bombe gibt [I have only shown the bomb exists]. Das Magazin (3. Dezember 2016) https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/

Hafen, E., Kossmann, D. und Brand, A.: Health data cooperatives—citizen empowerment. In: Methods of Information in Medicine 53(2), S. 82–86, 2014.

Helbing, D.: The Automation of Society Is Next: How to Survive the Digital Revolution. CreateSpace, 2015.

Helbing, D.: Thinking Ahead—Essays on Big Data, Digital Revolution, and Participatory Market Society. Springer, 2015.

Helbing, D. und Pournaras, E.: Build Digital Democracy. In: Nature 527, S. 33-34, 2015.

van den Hoven, J., Vermaas, P.E. und van den Poel, I.: Handbook of Ethics, Values and Technological Design. Springer, 2015.

Zicari, R. und Zwitter, A.: Data for Humanity: An Open Letter. Frankfurt Big Data Lab, 13.07.2015. Zwitter, A.: Big Data Ethics. In: Big Data & Society 1(2), 2014.

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。