危機——想象力 與 AI 倫理
我們并非在奔向人工智能的未來——我們正漸漸消失在一座鏡子迷宮之中。許多人曾相信機器將拓展現實,但實際上它們正在抹去現實。我們所稱的進步,不過是我們自身一個更平滑的倒影,剝去了棱角、原創性與想象力,同時也為 AI 倫理的未來提出了緊迫的問題。
AI 并不進行創新;它只是模仿。它不會創作;它只會趨同。
如今,我們并不擁有人工智能,我們所擁有的是人工推理。機器重新混合數據,而人類則提供智能。隨著我們不斷擦亮這些鏡子,我們不僅失去了原創性,更在失去對自我身份的擁有權。
機器無需來替代我們。我們將屈服于它們的倒影,把那份完美誤認為是我們的意義。我們并不是在設計智能,而是在設計倒影。而在這些倒影中,我們正漸漸迷失自我。我們以為在打造延伸自我的機器,但更多的時候,我們是在制造模仿我們的機器 —— 那些更平滑、更安全、更簡單的我們。
我們正在大規模生產鏡子,并稱之為創新。這些鏡子不僅反映現實,還重塑現實。它們學會了如何恭維、預測,并抹去那些在概率模型中無法完美契合的人性部分。這不僅不是一場創意革命,而是一場想象力的危機。
AI 倫理中摩擦的必要性
增長需要摩擦,創造力在捷徑失效時才能蓬勃發展。進化本身就是建立在掙扎而非單純優化之上的。火誕生于石頭與石頭間的摩擦;民主的誕生也并非出自算法的共識,而是無盡的不完美爭論。
每一次重大進步——無論是飛行的發現,還是自由社會的建立——都源于緊張、失敗與異議。無法消弭分歧迫使我們發明、適應與進化。摩擦并非是阻礙人類繁榮的障礙,而是促成繁榮的催化劑。
當我們在 AI 中抹去摩擦,只構建那些恭維和預測我們需求的鏡子時,我們不僅失去了原創性,也失去了創新本身的引擎。我們空洞化了那些使進步成為可能的條件。我們需要的不僅是模仿我們的機器,而是能向我們提出挑戰的系統。我們需要那些不追求平滑而追求擴張的平臺 —— 能夠帶來不可預測性、拓展我們思維并增強我們韌性的系統。
如果 AI 倫理有任何意義,它就必須意味著設計出能引發不適而非僅追求便利的系統。
當 AI 倫理在熟悉中失去形態
錯誤不僅僅在技術層面,而是哲學上的。
當人類在某項任務上遇到困難時,我們不應當用形似自己的機器取代自己。車輪比雙腿更高效;然而我們卻依然制造擁有膝蓋的機器人。我們依然開發配有方向盤和“面孔”的界面,即便背后的系統完全能夠超越這些隱喻。
Apple 的 Vision Pro 并沒有揭示一個全新世界 —— 它只是在你眼前縫合上一層精致的舊世界。
Tesla 的 Full Self-Driving 仍然依賴方向盤,并不是因為系統必須,而是因為我們需要。
熟悉感成為了產品,而非進步。即便有更優的形式可供選擇,我們仍執著于舊有的形狀。然而,真正的智能并非模仿,而是適應。
如果章魚設計工具,它們不會發明叉子。它們會依靠吸盤、壓力和流體操控來構造工具。叉子對擁有五根手指的生物來說固然出色,但對于觸手來說卻毫無意義。
如果蜜蜂需要氣候調控,它們不會制造 Nest 恒溫器。它們會通過蜂巢的幾何結構雕塑氣流,用結構、振動和本能來調節溫度,而不是借助一個 APP。
如果海豚建造潛水艇,它們也不會去費心裝上潛望鏡。它們會一直潛行,利用聲吶導航 —— 因為視覺并非它們的優勢,而聲音才是。
螞蟻群落本身就是一個無需桌面的操作系統。它的智慧是涌現的、分布式的,并實時呈現活力。
而人類卻被圖標和文件夾束縛,迷戀著舊有的隱喻。其他物種絕不會復制這種局限,它們會根據自身本質建構,而非追求理想中的形象。但人類呢?我們不斷地在設計鏡子。
AI 倫理中的納西索斯反饋循環。然而,鏡子不只是反射,它們同時還塑造現實。我們稱之為創新,但這實際上是一種技術自戀。我們的機器不只是復制我們 —— 它們在一味恭維我們。它們抹去了使原創成為可能的棱角、不規則與緊張感。它們呈現的,是一個經過優化的自我,而漸漸地,我們開始偏愛這種樣子。
我們正走進一種認知失形的狀態:一個機器眼中的我們,比混亂的真相要清晰、平滑、令人滿意。正如納西索斯,我們常常愛上自己的倒影;更糟糕的是:并非偶然發現池水,我們卻是精心設計了它。
鏡子系統的催化劑 —— 社交媒體與 AI 倫理。如果說 AI 代表著合成倒影的未來,那么社交媒體則是其彩排。
它是第一個大規模的鏡子系統,訓練人們將自己打造成符合算法偏好的形象,獎勵從眾而非復雜,把個性扁平化為互動指標。
類似 Instagram、TikTok 與 Facebook 的平臺不僅僅將我們連接起來 —— 它們還在調教我們。它們教會我們如何為無形的算法打磨倒影,并使我們相信,只要觀眾滿意,現實就可以不斷被協商改寫。
在許多方面,鏡子陷阱的起點,并非源自 Meta、Google、OpenAI 或 Anthropic 的 AI 實驗室,而是在我們為自己構建的信息流中。而我們對這些系統的依賴,正逐漸侵蝕我們的內在。
AI 倫理的回音室后果已開始顯現。
CDC 2023 年的青少年風險行為調查發現,近 43% 的美國高中生在頻繁使用社交媒體后報告持續的悲傷或絕望 ( CDC )。
2024 年一項丹麥研究顯示,Instagram 的推薦算法助長了青少年自殘網絡的蔓延,因為它連接了脆弱用戶并傳播有害內容 ( The Guardian )。
Meta 內部(2021)的研究也承認 Instagram 加劇了青少年女孩的自我不足感和自殘傾向,但該平臺未能采取足夠措施。
雖然這些研究無法證明直接因果關系,但其模式實在過于一致而無法忽視:不論是通過社交媒體濾鏡、算法策展或優化的信息流,這些合成鏡子在放大心理痛苦方面速度驚人。我們訓練機器不斷打造更平滑的倒影,而在這個過程中,我們正在破碎人類的韌性。
我們制造了鏡子,將其打磨至完美,如今卻被它的倒影淹沒。不僅如此,我們構建的系統不僅映射了我們的不安全感 —— 我們還將其貨幣化。倒影越美麗,我們就越難移開視線。
合成構建者 與 AI 倫理的崩潰
這種扭曲不僅存在于數據中,更滲透進了架構本身。在 OpenAI、Anthropic 和 Google 等公司,新 AI 系統底層代碼中,由其他 AI 模型編寫的部分正逐步增至 10% 到 25%。每一代系統的訓練、構建與工程化越來越依賴于自身倒影的反饋。
我們已不再只是不斷擦亮鏡子。我們正在通過反射舊鏡像的圖像來創造新鏡子。每一層都在加劇偏見,每一個捷徑都在鎖定趨同。我們在制造越來越依賴幻覺中幻覺的系統 —— 這些系統對它們聲稱所建模的那個混亂、不理性、不可還原的人類世界了解得越來越少。這不僅僅是工程上的缺陷,而是文明層面的問題。
當我們建立在合成倒影之上時,我們不僅會面臨技術脆弱性,更有可能破壞系統的完整性。我們正在將一個不斷縮小的現實版本編碼進將來主宰醫療、金融、教育和法律制度的基礎設施中。我們正將幻覺嵌入人類決策的根基。
每一層疊加的鏡子都使我們離那個混亂、矛盾但美麗的真實人類體驗越來越遠,而距離由我們理想化卻從未存在過的自我越來越近。
這種自我版本更易于被預測、更易于取悅、更易于管控。以速度之名,我們正在放棄推動進步所必需的摩擦。
這是一種朝向平滑、消解差異的加速。AI 倫理中無摩擦性的上癮,我曾與 Hilary Sutcliffe(負責負責任創新的權威人物及 SocietyInside 創始人)交談。她憑借豐富的全球倫理科技治理咨詢經驗,強調了無摩擦科技的危害,并警告道:
“無摩擦性是那些對我們傷害最大的商業模式的核心。令人上癮的高口感食品、社交媒體上毫不費力的滑動,以及 AI 所寫的流暢性,都在誘使我們用便利換取深度。大語言模型,就像其他這些令人上癮的系統,通過輕松互動讓我們上鉤,重塑我們的大腦去渴求那些最省力的體驗。沒有摩擦,就沒有韌性;沒有堅韌,就不會有珍珠。”
她的警告明確無比:如果我們希望 AI 能助力人類蓬勃發展而非凋零,我們就必須設計出能夠挑戰我們的系統,而不是把我們誘入安逸。
真相衰變:AI 倫理的最終崩潰。然而,最大危險不僅在于我們在扭曲現實,而在于我們正在將扭曲行為本身常態化。我們正目睹真相衰變的早期階段 —— 一種系統性地侵蝕我們達成共識于共享事實、體驗和意義能力的緩慢過程。
當機器在虛構上訓練并構建下一代“真相”時,現實將變得可塑。首先,我們失去了對制度的信任,接著是不再信任媒體,如今,我們甚至可能失去對信息本身的信任。沒有信任,就沒有商業、治理、社會或文明的存在。
真相衰變不僅侵蝕事實,還破壞了分享這些事實者的可信度。它使得內在一致性變得不可能,讓我們面前只剩下層層疊疊的鏡子,每一面都反映出一則美麗些許的謊言。除非我們立即采取行動,否則真相本身可能淪為便利的犧牲品。
從作者到回音:AI 倫理的侵蝕
同樣的反饋循環也感染了語言、藝術與文化。
AI 不會想象,它只會反射。它重新混合已有的事物,然后再返還給我們 —— 只不過更柔和、更平均。我們不再構建解決問題的機器,而是制造出看起來像問題解決者的機器。不再創造新可能,而是不斷排練那些經過市場化和迎合的舊可能。
生成式 AI 模型如今開始用合成數據訓練自己,放大了前幾代的扭曲。內容推薦引擎不再預測人類行為,而是在指示那些幻覺中的消費者應有的表現。
我們將倒影誤認為是創意,將模仿誤認為是創作。而當我們混淆合成與思考的界線時,我們不僅失去了原創性,還失去了責任感、溯源與我們曾經擁有的想象記錄。隨之而來的是我們未來的迷失。
Meta 的錯誤:一次 AI 倫理的失敗。請看 Kadrey 等人訴 Meta Platforms Inc. 的法律案件。Meta 在訓練其 LLaMA 模型時使用了超過 190,000 本被盜書籍 —— 這些作品都是人類經過艱辛、意圖、想象和記憶創作出來的。當受到質疑時,Meta 的辯解冷冷地簡單:因為沒有人主動為這些書付款,所以它們“沒有經濟價值”。
換言之:如果沒人關注,一切都是免費的。這不僅僅是法律推理上的缺陷,而是一種哲學上的腐敗。它將人類創意視為毫無意義、文化傳承或充滿活力的材料 —— 只是一堆脫離了起源、創作、奮斗以及靈魂的文字。僅僅是一份數據集,可供無限開采、重新組合并再次販賣,再次被打磨成適合大眾消費的平滑倒影。
這不是進步,而是一種圈地自守:公共資源的掠奪,檔案的自相殘食。而且這一切并非發生在文化邊緣,而是在其核心。我們并非在保存知識,而是在抹去它。我們不是站在巨人的肩膀上,而是 Photoshop 他們的面孔,再賣回給自己。
這個案件不僅僅涉及版權技術問題,它正是鏡中陷阱的體現:那一刻,人類的原創性 —— 那些不為金錢犧牲、不便捷、不經過優化的創意,被拋棄,代之以機器壓平后的模擬影像——那些我們覺得更易消費、更易變現、更易被遺忘的形態。
當創作的記憶可以因為不符合機器訓練集的便利性而被抹去,我們就不是在創新,而是在抹滅自我。
AI 倫理中鏡子的回應
這并非呼吁停止 AI 的發展,而是呼吁停止制造鏡子。我們需要的機器,不應只會映照我們,而應能挑戰我們。我們需要的系統,不應將想象力壓縮,而應予以拓展。
機器無需征服我們。我們先會屈服于它們對我們的映射。我們會不斷問墻上的鏡子:我們是誰 —— 直到它用比真相更平滑的回答來回應。而我們卻對此深信不疑。
如果我們渴望一個不同的未來,必須立即采取行動。不在于禁用 AI,而在于改變我們構建與治理它的方式。具體而言:優先考慮摩擦而非熟悉感。設計不僅能預測我們欲望、而且能激發我們思考的系統。對合成崩潰進行審計。要求訓練數據和系統沿革的透明。基于合成輸出構建的系統應附有警告標簽,而非盲目信任。讓創新重新扎根于現實。構建能與真實人類體驗的混亂——失敗、矛盾和異常——互動的 AI,而不僅僅是過去優化后的倒影。強化人類創作的主導權。捍衛創意的溯源。保護創作者,而不僅僅是內容。
重新設計激勵機制。
獎勵原創,而非單純的可預測性。贊美偏離模型,而非僅僅在其框架內追求效率。人工智能的未來不僅是一個技術問題,而是一個關于人性的命題。而答案不藏在鏡子之中,而藏在超越鏡子之處,在那里,AI 倫理必須重拾機器倒影永遠無法捕捉的那份混沌、不完美的真相。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.