關注吳大爺二三事,一起共同成長
知識分享 丨生活感悟
學習思考,尋找自我。
大家好,我是滿肚子雞湯的吳大爺,一個天天在鍵盤上敲打心靈,喜歡給人講知識講故事的男人。
科技一旦武器化,想象力就像按下了加速鍵。
馬斯克曾說,第三次世界大戰(zhàn)的引爆點,可能不是核彈,而是人工智能。
這不是危言聳聽。
美國的對手早已用上“谷歌地球”來定位迫擊炮目標,而不再是士兵用肉眼測風速看地圖。技術開發(fā)者或許在創(chuàng)造“未來”,但現(xiàn)實卻在悄悄復刻“戰(zhàn)爭”。
你以為AlphaGo是在下圍棋,背后卻是一個個“Alpha武器系統(tǒng)”在靜靜醞釀。
谷歌曾參與一個被稱為“馬文計劃”的項目,致力于用AI分析無人機視頻資料。
沒錯,用在“識別與消滅敵人”上。
這個項目沒上新聞,沒進官宣,連內部員工都要靠“小道消息”自學成才。
后來谷歌終止了這個項目,簽署公開信反對AI武器化。
包括馬斯克、杰夫·辛頓、哈薩比斯在內的百名專家簽名抗議。
但別高興得太早,谷歌嘴上放棄,身體卻還在路上。
技術一旦開始走偏,想靠道德拉回來,就像讓脫韁的野馬回頭找主人。
這也解釋了一個老問題:“不作惡”只是個口號,真做事的時候,還是“看誰出價高”。
Facebook的“蠢與惡”:從標簽到假新聞
扎克伯格,每天穿灰T配牛仔褲,說是為了省腦力。
這聽起來像極了“職場效率學”里的鬼話。
但換個角度看,這或許真是他唯一聰明的選擇。
因為在其他事情上,他的判斷實在不怎么靠譜。
比如,F(xiàn)acebook上充斥的假新聞、情緒操控、社會撕裂……
你以為他看不到?其實AI早就介入了。
2018年Facebook就在用深度學習算法給用戶打標簽,從性別、政治傾向到購物欲望,用戶的信息像冷凍雞腿一樣,被分門別類、精細標注。
只是這套技術同時也能放大情緒、極端化言論、操控輿論。那些本該是信息平權的工具,變成了操控民主的武器。
深度學習研究員古德費洛早就警告過,AI不是解決假新聞的藥方,而是它的催化劑。
但扎克伯格視而不見,繼續(xù)優(yōu)化“增長指標”,一心想超越Twitter、干翻TikTok。
他甚至想用神經網絡打造“機器人聊天助手”來安撫用戶,但公眾憤怒太大,最后連谷歌都不得不讓語音助手聲明:“我是一個機器人”,免得再被噴是詐騙犯的親戚。
從AI治病到造假:神經網絡的“分裂人生”
說到古德費洛,他還做了一件大事,發(fā)明GAN(生成對抗網絡),也就是“AI教AI”的技術。
怎么教?
簡單粗暴,一個神經網絡專門“造假”,另一個專門“識破”,兩者互斗,直到前者能騙過后者,最終產出看起來像真的“假貨”。
用GAN,你能讓一張不存在的人臉看起來比你本人還真實。
你甚至可以讓馬斯克在視頻里說出“我要收購地球”,然后用這條“深度偽造”視頻影響股價。
曾經的技術夢想,是“讓機器像人一樣思考”;
現(xiàn)在的現(xiàn)實是,“讓機器騙得比人更像人”。
所以我們看到了BERT、GPT、Claude、deepseek、Sora,一個個語言模型如雨后春筍。
BERT最早是谷歌推出的通用語言模型,開源,可玩性極強。
你以為2023年它已經過時了?
但它其實正是ChatGPT的“遠房親戚”。
但問題來了:神經網絡的學習方式和人腦,真的不一樣。
人靠類比和聯(lián)想,舉一反三;機器靠大量數(shù)據(jù)填鴨。
你教孩子“杯子”,他看三四次就會自己說“這是個碗”;
你教BERT,要喂上千萬條語料,還要設定置信度、懲罰函數(shù)、注意力機制……
這就像培養(yǎng)孩子和訓練一只狗的差別。
微軟錯過的AI列車:陸奇和“智能駕駛夢”
說到AI產業(yè)化,谷歌和OpenAI風生水起,F(xiàn)acebook找不到方向,而微軟一開始是走偏了。
微軟花了二十年投資AI,但幾乎毫無水花。
為什么?
因為它當時信的是“符號主義”,不是“神經網絡”。
陸奇看出了問題:微軟還在用舊思維解決新問題,像是在用IE瀏覽器造火箭。
他力推“造車”,試圖讓微軟至少在“智能駕駛”上跟上潮流。
即使沒成功,后來去了百度后,他也選擇All in AI,從搜索到無人車,一路狂飆。
有趣的是,為了招募頂尖AI科學家,他甚至愿意出高價收購一家公司,只為了對方的大佬來微軟提供咨詢。
大佬是誰?
AI三巨頭之一的本吉奧。
當技術成為信仰,人才成為信徒。
而企業(yè)想改變命運,得先改變信仰。
當AI“變壞”:責任在誰?
你可能會問:技術本身無罪,問題在于使用它的人吧?
技術中性這句話很好聽。
但別忘了,技術本身的結構,往往就決定了它更傾向被如何使用。
比如,
神經網絡天生就是黑箱,連開發(fā)者也無法完全解釋它為什么這樣輸出;
GAN天生是造假的游戲;
BERT這種語言模型,本身就有數(shù)據(jù)偏見的問題。
換句話說,人類一邊聲稱在控制AI,另一邊卻根本不知道它會變成什么。
這也是為什么AI越聰明,人越焦慮。
不是AI太強,是我們太不了解自己。
結語:嘴硬影響成長,技術需要反思
《人工智能簡史》里有句話很打動我:“嘴硬影響成長。”
這句話不僅適用于少年,也適用于科技公司。
谷歌嘴硬說“不作惡”,卻默默做項目;
Facebook嘴硬說“技術中立”,卻助推情緒撕裂;
微軟嘴硬說“前沿技術”,卻看錯了方向二十年。
時代給了技術翅膀,也給了人類審判的機會。
我們不能只看AI能干什么,更要想:我們希望它變成什么樣的“人”?
否則,一旦飛出去的箭射向我們自己,再先進的系統(tǒng)也救不回失控的文明。
歡迎點贊、轉發(fā)、評論。
我是吳大爺,夜風同學
愿一路陪你共同成長!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.