隨著人工智能(AI)技術的迅猛發展,其在為人類帶來巨大便利的同時,也潛藏著不容忽視的風險。為了對AI進行有效管控,美國加州推出了《前沿人工智能模型安全創新法案》。這一法案旨在為AI模型設立安全標準,明確責任劃分,以預防AI濫用可能帶來的災難性后果。然而,這一法案卻在學術界和產業界引發了巨大的爭議。
學者擔憂:創新受阻,開源受損
包括知名AI專家李飛飛和吳恩達在內的一些學者和產業界人士對這一法案表示了強烈的反對。他們認為,這一法案的實施可能會嚴重阻礙AI技術的創新,并對開源社區和學術研究的發展造成損害。
李飛飛在社交媒體上表示,盡管這個法案的動機是好的,但其實施可能會對人工智能學術界和開源社區造成嚴重的傷害。她強調,在制定AI政策時,應當優先考慮鼓勵創新,并減少可能帶來的負面影響。
吳恩達則擔心,這一法案可能會使AI大模型的構建者和開源社區的開發者承擔不應有的責任,導致他們在開發過程中更加謹小慎微,從而扼殺了創造性。
支持聲音:有效監管,避免錯誤
然而,也有人對這一法案表示支持。一些計算機科學家和法律學者,如圖靈獎得主杰弗里·辛頓,就認為這個法案是必要的。他們認為,如果這個法案被廢除,將會導致一個歷史性的錯誤。而且,這個法案僅僅是對AI技術進行有效監管的一個最低要求。
法案細節:安全測試與緊急關閉
這一法案有一個特別的要求,即當AI模型的算力達到一定水平,且訓練成本超過1億美元時,開發人員必須進行安全測試,以降低AI技術可能造成的災難性后果。此外,當發現AI有危險行為發生時,法案還要求開發人員能夠隨時關閉運行程序。
產業界反響:利益受損,創新受阻
除了學術界,這一法案對產業界的影響也甚大。因為涉及到投資者的利益,產業界反對這一法案的聲音也很大。他們擔心,這一法案不僅會阻礙創新,還可能導致投資錯位和資源分散。科技巨頭們更是認為,這一法案的定義不清晰,可能會阻礙開發商向公眾提供AI大模型,從而破壞依賴開放進行創新的生態系統。
贊成和反對這一法案的人各有各的道理,但雙方何時能夠達成協議,可能還需要長時間的討論。隨著AI技術的發展,如何在鼓勵創新與進行有效管控之間找到平衡,將是一個長期而復雜的議題。我們期待在未來的討論中,能夠找到一個既能保障AI技術安全發展,又能充分激發創新活力的解決方案。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.