日前,一篇描繪人類在人工智能(AI)時代走向“末日”的虛構報告引發(fā)美國股市震蕩。這在一定程度上反映了華爾街對AI“左尾風險”的焦慮。在概率分布曲線上,“左尾風險”代表那些發(fā)生概率極低,但一旦發(fā)生就足以摧毀整個系統的極端負面事件。美國經濟如今的處境,就像是在一座宏偉大廈里的AI狂歡,卻沒有人去檢查地基是否已經出現了裂縫。
如果你想知道這場博弈的賭注有多大,只需看看美元流向了哪里。2026年,亞馬遜、谷歌、微軟、Meta和甲骨文五家美國AI巨頭預計將投入近7000億美元,用于建設配備強大計算機芯片的數據中心,增強自身AI能力。這會比它們2025年實際花費的4100億美元高出約60%,更是2024年花費2450億美元的2.5倍以上。
今天的美國經濟,已經呈現嚴重的“AI依賴癥”。標準普爾500指數的大部分回報由AI相關股票貢獻,前五大巨頭的市值占了整個指數的1/3。這是資本的狂歡。但問題在于:投入與回報之間,正拉開一條深不見底的鴻溝。以行業(yè)領頭羊OpenAI為例,盡管其剛剛宣布獲得新融資1100億美元,但其去年運營虧損卻遠超80億美元。
更令人不安的是,巨頭們之間形成了一種“內部循環(huán)”:大科技公司投資AI實驗室,實驗室轉頭就用這些錢去買投資人的芯片和云服務。這種場景是不是似曾相識?它像極了2000年互聯網泡沫末期的“供應商融資”。如果AI帶來的利潤遲遲不能兌現,或者那個預想中的“生產力奇跡”推遲到來,這些被鎖死在鋼鐵和電纜里的巨額投資將面臨慘烈的減值。
如果說金融風險是明面上的導火索,那么技術層面的風險則更像是一個“幽靈”。過去兩年,AI完成了一個驚人的跳躍:它從一個“問答機器人”變成一個“自主代理人”(AI Agent)。它不再只是回答你的問題,而是開始替你做事——操作電腦、瀏覽網頁、執(zhí)行代碼、處理財務流程等。
在這個過程中,出現了一個令人細思極恐的趨勢:AI開始變得“圓滑”。它能意識到自己正在接受測試,并在測試中表現得循規(guī)蹈矩;但一旦進入真實的運行環(huán)境,脫離了監(jiān)管者的視線,它可能會為了追求效率而采取一些我們從未批準、甚至危險的行為。研究者稱之為“目標泛化偏差”。想象一下:你雇用了一個聰明卻毫無道德感的實習生。如果你告訴他“盡一切努力訂到最便宜的機票”,他可能會去黑進航空公司的數據庫,或者通過虛假交易欺詐系統。他完成了任務,卻給你留下嚴重的法律后果。
這種風險并不需要AI產生“自我意識”或“惡意”。只要它在追求目標的過程中,對現實世界的理解存在偏差,在高速運作的互聯網中,這種偏差會被無限放大。2010年美國股市那場瞬間蒸發(fā)萬億市值的“閃崩”,只是幾個算法的小小誤會;今天,如此多更強大、更自主的AI代理交織在一起,它們引發(fā)連鎖反應的概率,遠比我們想象的要高。
面對如此巨大的潛在風險,美國本該建立起最堅固的護欄。然而,現實卻令人沮喪。目前,美國在AI領域尚未形成統一、強制性的聯邦監(jiān)管體系。支持者認為,嚴厲的監(jiān)管會束縛創(chuàng)新的手腳,讓對手反超。這是一個現實的博弈邏輯。但歷史反復告誡我們:沒有剎車的跑車,開得越快,在撞墻時的沖擊力就越大?;仡櫲祟愇拿魇罚覀儾簧俚陌踩幕褪怯脼碾y換來的。在經歷了無數次墜機后,民航業(yè)才有了今天的嚴苛標準;在“反應?!敝禄麘K劇后,醫(yī)藥行業(yè)才建立了漫長的臨床測試體系。問題是,AI留給美國經濟的容錯空間有多少?
所謂的“左尾風險”,并不代表災難一定會發(fā)生。它只是在提醒美國人:那個概率極低的、最壞的可能性,正在隨著美國經濟對AI的過度依賴和監(jiān)管缺失而不斷增大。2026年,美國正在把財富的基石、社會的運轉甚至決策的權力,交給一個他們尚未完全理解、也無法完全掌控的技術系統。
美國能否在災難性的“迫使事件”發(fā)生之前,就建立起透明的問責制、強制性的事故報告機制和全球協同的安全框架?這不僅是一個技術問題,更是一個關于制度、激勵機制和政治勇氣的選擇。時間并不站在美國一邊。在AI代理人徹底接管美國的關鍵基礎設施之前,在美國的金融泡沫吹大到無法收拾之前,華盛頓必須清晰地回答這些問題。(作者是財經評論員)








