在近日一檔CNBC的特別節(jié)目中,剛剛卸任伯克希爾·哈撒韋首席執(zhí)行官的沃倫·巴菲特將人工智能(AI)的發(fā)展風(fēng)險(xiǎn)與人類歷史上最嚴(yán)峻的全球安全挑戰(zhàn)——核武器相提并論。這位以投資眼光著稱的“股神”直言,AI技術(shù)的不可預(yù)測(cè)性可能成為人類社會(huì)面臨的重大隱患。
巴菲特在節(jié)目中指出,當(dāng)前AI領(lǐng)域的領(lǐng)軍者們對(duì)技術(shù)演進(jìn)方向缺乏清晰認(rèn)知,這種不確定性本身就構(gòu)成潛在威脅。他以哥倫布發(fā)現(xiàn)新大陸為例,強(qiáng)調(diào)人類探索未知時(shí)尚有回頭的余地,但AI一旦失控則無(wú)法撤回。這位投資大師認(rèn)為,即便是最頂尖的AI專家也無(wú)法預(yù)判技術(shù)最終將走向何方。
在討論技術(shù)失控的可能性時(shí),巴菲特引用了愛(ài)因斯坦在二戰(zhàn)期間關(guān)于原子彈的著名論斷。他強(qiáng)調(diào),重大技術(shù)突破往往會(huì)徹底改變世界格局,卻未必能同步改變?nèi)祟惖乃季S模式。這種技術(shù)發(fā)展與人類認(rèn)知之間的錯(cuò)位,正是最值得警惕的矛盾點(diǎn)。
談及核武器問(wèn)題時(shí),巴菲特表示人類在這方面的“進(jìn)展”令人擔(dān)憂——從最初擔(dān)心單一國(guó)家掌握核技術(shù),發(fā)展到如今多個(gè)國(guó)家擁有這種毀滅性武器。他坦言,雖然不認(rèn)為核威脅能用金錢(qián)簡(jiǎn)單化解,但在二戰(zhàn)背景下,即便核武器被視為必要手段,自己仍愿意不惜代價(jià)消除這種威脅。這種思考方式也深刻影響了他對(duì)慈善事業(yè)的認(rèn)知。
這并非巴菲特首次公開(kāi)表達(dá)對(duì)AI的擔(dān)憂。2024年5月的伯克希爾年度股東大會(huì)上,他就曾強(qiáng)調(diào),AI技術(shù)既蘊(yùn)含巨大發(fā)展?jié)摿Γ舶殡S著同等規(guī)模的破壞性風(fēng)險(xiǎn)。這種對(duì)技術(shù)雙刃劍效應(yīng)的清醒認(rèn)知,與其長(zhǎng)期秉持的投資哲學(xué)一脈相承。











