OpenAI 的 Sam Altman 希望「緩和」圍繞人工智慧的激烈言論。但如果你告訴人們你的產品會顛覆他們的生活方式,搶走他們的工作,甚至可能威脅到人類,他們或許會相信你。

Illustration by Ariel Davis
上週五凌晨,一枚類似燃燒瓶的物體擊中了 OpenAI 創始人兼執行長 Sam Altman 位於舊金山豪宅外的大門。不久之後,嫌疑人丹尼爾·亞歷杭德羅·莫雷諾-加馬 (Daniel Alejandro Moreno-Gama) 在 OpenAI 總部被捕,據稱他曾威脅要燒毀辦公室並殺死裡面的所有人。根據一份聯邦宣誓書,莫雷諾-加馬曾整理了一份其他人工智慧公司高層的姓名和地址名單。他也在網路上發表了一系列反人工智慧的文章。今年一月,他在 Substack 上發表文章稱,「智慧競賽很可能導致人類滅絕」。去年,他在一篇反人工智慧的文章中寫道…在Discord上的一個活躍人士聊天群組裡——據稱他自稱“巴特勒聖戰分子”(Butlerian Jihadist),這個名字源於小說《沙丘》中一場針對智能機器的虛構戰爭——他發帖說:“午夜將至,是時候採取行動了。”
顯然,莫雷諾-伽瑪並非唯一持有這種想法的人。週日清晨,奧特曼的家再次遭到襲擊,有人從街上開了一槍;一名25歲和一名23歲的男子隨後因過失開槍被捕。本月初,有人向印第安納波利斯市議員羅恩·吉布森的家門口開槍,吉布森此前曾投票支持一項重新分區提案,該提案將允許在當地建造一個數據中心,為人工智能提供支持;行凶者留下一張紙條,上面寫著“禁止數據中心”。 (截至發稿時,所有被捕者均未認罪。)這些都是不可饒恕且適得其反的暴力行為。它們也表明,人工智慧…人工智慧產業正在引發極度的敵意和不信任。
週五晚間,奧特曼在他的個人部落格上發表了一篇文章,承認了這一事件,並附上了一張他丈夫和孩子的照片,試圖喚起人們的同情心。他提到了一篇近期發表的“煽動性文章”,很可能是我的同事安德魯·馬蘭茨和羅南·法羅在《紐約客》上發表的調查報道,該報道揭露了奧特曼在OpenAI一貫的欺騙性領導模式。 「我們應該緩和言語和策略,」奧特曼寫道。但他沒有承認的是,許多關於人工智慧力量的誇張言論,有時甚至是輕率的末日論調,都來自產業內部,甚至出自他本人之口。 (只引用他2015年的一句名言:「我認為人工智慧很可能會導致世界末日,但同時,也會湧現出許多利用機器學習技術的偉大公司。」)即使在他最近的部落格文章中,奧特曼也寫道:「人們對人工智慧的恐懼和焦慮是有道理的;我們正在見證社會多年來,甚至可能是這種恐慌症究竟是如何出現在最大的變革。」誰,他認為歷史是什麼?如果你一再告訴人們你的產品將會顛覆他們的生活方式,搶走他們的工作,甚至可能對人類構成生存威脅,他們或許真的會開始相信你。蓋洛普最近一項針對Z世代的調查發現,42%的受訪者對人工智慧感到“焦慮”,31%的受訪者感到“憤怒”。
人工智慧背後的資訊企業一直以來都依賴於一種自利的悖論:正在開發的技術具有如此潛在的危險性,以至於公眾唯一的選擇就是盲目信任少數幾家快速開發這項技術的不透明企業。 (或者,正如《洋蔥報》最近所說,「薩姆·奧特曼:『如果我不毀滅世界,也會有更危險的人毀滅世界。』」)越來越明顯的是,人工智慧創始人的企業運作影響著我們的經濟增長方式、戰爭方式以及政治信息的傳播方式,而且這些創始人希望在僅需自行決定透明度的情況下監督人工智能對社會的變革。經濟學家諾亞史密斯最近質疑,人工智慧高層是否會成為「事實上的世界皇帝」。本月,OpenAI發布了一份產業政策計劃,宣稱其在人工智慧時代「以人為本」。該文件呼籲進行全面的系統性變革,包括設立一個公共財富基金,投資於人工智慧的成功;轉向“關懷與連接經濟”以扶持諸如老年護理等不易被人工智能淘汰的就業崗位;以及不與雇主掛鉤的社會福利(大概是因為一旦機器人真正具備“自主性”,就業本身就變得不再那麼可靠)。論文的語氣充其量是居高臨下,聲稱擔心人工智慧帶來的“經濟收益”可能會“集中在少數幾家公司,例如OpenAI”,彷彿這並非人工智慧有意為之的必然結果。
人工智慧領域的領導者普遍存在一種妄自尊大的錯覺。奧特曼在他的部落格文章中寫道,控制通用人工智慧的前景就像《指環王》中的“力量之戒”,而他似乎並沒有表現出明顯的諷刺意味。
鑑於Amodei曾對Anthropic的聊天機器人Claude表達過類似的擔憂,卻在OpenAI發布ChatGPT後最終還是發布了Claude,因此指望Anthropic阻止危險模型的出現似乎有些可疑。人工智慧的開發已經演變成一場失控的企業軍備競賽,謹慎遠不如競爭重要。這兩家美國巨頭不僅彼此競爭,也迅速改進中國模型和開源模型。迄今為止,人工智慧產業不受任何監管其他危險技術(例如槍支、藥品和環境化學品)的法規約束。這項技術的發展速度超過了監管政策的製定速度,部分原因是OpenAI一方面宣稱希望受到監管,另一方面卻暗中努力阻撓監管,例如支持伊利諾伊州一項旨在保護人工智能公司免於承擔責任的法案提案。 (同樣,由於政府的疏忽和行業的遊說,社交媒體在過去二十年里基本上處於不受監管的狀態。)現在還有人相信億萬富翁科技高管能夠成為未經選舉的社會公益守護者嗎?過去十年本應讓我們無數次打消這種念頭。我們眼睜睜地看著傑夫·貝佐斯收購《華盛頓郵報》,卻將其政治化,最終掏空了它;埃隆·馬斯克摧毀了推特作為公共話語中立空間的形象;馬克·扎克伯格明知故犯地推廣那些損害年輕用戶心理健康的平台。 OpenAI本身也從純粹的非營利組織蛻變為世界上最有價值的營利性公司之一,然而,奧特曼卻依然像在獨立智庫工作一樣,給我們提供關於良好治理的建議。
或許是為了應對日益增長的不安情緒,人工智慧公司最近採取了各種措施,試圖展現出更高的道德水準。繼Anthropic之後,GoogleDeepMind最近聘請了一位內部哲學家,而Anthropic則召集了一次基督教領袖會議,討論其聊天機器人的道德取向。對人工智慧而言,更有效的策略或許是…高階主管應該停止自封為安全的唯一仲裁者,停止要求盲目信任,並開始建立一套外部問責機制,讓公眾參與其中。科技公司提出的重塑政府的方案是一種溫和的技術法西斯主義,會疏遠公民;如果人工智慧需要新的社會契約或新的政治等級制度,那麼其形式不應由企業決定。人工智慧創辦人的宣傳背後還隱藏著另一個令人不安的悖論:如果這項技術真如他們所宣稱的那樣強大,那麼他們可能會將我們引向生存危機;如果這項技術最終被證明沒有那麼大的變革性,因而也沒有宣傳的那樣有價值,那麼他們只是在為全球經濟災難埋下伏筆。對於我們這些並非人工智慧運動自封英雄的人來說,這兩種情況都令人擔憂。 ♦
原文摘自 紐約客The New Yoker A.I. Has a Message Problem of Its Own Making



