ChatGPT 開發商 OpenAI 近日公開招聘「應變準備主管」(Head of Preparedness),開出高達 55.5 萬美元年薪,另加股票報酬的優渥條件。然而,多名科技產業觀察人士指出,這項 OpenAI 招聘計畫恐怕比外界想像中更難找到真正合適的人選。
根據《Business Insider》報導,應變準備主管的核心職責,是在 AI 安全風險控管與執行長奧特曼(Sam Altman)快速推進產品的決策風格之間取得平衡。
隨著 OpenAI 商業化腳步加快,這個角色的重要性也持續升高。
今年以來,OpenAI 已密集推出多項新產品與功能,包括 Sora 2 影片生成應用、ChatGPT 的即時結帳功能、新一代 AI 模型、開發者工具,以及更進階的代理型 AI 功能。
加拿大滑鐵盧大學電腦科學學院研究教授 Maura Grossman 直言,應變準備主管幾乎是一份「不可能的工作」。
她指出,擔任此職的人勢必得在某些關鍵時刻告訴奧特曼「應該放慢腳步」,甚至明確指出某些目標不該被實現,「這就像把一顆石頭推上陡峭的山坡」。
奧特曼本人也未淡化這份工作的高壓性質。他日前在社群平台 X 上坦言:「這將是一份壓力極大的工作,你幾乎會立刻面臨嚴峻挑戰。」
即便如此,對合適的人選而言,這仍可能是一項夢寐以求的職涯機會。
OpenAI 已對全球用戶生活產生深遠影響,而超過 50 萬美元的年薪水準,也符合當前頂尖 AI 人才在市場上的行情。
誰適合 OpenAI 的應變準備主管?
值得注意的是,OpenAI 在這次招聘應變準備主管的職缺說明中,並未列出常見的門檻條件,例如特定學歷或最低年資。
公司僅指出,若具備帶領技術團隊的經驗,能在高度不確定情境下做出關鍵技術判斷,並能協調不同利害關係人在 AI 安全議題上的立場,將「可能非常適合」這個角色。
此外,OpenAI 也點名,應徵者若在機器學習、AI 安全、模型評估、資安或相關風險管理領域具備深厚技術背景,將更有機會勝任這項職務。
OpenAI 前任應變準備主管 Aleksander Madry 已於 2024 年 7 月轉任公司內部其他職務,留下安全系統團隊的關鍵空缺。
該團隊主要負責 AI 模型評估、安全框架建置與防護機制設計,是 OpenAI 內部重要的風險控管單位。
多倫多都會大學數位媒體教授 Richard Lachman 認為,雖然 Madry 具備學術背景,但 OpenAI 接下來更可能尋找一位具備實戰經驗的科技產業高層。
他指出,學界背景的人通常較為謹慎、風險趨避,未必符合 OpenAI 在高速成長階段的實際需求。
Lachman 預期,OpenAI 希望找到一位既能維護公司在 AI 安全議題上的公共形象,又不會拖慢產品創新與商業成長步伐的人選。
他強調:「這並不是一個只會說『是』的人,而是一個能與公司品牌與策略保持一致的角色。」
OpenAI AI 安全策略引發爭議
近年來,OpenAI 的 AI 安全策略也在內部引發爭議,已有多名早期核心員工離職,其中包括前安全團隊負責人。
此外,公司也面臨多起訴訟,有指控指出其技術可能加深使用者的妄想,或引發其他有害行為。
今年 10 月,OpenAI 亦坦承,部分 ChatGPT 使用者出現潛在心理健康問題跡象。
公司表示,正與心理健康專家合作,改善聊天機器人在面對精神病或躁症徵象、自殘或自殺風險,以及情感依附等情境時的回應方式。
新聞來源 (不包括新聞圖片): 鉅亨網