財聯社6月20日訊(編輯 史正丞)當地時間周三,上個月從OpenAI離職的公司聯合創始人、(前)首席科學家,以及去年在OpenAI董事會投出關鍵一票將奧爾特曼趕出公司,又反悔將他請回來的深度學習領域權威專家伊爾亞·蘇茨克維(Ilya Sutskever),正式宣布單飛后的全新AI創業項目。
簡單來講,蘇茨克維創辦了一家叫做“安全超級智能”(Safe Superintelligence,簡稱SSI)的新公司,目標是“一步到位”地創造一個安全的超級智能。
安全第一、直通終極目標
蘇茨克維打算在一個純粹的研究機構里,直接創造一個安全、強大的人工智能系統,同時不會在短期內推出任何商業化產品或服務。他對媒體介紹稱:“這個公司很特別,因為它的第一個產品就會是安全的超級智能,直到(實現)那一天前不會做任何其他事情,完全隔離于外部壓力,不必去處理大型、復雜的產品或陷入激烈的競爭中。”
安全第一、不搞商業化、不理睬外界壓力,整段話里蘇茨克維沒有提到過一次OpenAI,但背后的意思已經不言自明。雖然OpenAI的“宮斗”事件以奧爾特曼的大勝、速勝結束,但整件事情背后加速主義與安全主義的路線之爭并沒有結束。
雖然理念不同,但雙方私下里依然維持著尚可的關系。在今年5月15日宣布離開工作十年的OpenAI之時,蘇茨克維也發布了一張管理層的合照,并表示相信在奧爾特曼等人的帶領下,OpenAI將構建出安全又有益的AGI(通用人工智能)。
對于蘇茨克維的分道揚鑣,奧爾特曼回應稱“深感悲傷”,并表示沒有蘇茨克維就沒有OpenAI的今天。
自去年的“宮斗”事件結束后,蘇茨克維一直對于整件事保持沉默,直到今天依然如此。在被問及他與奧爾特曼的關系時,蘇茨克維只是簡單地回答了一句“很好”,而被問及過去幾個月的經歷時,他也只是表示“非常奇怪”。
“像核安全一樣的安全”
從某種意義上來看,蘇茨克維目前也無法準確界定AI系統安全與否的分界線,只能說有一些不一樣的想法。
蘇茨克維暗示稱,他的新公司將嘗試使用“嵌入AI系統的工程突破”來實現安全,而不是技術上臨時應用的“防護欄”。他強調:“我們所說的安全,是指像核安全一樣的安全,而不是類似于‘信任與安全’那樣的東西”。
他表示花了很多年來思考AI安全方面的問題,并且在心目中已經有了幾種實現的方法。他介紹稱:“在最基本的層面上,安全的超級智能應該具有這樣的特性,即不會對人類造成大規模傷害。在此之后,我們可以說希望它成為一種善的力量,一種建立在關鍵價值觀上的力量。”
除了大名鼎鼎的蘇茨克維外,SSI還有兩名創始人——前蘋果公司機器學習主管、知名科技風險投資人丹尼爾·格羅斯,另一個是與蘇茨克維一同在OpenAI訓練大模型的工程師丹尼爾·萊維。
萊維表示,我的愿景與蘇茨克維完全一致:一個小而精干的團隊,每個人都專注于實現安全超級智能的單一目標。
雖然目前并不清楚SSI為何敢于喊出“一步到位”(到底有多少投資人、投了多少錢),但格羅斯明確表示,公司的確會面臨許多問題,但找錢不會是其中之一。
回歸OpenAI的初心
從一系列愿景中不難發現,所謂“安全超級智能”,本質上就是OpenAI創立初期的概念。但隨著訓練大模型帶來的費用激增,OpenAI不得不與微軟合作,換取資金和算力支持延續他們的事業。
這樣的問題也會出現在SSI未來的路上——公司的投資人真的愿意投入大量資金,看著這家公司沒有任何產出,直到實現“超級智能”的最終目標嗎?
順便一提,“超級智能”本身也是一個理論上的概念,指的是一種超越人類水平的人工智能系統,比起全球大多數超級科技公司正在追求的成果更加先進。但業內對于能否實現這樣的智能,或如何構建這樣的系統尚未形成共識。
而令人在意的是,在SSI公司發布的首個公告中,第一句話就是“超級智能已經近在咫尺”。
管理員
該內容暫無評論