新浪科技訊 北京時間10月25日晚間消息,據報道,微軟(340.7701, 10.24, 3.10%)、谷歌(126.6, -13.52, -9.65%)、人工智能初創企業OpenAI和Anthropic正加緊推進人工智能(AI)安全標準的制定工作,并于今日任命了一名董事,以期填補全球監管方面的空白。
今年夏天,這四家科技巨頭聯合成立了新的產業組織“前沿模型論壇”(Frontier Model Forum),致力于安全和負責任地開發AI模型。今日,他們又任命美國智庫布魯金斯學會(Brookings Institution)的人工智能主管Chris Meserole擔任該組織的執行董事。
此外,前沿模型論壇還表示,計劃向一個人工智能安全基金投資1000萬美元。
Meserole對此表示:“我們距離真正的監管可能還有一段路要走。在此期間,我們希望確保這些系統(監管規則)盡可能安全!
在過去的幾個月里,人們越來越擔心日益強大的人工智能有可能取代人類工作崗位,創造和傳播錯誤信息,或者最終超過人類智能。
Meserole表示,該論壇將尋求對任何官方法規進行“補充”。據預計,歐盟的人工智能法案將在明年初敲定。與此同時,英國將于下周主辦首屆全球人工智能安全峰會,各國領導人和主要科技高管將受邀討論相關的合作。
Meserole還稱,論壇最初將重點關注風險,包括人工智能幫助設計生物武器的能力,以及生成可用于促進關鍵系統黑客攻擊的計算機代碼的能力。