OpenAI、Anthropic同意與美政府合作 測試AI模組把關安全風險
【編譯張翠蘭/綜合外電】美國政府與民間企業將攜手測試把關人工智慧(AI)的安全風險。隸屬商務部的人工智慧安全研究所(AI Safety Institute)周四(8/29)宣布,與OpenAI和Anthropic兩家新創公司簽署合作協議,對AI模組進行研究、測試和評估。
這是美國朝野首次簽署此類協議。根據美國財經頻道CNBC報導,隨著業界對AI安全和道德的擔憂日益加劇,OpenAI和Anthropic這兩家業界估值最高的新創已同意讓美國政府當局測試其新模型,然後再向公眾發布。
根據協議,美國AI安全研究所將可在兩家發布其AI主要新模組之前和之後,有權使用這些模型。該研究所也將與英國合作,針對潛在的安全改進向這兩家公司提出意見。
該研究所負責人表示,這些協議只是個開始,這對當局負責任監管AI而言,是一個重要的里程碑。
廣告
AI安全研究所隸屬美國商務部國家標準與技術研究院(National Institute of Standards and Technology,NIST),是拜登政府2023年10月發布美國政府首個關於AI的行政命令後成立的,要求就AI對勞動力市場的影響進行新的安全評估、公平和民權指導以及研究。
OpenAI推出的ChatGPT迄今仍然是聊天機器人市場的領頭羊,該公司正在洽談新一輪融資,可望令公司估值大幅攀升至逾1000億美元(約3.19兆元台幣)。Anthropic則由OpenAI前研究高階人員和員工創立,最近估值為184億美元(約5871.6億元台幣)。