人工智慧監管 歐盟將達成全球首部AI法規

隨人工智慧(AI)技術持續的發展,對如何監管該技術也成為一項爭議話題。《紐約時報》在12月7日的報導中提到,由於世界各地的監管尺度不同,可能在管理上仍會有分歧及混亂,而目前全球正在推行的監管模式就有5種。

歐盟

歐盟已經在12月6日正式就「歐盟人工智能法案」(EU AI Act)進行協商,該法案將根據AI工具帶來的風險實施相應的監管,風險最高的系統將被施加最嚴格的管控,並分為「不可接受的風險」、「高風險」、「有限風險」和「最低風險」四個等級。

美國法律

美國國會議員目前已經有提出多項與AI科技相關的法案,包括AI系統創造和部署、關注AI系統侵犯版權行為,及關於選舉安全和限制使用「深偽」(Deep Fake)技術的法案等。美國聯邦參議院民主黨領袖舒默(Chuck Schumer)也已經承諾,預料會在2024年公布一項全面的人工智能法案。

美國企業

美國政府目前已經要求企業自願監管AI系統的安全風險,包括對有關技術進行第三方安全測試,同時也必須向政府和其他機構共享風險資訊。同時,企業也被要求開發可以識別人工智能生成素材等透明的管理工具。

中國管理

中國自2021年起就已經迅速頒布旨在監管包括演算法推薦、深偽技術在內的合成內容,以及生成式人工智能的法規,相關監管草案要求保證訓練數據和科技創作內容的真實準確,而草案管理的對象包括ChatGPT等AI聊天機器人。

全球合作

目前全球在共同合作監管AI技術方面幾乎沒有取得任何進展,目前較為國際所接受的方案是建立一個專門的國際機構進行統一管理,但困難點在於各方必須克服地緣政治所導致的不信任、經濟競爭等問題,因此目前推進困難。

Facebook
Twitter
WhatsApp

猜你喜歡

5