跳到主要內容
:::

人工智慧政策對研究人員產生深遠影響

歐盟國中的大學幾乎未受邀參與英國的人工智慧安全峰會,因而引起廣泛討論。這凸顯一項重要議題,亦即歐洲大學在全球人工智慧政策討論中的參與度不足。

 

同時更重要的是,美國發布了一項具開創性的新行政命令,以外部審查人工智慧模組的方式,判斷其具備之潛在風險。這項舉措不僅表明了美國對人工智慧技術的重視,還強調了在此領域建立透明標準和安全機制的迫切性。

 

這一系列政策動向將直接影響研究人員,讓他們更關注人工智慧技術的安全性和潛在風險。而這也反映出全球對於人工智慧的監管和治理,日益成為政策制定焦點,科學家和研究人員應密切關注此領域發展,以應對相應挑戰和機遇。

 

全球人工智慧政策制定在本週攪動一池春水。由英國主辦的人工智慧安全峰會即將結束,與此同時,白宮在本週稍早發布一項有關人工智慧的重大行政命令,G7峰會上也提出新版行為準則。

 

這些發展引發各方廣泛關注。民間組織擔心其被排除在有利於大型科技公司的討論之外;人工智慧專家不斷擔心人類可能失去對人工智慧創作的控制;而抱持自由主義的投資者則擔憂所有這些新規定將扼殺創新。

 

然而,對於學術研究人員來說,這一切意味著什麼?他們在構建先進人工智慧模型的同時,是否會被美國和中國的科技公司抛在後頭?歐盟的人工智慧法則在歐盟機構中緩慢通過。

 

本周最引人注目的事件可能是英國在布萊切利公園(Bletchley Park)舉行的人工智慧安全峰會。這裡曾在二次世界大戰時是密碼破譯者的大本營,英國試圖透過此次會議,成功讓東西方官員就人工智慧議題達成共識。

 

獲邀名單更引起特別關注:是否邀請中國派員出席,英國一直猶疑不決,而法國和德國等國的領導人則婉拒出席,雖然歐盟執委會馮德萊恩(Ursula von der Leyen)最後的確出現在會場。

 

馮德萊恩在峰會上發表談話時表示,「我們需要培養一個由傑出、獨立的科學家組成的社群。其中科學家可以獲得資源來評估人工智慧,並可自由指出其中技術存在之風險。」

 

歐盟國家的大學則幾乎完全被排除在賓客名單外。雖然會議共邀請了46所大學、智庫與研究中心,但在歐盟機構中,唯一只有科克大學學院(University College Cork)獲邀,而在魁北克則有3所機構派員出席。目前尚不清楚如此現象是展現了歐盟在人工智慧方面的實力,還是反映英國脫歐後的世界觀。

 

峰會的主要成果是讓世界上主要大國簽署《布萊切利宣言》(Bletchley Declaration)(不包含俄羅斯,因其未受邀參與)。

 

該宣言涵蓋與人工智慧有關的兩種風險:例如,演算法確實存在之偏誤風險,以及未來發展出功能更強的系統,使人類無法加以掌控,進而造成「嚴重甚至災難性傷害」。

 

這是權宜作法,科技界通常會擔憂具有超強效能的人工智慧,最終可能導致人類滅絕或被機器征服,而其他人(通常就是指公民社會)則認為此種世界末日的情景,是在分散當眾人面對更實際也更真實問題時的注意力,比如目前人工智慧所產生的假訊息。

 

雙方妥協

總部位在布魯塞爾智庫單位「歐洲規範中心」(Centre on Regulation in Europe)資深顧問卡馬斯(Gautam Kamath)表示:「我認為這代表了一件很重要的事情,也就是試圖重新構建有關人工智慧的政治辯論,派系一分為二實在沒有意義。」

宣言中更明確表示,解決人工智慧風險「最好透過國際合作加以實現」,部分與會者則對國際間展開對話表示期待。

 

智庫單位Pour Demain負責人工智慧專案的經理馬提(David Marti)表示,「英國峰會有助於管理國際人工智慧具備的創造力。英國政府做出相當努力,召集包括中國在內的所有國家以及其他參與者,以合作方式討論人工智慧安全。」

 

此外,中國和西方人工智慧專家則聯合警告道,先進的人工智慧系統「可能很快就能讓恐怖分子得以有能力開發大規模殺傷性武器。」

 

在英國舉行的安全峰會不會只召開一次,南韓與法國都計劃在未來 6 個月至1年內舉辦類似活動。

 

儘管有了《布萊切利宣言》,但這就僅是一個宣言,對此,「信任人工智慧促進中心」(Center for the Advancement of Trustworthy AI)主任馬庫斯(Gary Marcus)表示:「我們迫切需要發布超越立場的聲明(最近幾個月發布了不少聲明)並針對如何進行下一步提出具體建議。」

 

美國因應作法

美國白宮在10月30日發佈一份相當冗長的行政命令,其表現更為具體且重要。在曼徹斯特阿爾托大學(Manchester and Aalto University)的人工智慧教授卡斯基(Samuel Kaski)表示,這份命令「相當周全」。

 

該命令涵蓋多面向,其中包括在司法系統中如何平等對待人工智慧乃至公民隱私。然而,對產業界來說來說,其中最重要且最具爭議的要求,在於科技巨擘需與美國政府共享其人工智慧模組進行之安全測試結果。這是對人工智慧模組進行外部監督的一小步,但卻有助於確保在對外釋出人工智慧技術時,至少不會形成風險。

 

美國國家標準與技術研究院(National Institute of Standards and Technology)正在替人工智慧開發公司制訂方針,以確定發展方向,說明這些公司應如何測試人工智慧系統是否會造成風險,即所謂的「紅隊演練」(Red Teaming)。卡斯基希望學術團隊能參與設計,他表示:「這是一個基礎研究問題。」

 

本周一篇由牛津大學學者撰寫發表的研究論文顯示,出於商業機密或安全考慮,學者經常被排除在審查大型科技公司人工智慧模組的程序外。該研究發現,試圖探索可能實現優異人工智慧系統的研究方案「會因為無法獲得合適模組而被迫放棄」。

 

為解決此問題,美國人工智慧安全研究所的成立被視為向前邁進的一步。該研究所旨在「提供研究人員測試環境,以評估新興人工智慧具備之,並減緩已知影響」。

 

研究作法

在美國公布的行政命令中,包含一系列與研究有關的措施,包括尊重隱私、啟動國家人工智慧研究資源,讓研究人員與學生獲得人工智慧數據與資源,以及提供更多資助在醫療保健和氣候變化等領域的人工智慧研究。

 

對於歐盟人工智慧產業來說,重要的是,美國行政命令中敘及:希望透過將簽證標準現代化與審核速度提升等方式,讓面試與審查更具效率,進而提升在關鍵領域擁有專業知識且具備相當技能的移民與非移民,得以在美國學習、居留和工作。

 

儘管美國目前的黨派政治僵局阻礙移民法的順利推行,然而其吸引全球人工智慧人才的作法,可能會影響歐盟專家發展人工智慧技術。

 

資料來源:https://sciencebusiness.net/news/ai/what-weeks-flurry-ai-policymaking-means-researchers

更新日期 : 2023/12/07