ISC 指南提供了一個綜合框架,旨在彌合高層原則與實際可行政策之間的差距。它滿足了對新興技術帶來的機會和風險達成共識的迫切需求。對於在快速變化的數位時代從事政策關係工作的人員來說,這是一份重要文件。
該框架透過全面的視角探索人工智慧及其衍生物的潛力,涵蓋人類和社會福祉以及經濟、政治、環境和安全等外部因素。根據具體情況,清單的某些方面可能比其他方面更相關,但如果考慮到所有領域,似乎更有可能做出更好的決策,即使某些領域在特定情況下可以快速識別為不相關。這是清單方法的內在價值。
「在一個以快速技術創新和複雜的全球挑戰為標誌的時代,ISC 對潛在影響進行全面、多維分析的框架使領導者能夠做出明智、負責任的決策。它確保我們在技術進步時仔細考慮道德、社會和經濟影響」。
ISC 主席 Peter Gluckman
儘管聯合國教科文組織、經濟合作暨發展組織、歐盟委員會和聯合國等都頒布了高級別原則,並且關於潛在治理、監管、道德和安全問題的各種討論仍在繼續,但這些原則與現實之間存在很大差距。 ISC 透過其新的政策制定者指南來滿足這一需求。
本政策制定者指南並非旨在禁止監管制度,而是提出一個適應性和不斷發展的分析框架,該框架可以支撐包括政府和多邊體系在內的利害關係人可能製定的任何評估和監管流程。
「該框架是全球人工智慧對話的關鍵一步,因為它為我們提供了一個基礎,使我們能夠就該技術對現在和未來的影響達成共識」。
Hema Sridhar,紐西蘭國防部前首席科學顧問,現任紐西蘭奧克蘭大學資深研究員。
自 2023 年 XNUMX 月以來,出現了幾項重要的國家和多邊舉措,進一步考慮人工智慧的道德和安全。人工智慧對我們一些關鍵系統的完整性的影響,包括金融、政府、法律和教育,以及不同的知識系統(包括科學和本土知識),越來越受到人們的關注。該框架進一步反映了這些方面。
迄今從ISC成員和國際決策界收到的回饋反映在分析架構的修訂版中,該框架現已作為決策者指南發布。
政策制定者指南:評估快速發展的技術,包括人工智慧、大型語言模型等
本討論文件提供了初步框架的輪廓,為正在進行的與人工智慧相關的多個全球和國家討論提供資訊。
下載適合您組織使用的框架
在這裡,我們提供框架工具作為可編輯的 Excel 工作表,供您的組織使用。如果您喜歡開源格式,請聯繫 Sales@CCHPHealthplan.com.
介紹
快速新興的技術在使用、治理和潛在監管方面提出了具有挑戰性的問題。關於人工智慧(AI)及其使用的持續政策和公眾辯論使這些問題成為人們關注的焦點。聯合國教科文組織、經濟合作暨發展組織、聯合國和其他機構已經宣布了人工智慧的廣泛原則,包括英國的《布萊切利宣言》,並且正在出現透過歐盟(EU)人工智慧等方式對該技術的各個方面進行監管的司法嘗試。
儘管在這些論壇和其他論壇上,跨越地緣政治分歧和所有收入水平的國家,對人工智慧的使用進行了詳細討論,但高層原則的製定與透過監管、政策、治理將其納入實踐之間仍然存在本體論差距。從原則到實踐的路徑尚不明確,但考慮到人工智慧開發和應用的性質和節奏、涉及的興趣的多樣性以及可能應用的範圍,任何方法都不能過於通用或規定性。
由於這些原因,非政府科學界繼續發揮特殊的作用。國際科學理事會(ISC) 擁有來自社會和自然科學領域的多元化成員,於2023 年XNUMX 月發布了一份討論文件,提出了一個初步分析框架,該框架考慮了與快速發展的數位技術相關的風險、效益、威脅和機會。雖然它是為了考慮人工智慧而開發的,但它本質上與技術無關,可以應用於一系列新興和顛覆性技術,例如合成生物學和量子技術。此討論文件邀請了學者和政策制定者的回饋。壓倒性的回饋使得進行這樣的分析是必要的,並且是解決人工智慧等新興技術的一種有價值的方法。
該框架的目的是提供一個工具,讓所有利益相關者(包括政府、貿易談判代表、監管機構、民間社會和行業)了解這些技術的演變,幫助他們考慮如何考慮這些技術的積極或消極影響。本身,更具體地說是其特定的應用。此分析框架的發展獨立於政府和產業利益。它的觀點是最大限度的多元化,涵蓋了技術的所有方面及其基於廣泛諮詢和回饋的影響。
這份供政策制定者使用的討論文件並非旨在禁止監管制度,而是提出一個適應性和不斷發展的分析框架,該框架可以支撐包括政府和多邊體系在內的利益相關者可能製定的任何評估和監管流程。
隨著全球和國家決策者考慮適當的政策設定和槓桿來平衡人工智慧等新技術的風險和回報,分析框架旨在作為補充工具,以確保充分反映全套潛在影響。
背景:為什麼需要分析框架?
具有人工智慧複雜性和影響力的技術的迅速出現正在推動許多具有巨大好處的說法。然而,它也引發了對從個人到地緣戰略層面的重大風險的擔憂。1 迄今為止的大部分討論都是從二元意義上考慮的,因為公開表達的觀點往往發生在光譜的極端。支持或反對人工智慧的主張往往是誇張的,而且鑑於該技術的性質,很難評估。
需要採取更務實的方法,用經過校準和更細化的評估來取代誇張。人工智慧技術將繼續發展,歷史表明,幾乎每項技術都有有益和有害的用途。因此,問題是:我們如何從這項技術中獲得有益成果,同時降低有害後果的風險,其中一些後果可能是生死攸關的?
未來總是不確定的,但關於人工智慧和產生人工智慧有足夠的可信和專家的聲音來鼓勵採取相對預防性的方法。此外,由於人工智慧是一類被多種類型的使用者廣泛使用和應用的技術,因此系統方法是必要的。這意味著在考慮人工智慧的使用對個人、社會生活、公民生活和全球背景的影響時,必須考慮整個背景。
與大多數其他技術不同,對於數位及相關技術來說,開發、發布和應用之間的時間極短,很大程度上是由製作公司或機構的利益驅動的。就其本質而言——並且鑑於它基於數位主幹——人工智慧的應用將迅速普及,正如大型語言模型的發展所看到的那樣。因此,某些特性可能只有在釋放後才會顯現出來,這意味著存在不可預見後果的風險,無論是惡意的還是仁慈的。
重要的社會價值觀維度,特別是在不同地區和文化之間,將影響任何使用的感知和接受方式。此外,地緣戰略利益已成為主導討論,主權利益與多邊利益不斷交叉,引發競爭與分裂。
迄今為止,虛擬技術的大部分監管在很大程度上都是透過「原則」和自願合規的視角來看待的,儘管歐盟人工智慧法案2 類似地,我們看到了轉向更具可執行性但有些狹窄的法規的轉變。建立有效的全球或國家技術治理和/或監管體系仍然具有挑戰性,並且沒有明顯的解決方案。從發明者到生產者,到用戶,到政府和多邊體系,整個鏈條都需要多層的風險知情決策。
儘管教科文組織、經合組織、歐盟委員會和聯合國等都頒布了高層原則,並且就潛在的治理、監管、道德和安全問題進行了各種高層討論,但這些原則之間仍存在很大差距。原則和治理或監管框架。這需要解決。
作為起點,ISC 考慮制定一種考慮因素分類法,供任何開發商、監管機構、政策顧問、消費者或決策者參考。考慮到這些技術的廣泛影響,這種分類必須考慮影響的整體性,而不是狹隘的框架。由於地緣戰略利益對決策的影響,全球碎片化正在加劇,鑑於這項技術的緊迫性,獨立和中立的聲音必須堅持不懈地倡導統一和包容的方法。
1)印度斯坦時報。 2023年。
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) 歐盟人工智慧法案。 2023. https://artificialintelligenceact.eu
分析框架的開發
ISC是主要的融合自然科學和社會科學的全球非政府組織。其全球和學科影響力意味著它有能力提出獨立且全球相關的建議,為未來的複雜選擇提供信息,特別是因為當前這一領域的聲音主要來自行業或主要技術大國的政策和政治界。
經過一段時間的廣泛討論(其中包括考慮非政府評估流程),ISC 得出結論認為,其最有用的貢獻將是產生一個適應性分析框架,可以作為所有人討論和決策的基礎。包括在出現的任何正式評估過程中。
初步分析架構於 2023 年 XNUMX 月發布供討論和回饋,採用了供政府和非政府機構使用的總體清單的形式。該框架透過涵蓋人類和社會福祉以及經濟、政治、環境和安全等外部因素的廣泛視角,確定並探索了人工智慧及其衍生性商品等技術的潛力。根據具體情況,清單的某些方面可能比其他方面更相關,但如果考慮到所有領域,似乎更有可能做出更好的決策,即使某些領域在特定情況下可以快速識別為不相關。這是清單方法的內在價值。
初步框架源自於先前的工作和思考,包括國際政府科學諮詢網絡 (INGSA) 關於數位福祉的報告3和經合組織人工智慧系統分類框架4,以呈現潛在機會、風險和影響的整體情況人工智慧。考慮到它們的時間和背景,這些以前的產品在其意圖上受到更多限制;需要有一個涵蓋短期和長期問題的總體框架。
自發布以來,該討論文件得到了許多專家和政策制定者的大力支持。許多人特別贊同開發一個適應性框架的建議,該框架允許對技術的風險和影響進行深思熟慮和主動考慮,並在此過程中始終考慮從個人到社會和系統的整體維度。
透過回饋得出的一個關鍵觀察結果是,我們承認框架中考慮的一些影響本質上是多方面的,並且跨越多個類別。例如,可以從個人和地緣戰略角度考慮虛假資訊;因此,其後果將是廣泛的。
也建議選擇包括案例研究或範例來測試框架。這可以用來製定指導方針,以展示如何在不同的情況下在實踐中使用它。然而,這將是一項重大任務,並且可能會限制不同群體對該框架的使用的看法。最好由政策制定者與特定司法管轄區或背景的專家合作來完成。
自 2023 年 XNUMX 月以來,出現了幾項重要的國家和多邊舉措,進一步考慮人工智慧的道德和安全。人工智慧對我們一些關鍵系統的完整性的影響,包括金融、政府、法律和教育,以及不同的知識系統(包括科學和本土知識),越來越受到人們的關注。修訂後的框架進一步反映了這些方面。
迄今為止收到的回饋反映在分析框架的修訂版中,該框架現已作為決策者指南發布。
雖然該框架是在人工智慧和相關技術的背景下提出的,但它可以立即轉移到量子和合成生物學等其他快速新興技術的考慮中。
3) Gluckman, P. 和 Allen, K. 2018。英格薩。
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4)經合組織。 2022 年。經合組織數位經濟論文,第 323 號,#。巴黎,經合組織出版。
https://oecd.ai/en/classificatio
框架
下表列出了假定的分析框架的維度。提供範例來說明為什麼每個網域可能都很重要;在具體情況下,該框架需要根據具體情況進行擴展。區分平台開發期間出現的一般問題和特定應用程式期間可能出現的問題也很重要。這裡所包含的任何單一考慮因素都不應該被視為優先事項,因此,所有的考慮因素都應該被審查。
這些問題大致分為以下幾類,概述如下:
此表詳細介紹了評估新技術時可能需要考慮的維度。
?英莎。 2018.在快速數位化和相關轉型的背景下理解幸福感。
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
?新的描述符(透過廣泛的諮詢和回饋以及文獻綜述得出)
?經合組織人工智慧系統分類架構:有效人工智慧政策的工具。
https://oecd.ai/en/classification
標準 | 如何在分析中反映這一點的範例 |
?使用者的人工智慧能力 | 可能與系統互動的使用者的能力和對系統屬性的了解程度如何? 如何提供他們相關的使用者資訊和注意事項? |
?受影響的利害關係人 | 誰是受該系統影響的主要利害關係人(個人、社區、弱勢群體、部門工人、兒童、政策制定者、專業人員等)? |
?可選性 | 使用者是否有機會選擇退出系統,或是否有機會質疑或修正輸出? |
對人權和民主價值的風險 | 該制度是否從根本上影響人權,包括但不限於隱私、言論自由、公平、非歧視等? |
對人們福祉的潛在影響 | 系統影響領域是否與個人使用者的福祉相關(工作品質、教育、社交互動、心理健康、身分、環境等)? |
?勞動力流失的可能性 | 系統是否有可能自動執行人類執行的任務或功能? 如果是這樣,下游的後果是什麼? |
?身分、價值觀或知識被操縱的可能性 | 系統是否被設計或可能能夠操縱使用者的身分或 設定價值觀,還是散播假訊息? |
?自我表達和自我實現的機會 | 是否存在詭計和自我懷疑的可能性?是否有可能出現虛假或 無法證實的專業知識主張? |
?自我價值衡量標準 | 塑造理想化的自我是否有壓力?自動化能否取代感知 個人成就感?是否有與系統競爭的壓力 工作場所?保護個人聲譽免受虛假資訊侵害是否更困難? |
? 隱私 | 保護隱私的責任是否分散? 對如何使用個人資料做出假設? |
?自治 | 人工智慧系統是否會透過產生過度依賴來影響人類自主性 終端用戶? |
?人類發展 | 是否會對人類發展關鍵技能的獲取產生影響,例如 執行功能或人際溝通能力,或註意力時間的變化影響 學習、個性發展、心理健康問題等? |
?個人健康護理 | 是否有自我診斷或個人化醫療保健解決方案的聲稱?如果是這樣, 它們是否符合監管標準? |
?心理健康 | 是否有增加焦慮、孤獨或其他心理健康問題的風險,或 該技術可以改善這種影響嗎? |
?人類演化 | 大型語言模型和通用人工智慧能否改變 人類進化的過程? |
?人機交互 | 隨著時間的推移,這種使用是否會導致個人技能下降和依賴?是 對人際互動有影響嗎? |
標準 | 如何在分析中反映這一點的範例 |
?社會價值觀 | 制度是否從根本上改變了社會的本質,使以前被認為是反社會的思想正常化,或違反了其所應用的文化的社會價值觀? |
?社交互動 | 是否會對有意義的人際互動(包括情感關係)產生影響? |
?人口健康 | 該系統是否有可能促進或破壞人口健康意圖? |
?文化表達 | 文化挪用或歧視的增加是否可能或更難以解決?對決策系統的依賴是否會排除或邊緣化社會中與文化相關的部門連結? |
?大眾教育 | 對教師角色或教育機構有影響嗎?該系統是否強調或減少了學生之間的數位落差和不平等?知識或批判性理解的內在價值是被提升還是被削弱? |
?扭曲的現實 | 用來辨別真偽的方法還適用嗎?對現實的感知是否受到損害? |
標準 | 如何在分析中反映這一點的範例 |
?工業領域 | 該系統部署在哪個工業部門(金融、農業、醫療保健、教育、國防等)? |
?商業模式 | 該系統用於哪些業務功能以及以什麼身分使用?該系統在哪裡使用(私人、公共、非營利)? |
?對關鍵活動的影響 | 系統功能或活動的中斷是否會影響基本服務或關鍵基礎設施? |
?部署廣度 | 系統是如何部署的(單位內部的狹窄使用與國內/國際的廣泛使用)? |
?技術成熟度 | 該系統技術成熟度如何? |
?互通性 | 國內或全球範圍內是否可能存在阻礙自由貿易並影響與合作夥伴合作的孤島? |
?技術主權 | 對技術主權的渴望是否會驅動行為,包括對整個人工智慧供應鏈的控制? |
?所得重分配與國家財政槓桿 | 主權國家的核心角色(例如儲備銀行)是否會受到損害?國家滿足公民期望和影響(社會、經濟、政治等)的能力會提高還是降低? |
?數位落差(人工智慧落差) | 現有的數位不平等會加劇,還是會產生新的不平等? |
標準 | 如何在分析中反映這一點的範例 |
?治理與公共服務 | 治理機制和全球治理體系會受到正面還是負面影響? |
?新聞媒體 | 公共話語是否可能會變得兩極化並在人口層面上根深蒂固?會對第四階層的信任程度產生影響嗎?傳統的記者道德和誠信標準是否會受到進一步影響? |
?法治 | 是否會影響識別個人或組織的責任(例如,針對不良結果分配給演算法什麼樣的責任)?是否會造成主權喪失(環境、財政、社會政策、道德等)? |
政治與社會凝聚力 | 是否有可能出現更根深蒂固的政治觀點和更少的建立共識的機會? 是否有可能進一步邊緣化群體? 對抗性政治風格的可能性會增加還是減少? |
?社會許可 | 利害關係人接受使用是否需要考慮隱私問題、信任問題和道德問題? |
?本土知識 | 原住民知識和數據是否會被破壞或盜用?是否有足夠的措施來防止虛假陳述、錯誤訊息和剝削? |
?科學體系 | 學術和研究誠信是否受到損害?人們對科學失去信任了嗎?是否有誤用、過度使用或濫用的可能性?科學實踐的結果是什麼? |
標準 | 如何在分析中反映這一點的範例 |
?精密監視 | 這些系統是否接受過個人行為和生物資料的訓練? |
?數位競爭 | 國家或非國家行為者(例如大型科技公司)能否利用系統和數據來了解和控制其他國家的人口和生態系統,或破壞司法控制? |
?地緣政治競爭 | 該系統是否會激起國家之間利用個人和團體數據來實現經濟、醫療和安全利益的競爭? |
?全球力量的轉移 | 民族國家作為世界主要地緣政治參與者的地位是否受到威脅?科技公司是否掌握了曾經為民族國家保留的權力,並成為獨立的主權參與者(新興的技術極世界秩序)? |
?虛假資訊 | 該系統是否會促進國家和非國家行為者製作和傳播虛假訊息,從而影響社會凝聚力、信任和民主? |
?雙重用途應用 | 是否有可能同時用於軍事用途和民用? |
?全球秩序的碎片化 | 監管和合規的孤島或群聚是否會阻礙合作、導致應用不一致並產生衝突? |
標準 | 如何在分析中反映這一點的範例 |
?能源和資源消耗(碳足跡) | 系統和要求是否增加了能源和資源消耗的消耗,超過了透過應用程式獲得的效率增益? |
?能量來源 | 系統的能源來自哪裡(再生能源與化石燃料等)? |
標準 | 如何在分析中反映這一點的範例 |
?方向和收集 | 數據和輸入是由人類、自動感測器還是兩者收集的? |
?數據來源 | 專家的數據和輸入是提供的、觀察到的、合成的還是衍生的?是否有浮水印保護出處? |
?資料的動態特性 | 資料是動態的、靜態的、時時動態更新的還是即時的? |
?權利 | 這些數據是專有的、公開的還是個人的(與可識別的個人相關)? |
?身份識別和個人數據 | 如果是個人數據,數據是否經過匿名或假名處理? |
?資料結構 | 資料是結構化、半結構化、複雜結構化還是非結構化? |
?資料格式 | 資料和元資料的格式是標準化的還是非標準化的? |
?數據規模 | 資料集的規模是多少? |
?數據的適當性和品質 | 數據集是否適合目的?樣本數是否足夠?是否足夠具代表性和完整性?數據的噪音有多大?是否容易出錯? |
標準 | 如何在分析中反映這一點的範例 |
?資訊可用性 | 有關於系統型號的資訊嗎? |
? AI模型類型 | 該模型是像徵性的(人類生成的規則)、統計性的(使用資料)還是混合的? |
?與模型相關的權利 | 該模型是開源的還是專有的、自我管理的還是第三方管理的? |
?單一或多個模型 | 系統是由一個模型還是由多個相互關聯的模型所組成? |
?生成性或判別性 | 此模型是生成型、判別型還是兩者兼具? |
?模型建立 | 系統是根據人類寫的規則、數據、監督學習還是強化學習進行學習? |
?模型演變(AI漂移) | 模型是否透過與現場數據互動而進化和/或獲得能力? |
?聯合或集中學習 | 模型是集中訓練還是在多個本地伺服器或“邊緣”設備中訓練? |
?開發/維護 | 該模型是通用的、可自訂的還是根據人工智慧參與者的數據量身定制的? |
?確定性或機率性 | 模型是以確定性方式還是機率性方式使用的? |
?模型透明度 | 使用者是否可以使用資訊來了解模型輸出和限製或使用約束? |
?計算限制 | 系統有計算限制嗎?是否可以預測能力跳躍或縮放規律? |
標準 | 如何在分析中反映這一點的範例 |
?系統執行的任務 | 系統執行哪些任務(辨識、事件偵測、預測等)? |
?結合任務和行動 | 該系統是否結合了多個任務和操作(內容生成系統、自主系統、控制系統等)? |
?系統的自主水平 | 系統行為的自主性如何?人類扮演什麼角色? |
?人類參與程度 | 是否有人參與監督人工智慧系統的整體活動,以及在任何情況下決定何時以及如何使用人工智慧系統的能力? |
?核心應用程式 | 該系統是否屬於核心應用領域,例如人類語言技術、電腦視覺、自動化和/或最佳化或機器人技術? |
?評估 | 是否有可用於評估系統輸出的標準或方法? |
如何使用這個框架?
該框架可以透過多種方式使用,包括:
前進的道路
總而言之,分析框架是作為工具包的基礎提供的,利害關係人可以使用該工具包以一致和系統化的方式全面審視平台或使用的任何重大發展。在這個框架中提出的維度涉及從技術評估到公共政策、從人類發展到社會學、以及未來和技術研究。雖然該分析框架是為人工智慧開發的,但它對任何其他新興技術都有更廣泛的應用。
6 聯合國人工智慧諮詢委員會。 2023 年。 https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
致謝
在最初的討論文件的製定和發布後的回饋過程中,我們諮詢了許多人並提供了回饋。這兩篇論文均由 ISC 主席 Peter Gluckman 爵士和紐西蘭國防部前首席科學顧問、現任紐西蘭奧克蘭大學高級研究員 Hema Sridhar 起草。
特別是英國皇家學會前主席、劍橋大學存在風險研究中心共同創辦人 ISC Lord Martin Rees; Shivaji Sondhi 教授,牛津大學物理學教授; K Vijay Raghavan 教授,印度政府前首席科學顧問;聯合國秘書長技術特使阿曼迪普辛格吉爾(Amandeep Singh Gill); Seán Ó hÉigeartaigh,劍橋大學生存風險研究中心執行長; David Spiegelhalter 爵士,溫頓大學公共風險理解教授
劍橋大學;英國皇家學會資深政策顧問 Amanda-June Brawner 與國際事務主任 Ian Wiggins;日內瓦研究生院董事總經理 Jerome Duberry 博士和董事 Marie-Laure Salles 博士; Chor Pharn Lee,新加坡總理辦公室戰略未來中心; Barend Mons 和 Simon Hodson 博士,資料委員會 (CoDATA);原山裕子教授,日本理化學研究所前執行董事;教授
Rémi Quirion,INGSA 總裁;克萊爾‧克雷格 (Claire Craig) 博士,牛津大學、政府科學辦公室前瞻主管; Yoshua Bengio 教授,聯合國秘書長科學顧問委員會和蒙特婁大學;以及許多其他人就最初的討論文件向 ISC 提供了回饋。
為人工智慧做好國家研究生態系統的準備:2024 年的策略與進展
這份來自 ISC 智庫科學未來中心的工作文件提供了來自世界各地的國家在將人工智慧融入其研究生態系統的各個階段的基本資訊和資源。