Purcell 指出,AI 的監管環境“復雜且不斷發展”,任何類型的監管框架都必須考慮患者隱私和數據保護,包括歐盟的《通用數據保護條例》(GDPR)和美國相關州法。
Purcell 還提供了有關這些最佳實踐應該是什么樣子的一些見解。首先,“理想”的 AI 項目應該有一個由跨學科團體組成的數據治理小組,該小組不僅包括技術人員,還包括律師和監管專家,以及其他”了解 AI 監管治理的人。“項目還應包括負責任的 AI 問責政策、風險管理框架、AI/機器學習應用程序的中央存儲庫和算法存儲庫,以確保“我們都知道如何使用這項技術。”
另外,還應有一套通用的 AI 術語和分類法。Purcell 指出,諸如“驗證”之類的常用術語可以在不同學科中使用。
Purnell 表示,這些最佳實踐不必“從頭開始”編寫,而是可以結合其它政府機構和標準制定機構已經使用的現有方法。這可以包括美國國家標準與技術研究所(NIST)最近為 AI 制定的風險管理框架,以及為生成式 AI 制定的另一框架。此外,企業可以參考艾倫圖靈研究所為歐洲委員會開發的 AI 系統的人權、民主和法治保障框架(HUDERIA)。
ISO/IEC 等標準制定機構制定了涵蓋人工智能的標準,例如關于人工智能管理系統的 42001-2023,以及關于人工智能的 ISO/IEC 風險管理標準 (ISO 3100-2018)。其它標準包括 ISO/IEC 指南 51 安全方面 (ISO 指南 51:2014)、IEEE 系統設計過程中解決倫理問題的標準模型流程 (IEEE 7000-21)。或者其它國家可以利用的最佳實踐,例如新加坡的人工智能治理和測試框架和工具包。所有這些框架都包括“核心人工智能倫理原則”,例如公平、透明、人類責任和監督。
在監管領域,Purcell 指出,公眾對美國 FDA 和歐洲藥品管理局(EMA)最近的討論文件和思考性文件反饋意見呼應了一些共同的主題。這些文件都探討了 AI 的監管框架。
EMA 于 2023 年 7 月發布了關于在藥品生命周期中使用 AI 的思考性文件,FDA 于 2023 年 5 月發布了關于在藥品和生物制品開發中使用 AI 和機器學習的討論文件。
對這些文件的反饋意見支持靈活且基于風險的監管框架,并呼吁更明確基于風險的人工智能監管方法。還有評論要求與國際、區域和國家立法和監管框架更加一致。
但反饋意見中也存在分歧,EMA 思考性文件的反饋者呼吁框架適應現有法規,確保高水平的健康保護,并明確這種框架如何與相關法規配合使用。反饋者還希望明確定義 AI 特定術語,并為創新者提供強有力的知識產權保護。對 FDA 討論文件的反饋意見尋求明確 FDA 監管權限的范圍,并呼吁就此主題與 FDA 進行更頻繁的非正式溝通。
除了這些努力之外,其它機構也在開發 AI框架,包括 WHO 的衛生 AI 全球倡議。另外,國際藥品監管機構聯盟(ICMRA) 已為人工智能專門設立了“幾個工作流”。武田制藥全球監管政策和創新總監 Rose Purcell 在 DIA 2024 全球年會上表示,制藥行業人工智能的最佳實踐不需要從頭開始構建,而可以基于政府實體和標準組織制定的指南。會上還重點討論了美國和歐盟監管 AI 的比較觀點,以及公眾在考慮監管新興技術的未來框架時向監管機構表達的一些共同主題。
Purcell 指出,AI 的監管環境“復雜且不斷發展”,任何類型的監管框架都必須考慮患者隱私和數據保護,包括歐盟的《通用數據保護條例》(GDPR)和美國相關州法。
Purcell 還提供了有關這些最佳實踐應該是什么樣子的一些見解。首先,“理想”的 AI 項目應該有一個由跨學科團體組成的數據治理小組,該小組不僅包括技術人員,還包括律師和監管專家,以及其他”了解 AI 監管治理的人。“項目還應包括負責任的 AI 問責政策、風險管理框架、AI/機器學習應用程序的中央存儲庫和算法存儲庫,以確保“我們都知道如何使用這項技術。”
另外,還應有一套通用的 AI 術語和分類法。Purcell 指出,諸如“驗證”之類的常用術語可以在不同學科中使用。
Purnell 表示,這些最佳實踐不必“從頭開始”編寫,而是可以結合其它政府機構和標準制定機構已經使用的現有方法。這可以包括美國國家標準與技術研究所(NIST)最近為 AI 制定的風險管理框架,以及為生成式 AI 制定的另一框架。此外,企業可以參考艾倫圖靈研究所為歐洲委員會開發的 AI 系統的人權、民主和法治保障框架(HUDERIA)。
ISO/IEC 等標準制定機構制定了涵蓋人工智能的標準,例如關于人工智能管理系統的 42001-2023,以及關于人工智能的 ISO/IEC 風險管理標準 (ISO 3100-2018)。其它標準包括 ISO/IEC 指南 51 安全方面 (ISO 指南 51:2014)、IEEE 系統設計過程中解決倫理問題的標準模型流程 (IEEE 7000-21)?;蛘咂渌鼑铱梢岳玫淖罴褜嵺`,例如新加坡的人工智能治理和測試框架和工具包。所有這些框架都包括“核心人工智能倫理原則”,例如公平、透明、人類責任和監督。
在監管領域,Purcell 指出,公眾對美國 FDA 和歐洲藥品管理局(EMA)最近的討論文件和思考性文件反饋意見呼應了一些共同的主題。這些文件都探討了 AI 的監管框架。
EMA 于 2023 年 7 月發布了關于在藥品生命周期中使用 AI 的思考性文件,FDA 于 2023 年 5 月發布了關于在藥品和生物制品開發中使用 AI 和機器學習的討論文件。
對這些文件的反饋意見支持靈活且基于風險的監管框架,并呼吁更明確基于風險的人工智能監管方法。還有評論要求與國際、區域和國家立法和監管框架更加一致。
但反饋意見中也存在分歧,EMA 思考性文件的反饋者呼吁框架適應現有法規,確保高水平的健康保護,并明確這種框架如何與相關法規配合使用。反饋者還希望明確定義 AI 特定術語,并為創新者提供強有力的知識產權保護。對 FDA 討論文件的反饋意見尋求明確 FDA 監管權限的范圍,并呼吁就此主題與 FDA 進行更頻繁的非正式溝通。
除了這些努力之外,其它機構也在開發 AI框架,包括 WHO 的衛生 AI 全球倡議。另外,國際藥品監管機構聯盟(ICMRA) 已為人工智能專門設立了“幾個工作流”。
四川省醫藥?;焚|量管理協會組織召開
2025版《中國藥典》將于2025年10月..關于舉辦四川省藥品生產企業擬新任質量
各相關企業: 新修訂的《中華人..四川省醫藥保化品質量管理協會召開第七
四川省醫藥保化品質量管理協會第七..“兩新聯萬家,黨建助振興”甘孜行活動
為深入貫徹落實省委兩新工委、省市..學習傳達中央八項規定精神專題會議
2025年4月22日,協會黨支部組織召..關于收取2025年度會費的通知
各會員單位: 在過去的一年里,..四川省應對新型冠狀病毒肺炎疫情應急指
四川省應對新型冠狀病毒肺炎疫情應..四川省應對新型冠狀病毒肺炎疫情應急指
四川省應對新型冠狀病毒肺炎疫情應..