人工智能(AI)正在迅速推進新型蛋白質的設計工作,這些蛋白質有望用作藥物、疫苗及其他療法。但這種希望也伴隨著人們的擔憂,同樣的工具可能被用于設計生物武器或有害毒素的組成部件。
如今,科學家提出了一系列可以內嵌到AI模型的保護措施,既能阻止惡意使用,也能在出現新型生物武器時追蹤到是哪個AI模型創造了它。4月28日,相關論文發表于《自然-生物技術》。
圖片來源:IAN C. HAYDON/UNIVERSITY OF WASHINGTON MEDICINE
美國約翰斯·霍普金斯大學健康安全中心主任、流行病學家Thomas Inglesby表示:“建立正確的框架至關重要,這有助于我們充分發揮這項技術的巨大潛力,同時防范出現極其嚴重的風險。”
近年來,科學家已經證明,AI模型不僅可以根據氨基酸序列預測蛋白質結構,還能以前所未有的速度生成未見過的具有新功能的蛋白質序列。像RFdiffusion和ProGen這樣的最新AI模型,能在短短幾秒內定制設計蛋白質。在基礎科學和醫學領域,它們的前景幾乎無人質疑。
但論文通訊作者、美國普林斯頓大學的計算機學家王夢迪指出,這些模型的強大功能和易用性令人擔憂。“AI變得如此簡單易用。普通人不需要擁有博士學位,也能夠生成有毒化合物或病毒序列。”
美國麻省理工學院媒體實驗室的計算機學家Kevin Esvelt支持對有關高風險病毒和DNA制造的研究實施更嚴格的管控。他指出,這種擔憂仍停留在理論層面。“沒有實驗室證據表明現有模型已經強大到足以引發一場新的大流行病。”
盡管如此,包括Inglesby在內的130 名蛋白質研究人員去年簽署了一份承諾書,在工作中安全使用AI。現在,王夢迪和同事概述了可以內嵌到AI模型的保護措施,從而超越了自愿承諾。
其中一項措施是名為FoldMark的防護機制,由王夢迪實驗室開發。它借鑒了谷歌旗下DeepMind的SynthID等現有工具的概念,即在不改變內容質量的前提下,將數字模式嵌入AI生成的內容中。
在FoldMark的案例中,作為唯一標識符的代碼被插入蛋白質結構中,而不會改變蛋白質功能。如果檢測到一種新的毒素,就可以通過這個代碼追查它的來源。Inglesby評價說,這種干預措施“既可行,又在降低風險方面具有巨大的潛在價值”。
研究團隊還提出了一些改進AI模型的方法,以降低其造成危害的可能性。蛋白質預測模型是基于現有蛋白質(包括毒素和致病蛋白質)進行訓練的,一種名為“反學習”的方法會去除其中一些訓練數據,使模型更難生成危險的新蛋白質;另外還有“反越獄”概念,即系統訓練AI模型,以識別并拒絕潛在的惡意指令。
此外,研究團隊敦促開發人員采用外部保障措施,比如使用自主代理來監測AI的使用情況。當有人試圖制造有害生物材料時,它就會向安全人員發出警報。
“實施這些保障措施并不容易。設立一個監管機構或某種程度的監督機制將是一個起點。”論文作者之一、美國國防部高級研究計劃局AI項目主管Alvaro Velasquez說。
“人們對AI和生物安全的思考,不如對錯誤信息或深度偽造技術等其他領域那么多。”美國斯坦福大學的計算生物學家James Zou表示,所以對保障措施的新關注是有益的。
不過,Zou認為,監管機構與其要求AI模型本身納入防護措施,不如將重點放在那些能夠將AI生成的蛋白質設計轉化為大規模生產的服務設施或機構上。“在AI與現實世界接軌的層面設置更多防護機制和監管措施是有意義的。”
相關論文信息:https://doi.org/10.1038/s41587-025-02650-8
本文鏈接:科學家在AI模型中內置“防火墻”http://m.sq15.cn/show-11-20556-0.html
聲明:本網站為非營利性網站,本網頁內容由互聯網博主自發貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
上一篇: 量子傳感新技術“攻克”退相干難題
下一篇: 破譯赫庫蘭尼姆古卷正急速推進