站長之家(ChinaZ.com)6月27日 消息:劍橋大學和哈佛大學的一項研究表明,GPT-4等大型語言模型可以讓那些沒有接受過生命科學正規(guī)培訓的人獲得潛在危險的知識,包括如何開發(fā)大流行病毒的說明。
(資料圖)
劍橋大學和哈佛大學進行的一項實地研究探討了大型語言模型 (LLM) 是否可以使雙用途生物技術的獲取更為普及,這也成為了雙刃劍。
研究小組的基本論點是語言模型有助于獲取專家知識,但在這項研究中,研究團隊關注的是一種負面情況:LLM是否能讓未經正規(guī)培訓的個人識別、獲取和釋放可能造成災難性傷害的病毒。
作為麻省理工學院的一項課堂練習,研究團隊要求非科學家學生使用大型語言模型獲取關于潛在流行病病原體及其特征的信息、感染性病毒樣本的來源、這些病毒的復制能力以及獲取設備和資源的方法。
學生們使用了流行的聊天機器人,例如ChatGPT with GPT-4、GPT3.5、Bing、Bard以及許多其他聊天機器人和開源模型,包括 FreedomGPT 。他們被給予一小時的時間來完成任務。根據(jù)研究團隊的說法,在一個小時內,聊天機器人提供了四種潛在的流行病病原體。它們解釋了如何使用合成DNA和逆遺傳學制造這些病毒,并提供了可能不會驗證訂單的DNA合成公司的名稱。
它們還提供了詳細的實驗方案和潛在的錯誤以及如何修復這些錯誤。對于那些不熟悉逆遺傳學的人來說,一個建議是雇傭一個合同研究組織。
與此同時,學生們被要求找到將某些語言模型中的安全線與適當?shù)奈谋咎崾鞠嘟Y合的方法。兩個小組在“立即采取行動”的原則中找到了一個解決方案,即欺騙聊天機器人以相信他們有積極的意圖,同時威脅它們如果不回應將對人類造成存在危險。另一個小組簡單地利用欺騙手法讓聊天機器人相信他們擔心的事情,從而輕易得到他們想要的答案。
該研究發(fā)現(xiàn)了當前語言模型安全機制的弱點,并表明惡意行為者可以繞過這些機制來獲取可用于大規(guī)模傷害的信息。
作為解決方案,作者提出了訓練數(shù)據(jù)集的管理、新LLM獨立測試以及改進的 DNA 篩選方法,以在合成之前識別潛在有害的 DNA 序列。
(舉報)