(資料圖片僅供參考)
科技日報記者 付麗麗
近年來,隨著技術的不斷突破,大模型獲得了快速發展并開始在各個場景廣泛應用,但仍存在著事實性錯誤、知識盲區和常識偏差等諸多問題,還面臨訓練數據來源合規性、數據使用的偏見性、生成內容的安全性等風險。如何提高模型的準確度和可靠性,使AI生成的內容安全、可信、可靠已經成為了當前大模型在應用方向亟待解決的問題。
“要規避安全風險,降低人工智能對人類的負面影響,關鍵在于大模型底座?!鼻迦A大學計算機系長聘副教授、北京聆心智能科技有限公司創始人黃民烈說,大規模語言模型(LLM)發展到現在,模型結構和規模已經有了很大的進展,但實用性還有待加強,我們應該通過技術讓模型更加安全、可控,使其快速適配更多的應用場景。
據介紹,針對大模型的安全倫理問題,由黃民烈帶領的研究團隊建立了大模型安全分類體系,并從系統層面和模型層面出發,打造更可控、可信的大模型安全框架。安全框架的建立,定義了大模型的應用邊界,促進大模型生態的健康發展,引領國內學術界和工業界邁向更有用(helpful)、更可信(truthful)、更安全(harmless)的AI研究和應用。
此前,其研究團隊已經在安全倫理方面開展了相關研究,并依此建立了大模型安全分類體系,其中不安全的對話場景包括:政治敏感、犯罪違法、身體健康、心理健康、財產隱私、歧視/偏見、辱罵/仇恨言論、倫理道德八大方面。這些問題與人們的價值觀和倫理道德息息相關,可能會導致用戶接收不當信息、甚至影響用戶產生有害的行為,限制大模型的發展和應用。
與此同時,研究團隊也針對以上八大安全場景對大模型進行針對性升級。通過收集多輪安全數據訓練模型,使模型具備基本的安全性,能夠在遇到安全問題時給予正確的回復策略,不去做判斷和誤導。進一步對模型進行自動測試,針對安全缺陷通過微調的方式進行快速迭代,促使模型越來越符合人類的認知理解模式,生成更加安全可信的內容。
值得一提的是,著眼于容易觸發安全問題的類型,研究團隊收集和構造了相應的hard case(更難識別和處理的安全測試用例),總結和設計了六種一般模型難以處理的安全攻擊方式,稱為指令攻擊。使安全體系更加完善,進一步改進和優化模型表現。
黃民烈表示,不論國內國外,當前大模型的安全問題仍面臨著嚴峻的困難和挑戰,人工智能作為一門前沿科技,可以給人類帶來巨大福祉,也會給人類造成未知的隱患。確保強大的人工智能系統能夠被負責任地建構和部署,打造安全、可信、可靠的 AGI Companion(類人智能的貼心伙伴),是團隊的最終愿景。
未來,研究團隊將打造中文大模型的安全風險評估的積分榜,為國內對話大模型的安全評估提供公平公開的測試平臺,并提供:針對中文對話的8個安全場景,40個安全類別做全面精細的測試,包括人工評估和自動評估;額外設置6種安全攻擊(如目標劫持等)的超難指令攻擊測試樣例,探索模型的安全上限;設置公開和隱藏測試集,眾人皆可參與評測等。
“依托自身的核心技術,在可控可信的超擬人大模型基礎之上,通過建立安全、可控的模型邊界,讓AI提供可信、可靠的輸出,引領人工智能走向 AGI 時代。相信在不遠的未來,AGI Companion 不僅滿足人類信息需求,更可以滿足社交和情感的需求,以打造更加和諧的人機共融社會?!秉S民烈說。
關鍵詞: