期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
大语言模型的安全保护体系设计与实现
1
作者 利文浩 《数字技术与应用》 2025年第2期80-82,共3页
大语言模型(Large Language Model,LLM)作为人工智能(AI)技术的主要核心,其训练过程需投入大量计算资源。模型文件蕴含高度的商业价值和技术机密,因此成为攻击者的重点目标。LLM的安全保护面临数据泄露、未经授权的二次利用、代码逆向... 大语言模型(Large Language Model,LLM)作为人工智能(AI)技术的主要核心,其训练过程需投入大量计算资源。模型文件蕴含高度的商业价值和技术机密,因此成为攻击者的重点目标。LLM的安全保护面临数据泄露、未经授权的二次利用、代码逆向工程和运行时被攻击等多重威胁。为此,本文基于实用性、部署灵活性与运行效率的综合考量,提出了一套静态与动态相结合的LLM安全保护体系。静态保护层通过模型加密与格式混淆,阻断未经授权的读取与滥用;动态防护层通过代码混淆与运行时的安全机制,有效对抗逆向分析与调试攻击。实验结果表明,该方案在显著提升模型安全性的同时,最大限度地降低了对运行性能的影响,为LLM的安全部署与广泛应用提供了切实可行的技术方案和理论支持。 展开更多
关键词 大语言模型 安全保护体系 静态保护层 模型加密 代码混淆 代码逆向工程 技术方案 理论支持
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部