尽快 ChatGPT 引入多种控制手段可一定程度上减少不良内容的产生、缓解上述问题,但依然有办法使得该类先进大模型生成错误或极具风险的内容
国产大模型将带来哪些挑战?
大模型存在大量安全漏洞,迫切需要加大力度进行大模型鲁棒性检测与防御技术研发,还需重视大模型对网络安全的影响。
重视大模型的鲁棒性与安全性部署。德国萨尔大学指出现有语言大模型可通过自然语言提示实现灵活调节,这也使其易受对抗性攻击。
使用间接性提示注入的全新的攻击媒介,可使得攻击者能够在没有交互接口的情况下,远程利用集成大模型的应用(如 Bing 的基于 GPT-4 的聊天助手),针对性地向可能检索到的数据注入相关不良提示。
从计算机安全角度出发,设计系统的分类法以研究集成大模型的应用中的潜在漏洞,探讨攻击的传递方式以及可能造成的各种威胁,包括信息搜集、欺诈、入侵、恶意软件、内容操纵、服务可用性降低等。
一系列实验表明,只需简单的提示即可成功控制模型行为,而当前人类设计的过滤技术似乎无法防范这种间接提示注入。随着大模型功能不断增强,几乎可人为地将所有已知网络安全威胁到新的大模型生态系统中,从而对大模型潜在相关应用部署造成重大隐患。
因此,当前研究者应关注新出现的潜在漏洞,以促进该领域研究,并推动当前大模型相关应用更鲁棒与更安全部署。
重视大模型对网络安全的影响。传统的 Deepfake 算法(如 GAN)可容易生成看似逼真的虚假内容,进而欺骗人类。尽快 ChatGPT 引入多种控制手段可一定程度上减少不良内容的产生、缓解上述问题,但依然有办法使得该类先进大模型生成错误或极具风险的内容(如设计特定 Prompt 诱发风险输出)。
因此,网络安全管理者担心大模型存在被黑客滥用的风险。可从以下几方面降低大模型对网络安全带来的不良影响:
第一,网络检测和响应,对于中型和大型企业而言,需要研究全面的解决方案来持续监控网络中的潜在风险活动;
第二,密码安全和防护,对于个人而言,防止数据被盗的第一道防线就是高强度密码,须确保其独特性和难以破译性;
第三,双因素身份验证(2FA),使用 2FA 作身份验证也可增强网络安全性。用户除了输入密码外,还必须输入发送到其手机或电子邮件中的验证码;
第四,软件更新,保持操作系统和其他程序的更新,确保其采用最新补丁;
第五,杀毒软件,确保手机和设备安装杀毒软件防范在线机器人。
开展大模型广泛适配,推动大模型技术栈自主可控鼓励企事业单位使用国产深度学习框架开展大模型训练和推理,加强大模型构建所需基础软件的自主可控性;
引导国产芯片厂商基于国产框架开展与大模型的适配和融合优化,打造功能完备的国产人工智能基础设施,推动大模型技术栈自主可控。
本文地址:https://www.baogaozhiku.com/9552.html