中国科学院院士何积丰:隐私保护及价值观对齐成大模型时代重要安全挑战

2023年09月07日 12:24  

本文1096字,约2分钟

尽管大模型技术将推动人工智能向高阶阶段发展,但大量的数据训练也导致用户面临隐私泄露等数据安全风险。9月7日,中国科学院院士何积丰在2023 Inclusion·外滩大会上指出,当前大模型主要面临隐私和对齐两方面安全问题。

何积丰进一步表示,在隐私方面,问题在于未经用户同意的情况下,大模型会收集、使用和泄漏个人信息;而在对齐方面,如何让系统的目标和人类价值观一致,使其符合设计者的利益和预期,以确保技术不会产生意外的有害后果将成为行业关注的焦点。

事实上,从大模型训练,到技术应用,大模型发展的各阶段都存在着数据泄漏风险。目前,大模型时代的隐私问题已与传统机器学习时代不同。大模型训练离不开大量数据支撑,这可能会导致在用户未知的情况下采集其数据造成隐私泄露。

而在使用过程中,用户也面临着大模型服务和数据保护选择间的矛盾,以Chat GPT为例,用户如果选择使用服务,就必须同意大模型采集数据,这将导致用户数据存在泄露风险。此外,大模型的生成能力让隐私泄露方式变得多样化,加剧风控难度。

何积丰举例称,当大模型收集到足够多的个人数据信息信息后,完全可以依据这些静态与动态的信息描述个人画像,甚至写出一本小说。在某些西方投资公司,他们就开始采取这种技术来评估他要投资的单位人员信息。

不容忽视的是,除了隐私泄露,人类价值观之多样,也影响着大模型的发展方向,而科技向善才是技术发展的最终目标。

何积丰认为,人类的价值与判定系统本身便充满了偏见和盲点,有非常多相互矛盾的地方和没有明确指出的潜在条件。这导致Alignment成为一项令人眼花缭乱的跨学科研究,它不仅考验我们的技术,也在审视我们的文化。

何积丰指出,在解决大模型“有用性”与“无害性”两个目标的冲突的问题上,反馈强化学习是实现对齐的技术途径。一方面,通过反馈给模型不同的奖励信号引导模型的高质量输出,不过这类反馈机制受个人的喜好影响并不客观,同时反馈信息也需要花费大量的成本。另一方面,基于给大模型提供明确的原则,让系统自动训练模型对所有生成的输出结果提供初始排序。例如,利用双向对齐让智能系统向人类的价值观与学习方法对齐。

在人工智能时代,机器在众多场景中将成为辅助人类处理问题的重要帮手,如何调人与机器的关系也是未来将面临的重要挑战。在何积丰看来,人与机器间是互相学习的关系。人类在指导机器变得更加智能的同时,也慢慢学会什么样的指导可以使得机器更符合人类的需要。在人工智能技术发展过程中,我们不应忘记人类的核心角色,AI技术是人类的助手,而非替代人类创造世界的未来。

(《财经》新媒体综编)