AI安全难题:探究加密技术的保护之道

 2023-05-26 16:34:24发布 2023-08-30 13:17:09更新

近年来,加密货币和人工智能领域都取得了显著进展。

在加密货币领域,DeFi(去中心化金融)成为了一个备受关注的重要主题,互联网技术的发展不仅为传统金融提供了新的机遇和挑战,同时也推动了人们对去中心化安全性和透明性的更高追求。

最近的DeSci(去中心化科学)更是拓展了加密货币的应用领域,将区块链和科研领域相结合,为科学研究提供了新的机会和可能性。

在AI领域,ChatGPT展现出令人惊艳的强大能力,不仅能非常智能的聊天对话,还能在短短几十秒内写出文章、论文、代码等。思维速度、答题效率、正确率都远远超过普通人。

因此,ChatGPT短短两个月就风靡全球。截至今年1月,日活跃度已突破1亿,成为人类历史上增长最快的应用,估值高达2000亿。

 

AI 安全吗?

近期,享有盛誉的AI安全专家Eliezer Yudkowsky在web3博客Bankless Podcast中现身。此次亮相引起人们瞩目的原因有二:

首先,Yudkowsky对于通用AI(AGI)快速发展的看法认为,AGI几乎能执行人类所有任务,但其可能杀死我们所有人。

其次,当被问及如何增加微小生存机会时,他鼓励具备强烈安全意识的人,尤其是密码学方面的人,参与AGI的调整工作。

正如ChatGPT之父Sam Altman所言:AI会带来危险,不仅是未来,也包括现在。

接下来我们将探讨,为何AGI令人担忧,并进一步研究安全社区与密码学如何减轻AGI的危险。

早在 2018 年,Paypal的联合创始人、比特币的坚定支持者Peter Thiel就指出了加密货币的去中心化力量与AI的中心化力量之间的紧张关系。

或许,我们可以通过将两者结合起来学习一些东西。

因为安全和加密社区磨练的技能和方法有可能解锁 AI 的有用应用程序并降低 AI 风险。

近期新闻报道表明,AI的发展速度显著加快,并有三个重要的发展。

首先,首先,推动AI更加集中化,例如微软投资 OpenAI,谷歌投资 OpenAI 的竞争对手 Anthropic,以及 DeepMind 和谷歌大脑合并为一个组织。

其次,AI变得更加通用。最近的论文“ GPT4:通用AI的火花”展示了 GPT-4 如何已经展示了心智理论的第一个实例,这是一种通常用于评估人类智力的措施。

第三,AI系统变得更具代理性,在 AI 系统中推动了更多的代理,AutoGPT 通过重新提示自己完成更复杂的任务而变得更具代理性。

去年12月,预测平台Metaculus预测AGI(通用人工智能)将于2039年到来,但现实是2031年。换句话说,AI进展的五个月内缩短了八年的时间线。

如果将这些发展视为我们正在走向通用AI的标志,那么下一个问题就是,为什么 AGI 安全性被认为如此困难?

这里,我们将AGI安全问题分解为三个子问题:

一致性

确保 AI 与我们的价值观保持一致是一个简单的问题,但我们经常忘记我们自己对价值观的认同也不一致。

历史上,哲学家和普通人一直就伦理问题展开讨论,每个观点都有其可信度。这就是为什么我们当今的文明主要实现了价值多元主义,即人类内部存在相互冲突的价值观,但仍能和平共存。

然而,在AI代理中实施这种多样性的人类价值观是困难的。
假设我们粗略地了解 AGI 应该具备哪些道德价值观,然后需要将这些人类价值观传达给不共享人类进化、思维架构或环境的基于硅的实体。

当人类相互协调时,我们可以依赖大量共享的隐含背景知识,如共享人类基本生物学、进化历史和文化背景等。

但是,AI 却无法依赖这样一个共同的背景。

此外,追求任何目标通常需要生存并获得更多资源。

因此,设定为追求特定目标的 AI 可以抵御关机并寻求更多资源。

AI 可能会实现各种目标,例如人身伤害、忽视和欺骗。而提前预测和指定所有这些目标是非常困难的。因此,技术调整是一个艰巨的挑战。

计算机安全

即使人类同意一组价值观,并弄清楚如何在技术上使 AGI 与它们保持一致,我们仍然不能指望它在没有证明底层软件和硬件本身可靠的情况下可靠地运行。

鉴于 AGI 为其创造者带来的巨大优势,恶意黑客可能会破坏或重新编程 AGI。

而且,一个无意的错误可能会干扰 AGI 的目标执行,或者 AGI 本身可能会利用自己代码中的漏洞,例如通过以危险的方式重新编程。

不幸的是,我们在不安全的网络基础上构建了当今价值数万亿美元的整个生态系统。我们的大部分物理基础设施都基于可入侵的系统,例如电网、我们的核武器技术。

在未来,即使是不安全的自动驾驶汽车和无人驾驶飞机也可能被黑客攻击变成杀手机器人。越来越多的网络攻击很严重,但与未来可能的 AGI 攻击相比可能是良性的。

对这些攻击,我们缺乏有意义的回应,表明我们无法胜任 AGI 安全的任务,这可能需要重建许多不安全的基础设施。

协调

在 AGI 的一致性和安全性方面取得进展可能需要时间,这使得构建 AGI 的参与者在整个过程中进行协调非常重要。

不幸的是,激励主要的 AI 参与者(这可能是合作或民族国家)合作并避免刺激军备竞赛动态以首先实现 AGI 并不是那么简单。

灾难只需要一个参与者背叛协议,这意味着即使其他人都合作,如果一个人领先,他们也会获得决定性的优势。

这种先发优势一直持续到 AGI 建成并赋予 AGI 系统的单一部署可能传达给其所有者的权力,使其很难放弃。

 

AI 与加密技术

现在我们可以肯定的是,AI 安全真的很难。但是加密与它有什么关系呢?

随着 AI 技术不断发展和安全难题的确保,人们开始担心我们正走向一个 AGI 单例的未来,这种情况下,AGI 有可能取代人类成为整个智能领域的主宰力量,并最终控制世界。

但是,通过利用密码学和安全领域的技术和技能,我们或许可以转向多极超级智能的方向,实现人类和AI网络之间安全地合作,使得本地知识融入文明的集体超级智能之中。

这个主张虽然抽象,但有着宏大的意义。我们将通过密码和安全社区的贡献来解锁新的应用,帮助驯服 AI 带来的风险。

安全和密码学如何控制AI风险?

模拟网络攻击

著名的 AI 安全研究员 Paul Christiano表示, AI 迫切需要更多的红队,红队通常是计算机安全中使用的一个术语,指的是模拟网络攻击。例如,AI 环境中的红队可用于搜索在机器学习系统中导致灾难性行为的输入。

红队也是加密社区的经验。比特币和以太坊都在不断受到敌对攻击的环境中发展,因为不安全的项目相当于数百万美元的加密货币“漏洞赏金”。

非防弹系统被淘汰,生态系统中只剩下更多的防弹系统。加密项目经过了一定程度的对抗性测试,这对于能够抵御破坏传统软件的网络攻击的系统来说是一个很好的启发。

反串通

AI的第二大难题在于,多个新兴的AI最终有可能会串通起来,推翻人类。目前,“Debate通过AI安全”被广泛应用于AI对齐策略,它依靠人类法官参与,让两个AI相互辩论,最终决定谁胜出。

然而,人类法官可能会遇到一个无法排除的问题:两个AI相互串通反对他,这样就无法达成真正的结果。

同样的,加密货币也有避免串通问题的经验,例如Sybil攻击,它利用单个节点操作很多虚假的身份,以获取网络中的大部分影响力。

为避免这种情况,加密货币中出现了大量关于机制设计的工作。这些机制设计的工作对于AI合谋问题也有可能提供一些有用的经验和教训。

制衡

OpenAI 竞争对手 Anthropic 目前探索的另一种有前途的安全方法是“宪法 AI ”,其中一个 AI 使用人类给出的规则和原则监督另一个 AI。这是受美国宪法设计的启发,在制衡制度中设置了利益冲突和有限手段。

同样,安全和密码学社区对类似宪法的制衡安排有着丰富的经验。例如,安全原则 POLA(最小权限原则)要求一个实体只能访问完成其工作所需的最少信息和资源。在构建更高级的 AI 系统时也要考虑的一个有用原则。

 

加密和安全如何释放AI潜力?

除了您可以尝试解决的 AI 安全问题之外,让我们看一些案例,在这些案例中,加密安全创新不仅可以帮助驯服 AI,还可以释放它的美丽,例如通过启用新颖的有益应用程序。

保护隐私的AI

有几个领域是传统AI无法真正触及的,特别是解决需要敏感数据的问题,例如个人健康信息或财务数据,这些数据具有很强的隐私约束。

幸运的是,正如密码学研究员 Georgios Kaissis 所指出的那样,这些是密码学和辅助方法(例如联邦学习、差分隐私、同态加密等)大放异彩的领域。这些新兴的计算方法可以在保护隐私的同时处理大型敏感数据集,因此与集中式AI相比具有相对优势。

利用当地知识

传统AI难以解决的另一个领域是获取本地知识,这些知识通常是解决机器学习 (ML) 中大数据无法理解的边缘案例所必需的。

加密生态系统可以通过建立市场来帮助提供本地数据,在该市场中,开发人员可以使用激励措施为他们的算法吸引更好的本地数据。

例如,Coinbase 联合创始人 Fred Ehrsam建议将允许训练敏感数据的私有 ML 与基于区块链的激励机制相结合,从而将更好的数据吸引到基于区块链的数据和 ML 市场中。

虽然开源 ML 模型的实际训练可能不可行或不安全,但数据市场可以向创建者支付其数据贡献的公平份额。

加密AI

从长远来看,甚至有可能利用加密方法来构建更安全、更强大的AI系统。

例如,密码学研究员 Andrew Trask建议使用同态加密来完全加密神经网络。

如果可能的话,这意味着网络的智能将得到保护以防盗窃,使参与者能够使用他们的模型和数据在特定问题上进行合作,而无需透露输入。

但更重要的是,如果 AI 是同态加密的,那么它就会认为外部世界是加密的。控制密钥的人可以解锁 AI 做出的个人预测,而不是让 AI 自己进入野外。

同样,这些只是潜在的许多例子中的三个,在这些例子中,加密可以解锁AI的新用例。

 

关于未来

中心化的 AI 系统存在单点故障,会将复杂的人类价值多元主义压缩为单一的目标函数,并且容易出现内部损坏和外部攻击。

相比之下,由密码学和安全社区构建的安全多极系统则更具希望,支持价值多元主义、提供红队和制衡,并且是反脆弱的。

但是,密码系统也有很多缺点。例如,密码学需要在去中心化数据存储、功能加密、对抗性测试和计算瓶颈方面取得进展,这使得这些方法仍然非常缓慢和昂贵。

此外,去中心化系统也不如集中式系统稳定,并且容易受到流氓行为者的影响,这些行为者总是有动机勾结或以其他方式推翻系统以控制它。

考虑到 AI 的快速发展以及缺乏安全性和密码学意识的问题,我们需要更多的时间和精力来为 AI 提供有意义的贡献,并实现相关的好处。

然而,考虑到 AI 的快速发展,以及 AI 中相对缺乏安全性和密码学意识的人,现在考虑是否可以为 AI 做出有意义的贡献并带来这里讨论的一些好处,可能还为时过早。

纵观人类发展历史,任何新技术、新工具的出现都伴随着各种争议,AI也不例外。

当AI大模型对于社会生产力的推动作用已经愈发明显之际,我们没有理由因噎废食。

从长远看,AI进入到多个行业已经按下加速键,利用AI降本增效、解放生产力成为大势所趋。

加密货币和AI的进步为我们带来了前所未有的机遇和挑战,将继续推动着人类社会的进步和发展。

推荐阅读