在 AI 时代,数据安全是所有人最关心的问题。我们用任何 AI 产品的时候,都会忍不住问一句:我的数据会被上传吗?会被用来训练模型吗?会被泄露吗?
而 QClaw 从发布第一天起,就打出了 "本地优先,数据 100% 不上传云端" 的口号。这在所有 AI 产品中,是独一份的。很多人对此表示怀疑:真的有 AI 产品不上传用户数据吗?QClaw 是怎么做到的?它的安全设计真的可靠吗?
今天这篇文章,我就来给大家彻底拆解 QClaw 的本地优先架构和数据安全设计。我会从最底层的技术原理讲起,一步步告诉大家,QClaw 到底是怎么保护你的数据安全的,以及它的安全边界在哪里。
在聊 QClaw 的安全设计之前,我们先搞清楚一个问题:为什么 AI Agent 必须走本地优先的路线?云端 AI 为什么不行?
答案很简单:因为 AI Agent 需要访问你的本地数据。
传统的对话式 AI,比如 ChatGPT、Claude,它们不需要访问你的本地数据。你把你想让它们知道的内容复制粘贴进去,它们给你生成回答。你不想让它们知道的内容,它们永远也看不到。
但 AI Agent 不一样。AI Agent 的核心价值,就是替你操作你的电脑。它需要读取你的文件,整理你的桌面,发送你的邮件,浏览你的浏览器历史。如果所有的数据都要上传到云端才能处理,那你的所有隐私就都暴露给了 AI 厂商。
你敢让一个云端 AI Agent 读取你的银行流水吗?你敢让它读取你的商业合同吗?你敢让它读取你的私人照片和聊天记录吗?我想绝大多数人都不敢。
这就是云端 AI Agent 的致命缺陷:它和用户的隐私需求是天然矛盾的。AI Agent 越强大,需要访问的数据就越多,用户的隐私风险就越大。
而本地优先架构,完美解决了这个矛盾。
什么是本地优先架构?简单来说,就是所有的数据都存储在你的本地电脑上,所有的计算都在你的本地电脑上完成。AI 厂商的服务器只负责传输指令和结果,不存储任何用户数据,不参与任何计算过程。
这样一来,你的所有敏感数据都永远在你的手里。你可以放心地让 AI Agent 处理你的任何文件,不用担心数据泄露,不用担心被用来训练模型,不用担心被第三方窃取。
而且,本地优先架构还有很多额外的好处:
第一,速度更快。不需要把大文件上传到云端,也不需要等待云端的计算结果。所有的操作都在本地完成,速度要快得多。
第二,离线可用。没有网络的时候,AI Agent 依然可以正常工作。你可以在飞机上、在没有信号的地方,让 AI Agent 帮你整理文件、写代码、处理文档。
第三,成本更低。不需要为云端的计算资源付费。你只需要支付大模型的 API 费用,甚至可以使用本地大模型,完全免费。
正是因为这些原因,本地优先已经成为了 AI Agent 行业的共识。几乎所有新推出的 AI Agent 产品,都在走本地优先的路线。而 QClaw,是其中做得最好、最彻底的一个。
kimiClaw.Kuaisou.cOm
nanoClaw.Kuaisou.cOm
QClaw 的本地优先架构,是从骨子里设计出来的,而不是后期打补丁加上去的。它的整个系统架构,都是围绕着 "数据不出本地" 这个核心原则构建的。
我们来看看 QClaw 的本地优先架构,到底有哪些核心设计。
这是最基本也是最重要的一点。QClaw 所有的用户数据,都存储在你电脑的本地硬盘上,不会上传到任何腾讯的服务器。
这些数据包括:
QClaw 会在你的电脑上创建一个独立的目录,所有的数据都加密存储在这个目录里。这个目录的位置是可以自定义的,你可以把它放在任何你想放的地方,甚至可以放在移动硬盘上。
腾讯的服务器不会存储任何这些数据。即使腾讯的服务器被攻破了,攻击者也看不到你的任何数据。即使 QClaw 的团队想查看你的数据,他们也做不到,因为数据根本不在他们那里。
除了大模型的调用之外,QClaw 所有的计算都在你的本地电脑上完成。
这些计算包括:
大模型的调用,也是直接从你的电脑发起,不经过腾讯的服务器。QClaw 客户端会直接和大模型的 API 服务器建立连接,发送请求,接收响应。腾讯的服务器不会看到任何你发送给大模型的内容,也不会看到大模型返回给你的内容。
这一点非常重要。很多号称 "本地优先" 的 AI 产品,实际上都会把用户的请求先发送到自己的服务器,然后再转发给大模型的 API 服务器。这样一来,用户的所有数据都会经过厂商的服务器,厂商就可以看到所有的内容。
而 QClaw 不是这样。它的大模型调用是直连的,没有任何中间环节。腾讯的服务器完全看不到你和大模型之间的通信内容。
zeroClaw.Kuaisou.cOm
viduClaw.Kuaisou.cOm
我们之前讲过,QClaw 是通过微信来远程操控电脑的。很多人担心,微信会看到我发送给 QClaw 的指令和 QClaw 返回给我的结果。
这个担心是多余的。因为 QClaw 和微信之间的通信,是端到端加密的。
端到端加密是什么意思?意思是,消息的加密和解密,只在发送方和接收方的设备上进行。任何中间节点,包括微信的服务器,都只能看到加密后的密文,看不到明文内容。
QClaw 采用了 AES-256 对称加密算法来加密所有的微信消息。加密密钥是在设备绑定的时候,由你的手机微信和你的电脑 QClaw 客户端协商生成的。这个密钥只会保存在你的手机和你的电脑上,不会上传到任何服务器。
所以,即使微信的服务器被攻破了,攻击者也只能看到一堆乱码,看不到任何有意义的内容。即使微信的团队想查看你的消息,他们也做不到,因为他们没有解密密钥。
我们之前也讲过,QClaw 的所有技能都运行在独立的沙箱里。这也是一个非常重要的安全设计。
技能沙箱给每个技能分配了最小必要的权限。默认情况下,一个技能只能访问自己的目录,不能访问系统的其他目录,不能访问网络,不能执行系统命令。
如果一个技能需要访问文件系统,它必须在skill.yaml文件中明确声明需要的权限。用户在安装这个技能的时候,会看到这个技能需要哪些权限,然后可以选择是否授予这些权限。
比如,一个 "整理桌面" 的技能,需要声明 "读取桌面目录" 和 "写入桌面目录" 的权限。用户在安装的时候,会看到这个提示,然后可以选择同意或者不同意。如果用户不同意,这个技能就无法安装和运行。
而且,即使一个技能获得了某个目录的访问权限,它也只能访问这个目录,不能访问其他目录。比如,一个获得了桌面目录访问权限的技能,不能访问你的文档目录,不能访问你的下载目录,更不能访问你的系统目录。
这样一来,即使某个技能是恶意的,它也只能在被授予的权限范围内搞破坏,不会影响到整个系统的安全。
QClaw 的核心代码是开源的。任何人都可以在 GitHub 上查看 QClaw 的源代码,检查它是否真的做到了 "数据 100% 不上传云端"。
这是 QClaw 对自己安全设计最大的自信。如果 QClaw 偷偷上传用户数据,那么一定会有人从源代码中发现这个问题,然后公之于众。
而且,QClaw 还接受了第三方安全机构的审计。审计报告已经公开在官网上,确认 QClaw 确实没有上传任何用户数据到腾讯的服务器。
开源和第三方审计,是保证 AI 产品安全的最好方式。只有代码透明,接受公众的监督,才能真正让用户放心。
easyClaw.Kuaisou.cOm
ironClaw.Kuaisou.cOm
虽然 QClaw 的安全设计已经非常完善了,但它并不是绝对安全的。任何安全系统都有自己的边界,QClaw 也不例外。
我们必须清楚地知道 QClaw 的安全边界在哪里,这样才能正确地使用它,避免不必要的风险。
QClaw 的安全边界主要有以下几个:
QClaw 本身不会上传你的数据,但你调用大模型 API 的时候,数据会发送到大模型厂商的服务器。
比如,你让 QClaw 帮你总结一个 Word 文档。QClaw 会在本地读取这个文档的内容,然后把内容发送给大模型的 API 服务器,让大模型生成总结。这个时候,文档的内容就会被大模型厂商看到。
这是 QClaw 无法控制的,因为大模型的计算是在云端完成的。如果你处理的是非常敏感的数据,那么你不应该使用云端大模型。你应该使用本地大模型,这样所有的计算都在本地完成,数据不会离开你的电脑。
QClaw 完美支持本地大模型。你可以在自己的电脑上部署 Ollama 或者 LM Studio,然后把本地大模型接入 QClaw。这样,即使是处理最敏感的数据,你也可以放心地使用 QClaw。
虽然 QClaw 和微信之间的通信是端到端加密的,但如果你的手机或者电脑被入侵了,那么攻击者就可以看到所有的消息内容。
比如,如果你的手机中了木马,那么攻击者就可以窃取你的微信账号,然后通过微信给你的 QClaw 发送指令,操控你的电脑。如果你的电脑中了木马,那么攻击者就可以直接读取 QClaw 的本地数据,窃取你的所有信息。
这不是 QClaw 本身的安全问题,而是你的设备的安全问题。任何软件都无法保护一个已经被入侵的设备。所以,你应该保持你的手机和电脑的系统更新,安装杀毒软件,不要下载和运行来历不明的软件。
QClaw 的技能沙箱虽然可以限制技能的权限,但它并不是完美的。如果一个技能存在漏洞,或者开发者故意绕过沙箱的限制,那么它就可能会访问到它不应该访问的数据。
比如,曾经有一个安全研究人员发现,QClaw 的早期版本中,技能沙箱存在一个漏洞,允许技能读取系统的任意文件。QClaw 团队在发现这个漏洞后,24 小时内就发布了补丁,修复了这个问题。
所以,你在安装第三方技能的时候,一定要谨慎。尽量安装那些下载量高、评分高、作者信誉好的技能。不要安装那些来历不明的、功能奇怪的技能。如果一个技能要求的权限和它的功能不匹配,比如一个 "天气预报" 技能要求访问你的文件系统,那么你绝对不要安装它。
QClaw 的所有数据都存储在你的本地电脑上。如果你的电脑被盗了,那么小偷就可以直接访问你的 QClaw 数据。
为了防止这种情况,你应该给你的电脑设置一个强密码,并且开启硬盘加密。Windows 的 BitLocker 和 MacOS 的 FileVault 都是非常好的硬盘加密工具。开启硬盘加密后,即使小偷拿走了你的电脑硬盘,他也无法读取里面的任何数据。
另外,你还应该定期备份你的 QClaw 数据。这样,即使你的电脑坏了或者被盗了,你也可以从备份中恢复你的数据。
Clawwork.Kuaisou.cOm
autoClaw.Kuaisou.cOm
除了 QClaw 本身提供的安全保障之外,你还可以采取一些额外的措施,进一步提高 QClaw 的安全性。
这是最重要的一条。如果你处理的是敏感数据,那么一定要使用本地大模型。不要使用任何云端大模型。
现在的本地大模型已经非常强大了。7B 参数的模型,已经可以很好地完成大多数日常任务。13B 参数的模型,效果已经接近 GPT-3.5。34B 参数的模型,效果已经非常接近 GPT-4 了。
如果你有一张性能不错的显卡,那么运行本地大模型是完全没有问题的。而且,本地大模型完全免费,没有任何使用限制。
在安装技能的时候,一定要遵循最小权限原则。只授予技能完成它的功能所必需的最小权限。如果一个技能要求的权限超出了它的功能范围,那么绝对不要安装它。
比如,一个 "计算器" 技能,不需要任何权限。如果它要求访问网络或者文件系统,那么它一定是恶意的。一个 "发送邮件" 技能,只需要访问网络权限。如果它要求访问你的文件系统,那么你也要小心。
QClaw 团队会定期发布更新,修复安全漏洞,改进安全设计。你应该保持 QClaw 自动更新,确保你使用的是最新的版本。
不要使用任何破解版或者修改版的 QClaw。这些版本可能会被植入恶意代码,窃取你的数据。一定要从 QClaw 的官方网站下载安装包。
公共电脑的安全性无法保证。不要在网吧、图书馆、公司的公共电脑上安装和使用 QClaw。如果必须使用,那么使用完之后一定要卸载 QClaw,并且删除 QClaw 的数据目录。
QClaw 支持微信双重验证。你可以在设置里开启这个功能。开启后,每次在新设备上绑定 QClaw 的时候,都需要输入微信的验证码。这样,即使别人窃取了你的微信账号,也无法绑定你的 QClaw。
medClaw.Kuaisou.cOm
redClaw.Kuaisou.cOm
在这个数据泄露频发的时代,QClaw 的本地优先架构,就像是一股清流。它证明了,AI 产品可以在强大的同时,也保护用户的隐私和数据安全。
很多人说,AI 的发展必然会以牺牲用户的隐私为代价。但 QClaw 告诉我们,这不是必然的。通过合理的架构设计,我们可以做到鱼和熊掌兼得。我们既可以享受 AI 带来的便利,又可以牢牢掌握自己的数据所有权。
当然,QClaw 的安全设计还不是完美的。它还有很多可以改进的地方。但它已经为整个行业树立了一个标杆。未来,所有的 AI Agent 产品,都应该向 QClaw 学习,把用户的数据安全放在第一位。
下一篇文章,我们来深入拆解 QClaw 最核心的技术之一 —— 任务拆解与执行引擎。看看 QClaw 是怎么把一句模糊的自然语言指令,拆解成一步步具体的操作,然后准确地执行的。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。