
<|User|>Sai Kishore Of Straiker On How AI is Making Embedded Devices More Vulnerable to Cyberattacks
Authority Magazine Editorial Staff
Follow
12 min read·Dec 12, 2025
Listen
Share
Press enter or click to view image in full size
如果我能发起一项运动,那就是让AI安全成为与安全和隐私同等重要的“一等公民”。 从小到大,我被教导保护人们的信息和隐私是理所当然的正确之事。如今,随着AI融入我们接触的每一件事物,这种思维也需要延伸到我们如何确保其安全上。我们围绕数据保护建立了强大的框架,如PII标准和GDPR,因为我们重视人类隐私。但想想人们现在与AI系统共享的个人信息量,无论是在云端,还是在家庭、汽车或医院的设备上。这些互动理应得到同等水平的保护与关怀。
随着世界日益互联,嵌入式设备在日常应用中的使用——从智能家居系统到工业控制单元——正在迅猛增长。虽然这一进步带来了前所未有的便利和效率,但也带来了日益严峻的安全挑战。随着人工智能融入这些设备,其复杂性和潜在漏洞成倍增加。网络犯罪分子正在利用AI与嵌入式设备的交汇点,对数据隐私、系统完整性甚至公共安全构成严重风险。这些技术如何使嵌入式系统更容易受到网络攻击?AI引入了哪些漏洞?最重要的是,我们如何在受益于AI带来的进步的同时减轻这些风险?作为本系列文章的一部分,我们有幸采访到了Venkata Sai Kishore Modalavalasa。
Venkata Sai Kishore Modalavalasa是Straiker的首席架构师和工程负责人,他在那里构建AI驱动的安全产品,以大规模保护AI原生应用。他在网络安全和分布式系统领域拥有超过十年的经验,曾带领产品从0到1,将Cyberfend从初创公司发展到被Akamai收购。在Akamai,他领导了机器人检测和Web安全方面的工程工作,开发先进的检测引擎,构建大规模安全平台,并指导高绩效团队。作为OWASP的活跃作者和贡献者,Modalavalasa先生参与了诸如AI BOM(AI物料清单)和Agentic AI安全等倡议,并共同领导FinBot Agentic安全CTF项目,推动新兴AI安全领域的社区驱动型创新。他的职业生涯体现了深厚的技术专长与将创新安全解决方案推向市场的领导力的结合。
非常感谢您加入我们的采访系列!在我们深入探讨之前,我们的读者想了解您。能跟我们谈谈您的成长经历吗?
我在印度长大,那时家里有台电视甚至电话都是件大事。我的父亲,我的英雄,他非常重视教育,并教导我拥有同样的学习纪律和好奇心。我一直对事物运作的原理着迷,所以我会花几个小时拆解我能弄到的任何东西,比如旧收音机、卡带播放器,甚至有一次拆了台VCR。当然,并非所有东西都能在我的“实验”中幸存下来。我烧坏过几块主板,但这也是乐趣的一部分。我的父母从不阻止我;他们只是告诉我要从中学习。这种好奇心和鼓励的混合体,在我知道自己想成为工程师之前很久,就塑造了我身上的工程师特质。
是否有某个特别的故事启发您投身于这个领域?我们很乐意听听。
真正的火花来自于我能使用学校的计算机实验室。它很小,但感觉像另一个世界。我意识到你可以无休止地摆弄软件,而不用担心弄坏任何昂贵的东西。硬件实验有其局限性;软件则没有。我可以随心所欲地测试、失败和重建。这种探索的自由让我尝到了工程的滋味:富有创造性、逻辑性且极具满足感。从那时起,我就被迷住了。无论是调试代码还是理解电路设计,我都将它们视为等待解决的谜题,这种心态一直伴随着我。
在我职业生涯的早期,我曾参与一个团队,为首次大规模撞库攻击之一开发防御措施。看到自动化技术如何能将本为方便而构建的系统武器化,这让我大开眼界。那件事塑造了我的理念:“每一次技术飞跃,从云到AI,都会引入一个新的安全前沿。” 这一认识驱使我更进一步,去构建能够与威胁同步演进的防御体系。
您能否分享一个自从您开始这个迷人的职业生涯以来,发生的最有趣的故事?
在加入Straiker之前,我在Akamai工作了大约七年半。在那段时间里,发生过一次事件,一条推文导致我们在圣克拉拉的办公室关闭了一周。这是因为我们经常帮助大型零售品牌检测和阻止恶意机器人,从库存抓取器到试图买光限量版产品的黄牛。在这次特定事件中,涉及一款备受瞩目的运动鞋发布。我们的系统成功阻止了一个囤积所有库存的僵尸网络,确保真实顾客有公平的机会购买。
不久之后,那个机器人背后的操作者通过推特向我们在圣克拉拉的办公室发出了威胁,附带了一张我们办公室的图片和一条警告我们“小心点”的信息。意识到数字防御竟能引发如此强烈的现实世界反应,这感觉很不真实。在安全团队处理此事期间,办公室关闭了一周。回首往事,这提醒我,网络安全不仅仅是抽象或技术性的,它关乎大规模地保护人们和公平。那一刻更坚定了我从事这项工作的理由。
您目前正在开展任何令人兴奋的新项目吗?您认为它们将如何帮助人们?
我最新的项目是自加入我的初创公司Straiker以来所承担的。在大型、结构化的公司工作了多年之后,能够拥有快速行动、实验和从头开始构建创造性解决方案的灵活性,令人耳目一新。每一天都像是好奇心和解决问题的结合体。你看到一个挑战,就可以立即去解决它。
作为一个整个职业生涯都投入在安全领域的人,我目睹了AI如何使强大的工具对攻击者来说更易获取。但这也意味着我们可以利用AI以更智能的方式进行防御。现在,我专注于像 adversary 一样思考,以使 agentic AI 应用程序更具韧性。最有成就感的部分是看到这些学习成果通过运行时AI防护栏转化为对我们客户的真正保护,这些防护栏可以保护他们模型的输入和输出。这是一项快节奏、富有创造性的工作,老实说,非常有趣。
好的,谢谢。现在让我们转向我们的主要话题。您能向我们的读者简要解释一下,将AI集成到嵌入式设备中,可能会增加它们易受网络攻击风险的关键原因是什么吗?
AI正在为嵌入式系统带来一个全新的复杂层面。传统上,这些设备运行在可预测的逻辑上:你确切知道你会得到什么输入,以及应该产生什么输出。但当你引入AI时,这种可预测性就消失了。突然间,你面对的是从未设计在低功耗硬件上运行的模型、数据管道和推理引擎。为了让它们适配,工程师们常常不得不做出可能削弱安全性的权衡。
AI模型基于数据进行学习和适应,这意味着它们的行为会随时间推移而变化。这为攻击者创造了新的可利用入口点。他们可能以前所未有的方式操纵这些系统。例如,我们的研究团队最近发现,一个AI驱动的面部识别系统可能会被一张打印图像所欺骗,从而允许未经授权访问设备。这是一个简单但有力的提醒:当AI在边缘侧、在计算能力和保护措施有限的设备上运行时,那些小的妥协就可能变成大的漏洞。
您能否详细说明一下AI赋能的嵌入式设备特别容易受到哪些特定类型的网络攻击或漏洞影响,或许可以举一个最近引起您注意的例子或案例研究?
AI赋能的嵌入式设备面临着新旧攻击媒介的混合。一大类是对抗性输入攻击,攻击者巧妙地改变传感器看到或听到的内容,以操纵模型的决策。例如,研究人员已经证明,通过修改一个停车标志,自动驾驶汽车中的视觉模型可能会将其解读为限速标志。同样的原理也适用于医疗成像或基于语音的设备,输入中的微小扰动可能产生不安全或误导性的输出。
另一类是针对模型和系统本身的攻击。由于许多嵌入式设备在本地存储AI模型,如果未强制执行加密或签名,攻击者可以提取、窃取甚至替换它们。固件和供应链妥协是另一个担忧;一次被篡改的更新可以轻易地传播到现场成千上万的设备中。而且,由于这些系统通常从数据中学习或适应,在训练期间投毒数据可以悄悄地破坏设备的行为方式。当你将有限的计算能力、修补挑战以及AI固有的复杂性结合在一起时,除非从一开始就内置安全性,否则这些设备将变得高度暴露。
您认为AI本身具有的数据处理和学习能力,是如何无意中扩大了嵌入式设备的威胁面的?这与没有AI的传统嵌入式系统相比有何不同?
传统的嵌入式系统主要是基于规则和确定性的——你按下一个按钮,它就遵循一套预定义的指令,输出是可预测的。AI彻底改变了这一点。当你将学习模型引入其中时,你就引入了不确定性以及对数据本身的依赖性。系统现在必须解释非结构化输入,识别模式,并做出概率性决策。这种灵活性很强大,但它也模糊了什么是“安全”或预期行为的界限。
在传统固件中,攻击者需要深厚的逆向工程技能来操纵逻辑或注入代码。而对于AI赋能的设备,攻击面更广且更易触及。像修改输入数据、精心制作对抗性提示或微妙地影响模型训练这样简单的事情,就可以在不触及代码的情况下改变行为。想象一个现在接受自然语言输入的医疗成像设备或诊断助手。攻击者可以利用该接口来影响其决策。因此,我们现在拥有的不是一个可预测、受规则约束的系统,而是一个可以被引导至意想不到方向的系统,这使得嵌入式AI既更有能力也更容易暴露。
具备AI功能的嵌入式设备无疑提供了一系列高级功能和优势。您认为组织如何在利用这些优势与确保强大的网络安全措施之间取得平衡?
Get Authority Magazine Editorial Staff’s stories in your inbox
Join Medium for free to get updates from this writer.
Subscribe
Subscribe
平衡AI能力与安全性的最佳方式是从一开始就以保护为目标进行设计。安全必须在开发过程中从第一天起就构建进去,而不是在部署后附加。这意味着要及早建模潜在威胁,让你的AI系统接受红队测试,并在它们投入生产前了解它们在压力下可能如何表现。
即使是资源受限的嵌入式设备,也有有效的保障措施。加密你的模型,保护你的固件更新,并保持你的硬件信任根完整。监控你的模型如何随时间演变,并检查它们的行为是否偏离了你的预期。这些步骤确保你正在添加的智能不会以牺牲可靠性或安全性为代价。在我看来,安全必须与AI一同发展,而不是落后于它。
随着工业4.0和智能工厂的兴起,旨在促进供应链内产品安全的战略和方法是如何演变的?
在工业4.0环境中,最大的挑战在于嵌入式设备通常来自不同的供应商,这在供应链中造成了自然的信任缺口。像审查供应商、保护固件更新和维护签名软件包这样的传统最佳实践仍然至关重要,但AI引入了一个需要更深入可见性的新维度。你现在必须考虑一个“AI物料清单”或AI-BOM,它不仅追踪硬件和软件组件,还追踪嵌入在系统中的数据、模型和推理引擎。
这意味着要知道你的模型在哪里训练的,使用了哪些数据集,包含了哪些库或第三方插件,以及每个组件是如何进行版本控制和验证的。每个元素都应在整个生命周期内进行数字签名、持续验证和监控其完整性。以这种方式加强供应链安全有助于确保在边缘运行(无论是在智能工厂、车辆还是医疗设备中)的内容是值得信赖的,并且在部署前后未被篡改。
Press enter or click to view image in full size
这是我们采访的主要问题。您认为‘关于AI赋能的嵌入式设备的漏洞,每个人都应该知道的5件最重要的事情’是什么?(请为每个观点分享一个故事或例子。)
我们花一分钟谈谈未来。鉴于AI及其在嵌入式系统中实施的快速发展,您认为在未来5到10年内,这种漏洞的发展轨迹将走向何方?是否有任何新兴技术或实践可以减轻这些风险,或者可能会加剧它们?
当我思考嵌入式系统中AI的未来时,我会从非常现实的角度去考虑。最近我在医院的时候,不禁注意到我们周围所有的医疗设备。我发现自己想知道几年后这些相同的系统会变成什么样。其中许多机器很可能会内置AI,实时分析数据以帮助医生做出更快、更准确的决策。事实上,我的初级保健医生已经在使用AI摘要工具,这样他就能把更多时间花在我身上,而不是做笔记。这就是我们前进的方向——AI在边缘端,集成到我们所依赖的每一个关键系统中。但这种规模也意味着更广的攻击面和更多一旦部署就难以修补或更换的设备。其中一些设备将在其支持结束很久后继续运行,悄悄变成仍能处理敏感信息的幽灵设备。
在未来十年内,我认为业界将开发出更强的AI安全框架来指导我们如何保护这些系统,比如模型签名、持续测试和运行时防护栏。如果我们做对了,AI将使嵌入式系统更高效、更安全,甚至能拯救生命。如果我们做错了,我们就有可能让数十亿的智能设备暴露在故障或被利用的风险之下。对我来说,这个想法既令人振奋,也让我脚踏实地,尤其是当我想到下一代将成长于其中的世界时。
您是一位具有巨大影响力的人。如果您能发起一项能给大多数人带来最大益处的运动,那会是什么?您永远不知道您的想法会引发什么。:-)
如果我能发起一项运动,那就是让AI安全成为与安全和隐私同等重要的“一等公民”。从小到大,我被教导保护人们的信息和隐私是理所当然的正确之事。如今,随着AI融入我们接触的每一件事物,这种思维也需要延伸到我们如何确保其安全上。我们围绕数据保护建立了强大的框架,如PII标准和GDPR,因为我们重视人类隐私。但想想人们现在与AI系统共享的个人信息量,无论是在云端,还是在家庭、汽车或医院的设备上。这些互动理应得到同等水平的保护与关怀。
如果我们能以对待安全和隐私同样的严肃态度来对待AI安全,我们将构建出人们能够真正信任的系统。这就是我想要领导的运动,让AI安全成为日常思考的一部分,而不仅仅是工程师要解决的技术问题。
您的读者如何能在网上进一步关注您的工作?
您可以在Straiker网站上找到我的博客,并通过Linkedin与我联系。
https://www.linkedin.com/in/saikishu/
非常感谢您分享这些重要的见解。我们祝您继续取得成功并保持健康!
CSD0tFqvECLokhw9aBeRqo9/au9CydsfGizS4d2YaawK+T50jytLqVJabGXahQwgLfv6UfRuy8zOXXFh12TAgEohiX4Z1hnr3Hdrak0aewLwqQq9UhXSrQqRscfJ3dP8pi2N0+rvLptzdAnVKufWbvuiMJ6f9bg/0DWQOSUOffqTofmR7Sh5mfuOPagxdt6A
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。