主要观点
人工智能(AI)是新一轮科技革命和产业变革的核心技术,被誉为下一个生产力前沿。具有巨大潜力的AI技术同时也带来两大主要挑战:一个是放大现有威胁,另一个是引入新型威胁。
奇安信预计,未来十年,人工智能技术的恶意使用将快速增长,在政治安全、网络安全、物理安全和军事安全等方面将构成严重威胁。
研究发现:
AI已成攻击工具,带来迫在眉睫的威胁,AI相关的网络攻击频次越来越高。数据显示,在2023年,基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件数量增长了1000%;奇安信威胁情报中心监测发现,已有多个有国家背景的APT组织利用AI实施了十余起网络攻击事件。同时,各类基于AI的新型攻击种类与手段不断出现,甚至出现泛滥,包括深度伪造(Deepfake)、黑产大语言模型、恶意AI机器人、自动化攻击等,在全球造成了严重的危害。
AI加剧军事威胁,AI武器化趋势显现。AI可以被用来创建或增强自主武器系统,这些系统能够在没有人类直接控制的情况下选择和攻击目标。这可能导致道德和法律问题,如责任归属问题及如何确保符合国际人道法。AI系统可能会以难以预测的方式行动,特别是在复杂的战场环境中,这可能导致意外的平民伤亡或其他未预见的战略后果。强大的AI技术可能落入非国家行为者或恐怖组织手中,他们可能会使用这些技术进行难以应付的破坏活动或恐怖袭击。
AI与大语言模型本身伴随着安全风险,业内对潜在影响的研究与重视程度仍远远不足。全球知名应用安全组织OWASP发布大模型应用的十大安全风险,包括提示注入、数据泄漏、沙箱不足和未经授权的代码执行等。此外,因训练语料存在不良信息导致生成的内容不安全,正持续引发灾难性的后果,危害国家安全、公共安全甚至公民个人安全。但目前,业内对其潜在风险、潜在危害的研究与重视程度还远远不足。
AI技术推动安全范式变革,全行业需启动人工智能网络防御推进计划。新一代AI技术与大语言模型改变安全对抗格局,将会对地缘政治竞争和国家安全造成深远的影响,各国正在竞相加强在人工智能领域的竞争,以获得面向未来的战略优势。全行业需启动人工智能网络防御推进计划,包括利用防御人工智能对抗恶意人工智能,扭转“防御者困境”。
一个影响深远的新技术出现,人们一般倾向于在短期高估其作用,而又长期低估其影响。当前,攻防双方都在紧张地探索AI杀手级的应用,也许在几天、几个月以后就会看到重大的变化。因此,无论监管机构、安全行业,还是政企机构,都需要积极拥抱并审慎评估AI技术与大模型带来的巨大潜力和确定性,监管与治理须及时跟进,不能先上车再补票。在本报告中,我们将深入探讨AI在恶意活动中的应用,揭示其在网络犯罪、网络钓鱼、勒索软件攻击及其他安全威胁中的潜在作用。我们将分析威胁行为者如何利用先进的AI技术来加强他们的攻击策略,规避安全防御措施,并提高攻击成功率。此外,我们还将探讨如何在这个不断变化的数字世界中保护我们的网络基础设施和数据,以应对AI驱动的恶意活动所带来的挑战。
本文来自知之小站
PDF报告已分享至知识星球,微信扫码加入立享3万+精选资料,年更新1万+精选报告
(星球内含更多专属精选报告.其它事宜可联系zzxz_88@163.com)