1. 首页
  2. 网络安全

骇客犯罪 AI 化!在暗网里,骇客可以用 AI 创造我们的「分身」

骇客犯罪 AI 化!在暗网里,骇客可以用 AI 创造我们的「分身」

今年 2 月,卡巴斯基实验室的欺诈侦查小组捣毁了一个名为「创世纪(Genesis)」的暗网市场。该市场出售「数位身份(网路用户的电子身份讯息)」,每条讯息起价 5 美元(约 150 元新台币),最高可达 200 美元(约 6000 元新台币)。

出价取决于所购买讯息的价值 — 例如,一个包含用户银行登录讯息完整配置文件的数位遮罩,会比一个浏览器指纹的价格要高的多。

註:数位遮罩是指用户设备指纹(设备 ID、硬体、操作系统、IP 位址、萤幕解析度、韧体版本、浏览器、浏览器外挂、时区、GPU 讯息、WebRTCIPs、Tcp/IP 指纹、cookie 等)及其个人行为属性(在特定网上商店花费的时间、与兴趣相关的行为、滑鼠/触摸屏行为等)的唯一组合。

骇客们通常会用恶意软体攻击他人电脑,并且找到并复制这些个人数据以及其他个人身份识别讯息。

骇客盗取资讯后,用 AI 造一个虚拟的「你」

「在这一点上,骇客们已经能够收集、管理和维护他们所侵入的用户的大量数据,」一家基于机器学习的技术公司的产品经理 ImranMalek 说,「这意味着,如果你的笔记型电脑被骇客入侵,骇客的战利品不一定是被入侵的电脑,而是你电脑上的所有数据,包括所有的身份识别讯息。」

有了这些讯息,透过特定浏览器和代理伺服器来模仿真实用户的活动,再加上盗取的网路用户的帐户讯息,攻击者就可以自由地以该用户的名义进行新的、可信的交易,包括使用信用卡消费。

卡巴斯基实验室(Kaspersky Lab)全球研究与分析团队(Global Research & Analysis Team)高级安全研究员 SergeyLozhkin 表示:「我们看到了一个明显的趋势,全球范围内的信用卡欺诈行为日益增多,尽管该行业在反欺诈措施方面投入了大量资金,但这种数位孪生(Digital Twins)很难被发现。」

用 AI 对抗 AI!人工智慧是打击犯罪的武器

在打击「暗网」犯罪的过程中,人工智慧正成为一把利器。

MIT 在今年 5 月 13 日的 一篇文章 指出,暗网犯罪有一些特点可以被追踪。

消失速度极快是暗网犯罪的一大特徵,因为它们可能遭到其他骇客攻击、安全部门突击搜查,或者本身就是被设计成一个「退出骗局」—— 顾客为未完成的订单付费后,该网站会故意关闭。

林肯实验室(MIT Lincoln Laboratory)人工智慧技术与系统集团(Artificial Intelligence Technology and Systems Group)研究员 CharlieDagli 就表示:「暗网交易市场的弹出式特性,使得跟踪参与者及其活动变得极其困难。」

卖家和买家在网路的多个层面(从表面到黑暗)以及在黑暗网络论坛上进行联繫。「这种网站之间的不断切换,现在已经成为暗网市场运作方式的既定组成部分。」Dagli 说。针对这一情况,林肯实验室正在开发新的人工智慧软体工具来分析表面和暗网数据,他们训练机器学习演算法来计算不同论坛上用户之间的相似度,自动形成人物角色连结。

该演算法首先从一个论坛 a 的用户那里获取数据,併为每个用户创建一个着作权模型。然后,将论坛 b 上用户的数据与论坛 a 上的所有用户模型进行对比,该演算法寻找简单的线索,比如在两个论坛中一个叫「sergeygork」,另一个叫「sergeygorkin」,或者把「joenightmare」拼写为「joeknight」等等。

演算法关注的另一个特性是内容相似性。

「因为很多内容都是复制贴上的,所以类似的话可能会来自同一个用户,」Dagli 说。然后,系统查找用户网路中的相似点,即用户交叉的区域,以及用户讨论的主题。然后将配置文件、内容和网络特性融合为一个输出:两个论坛中的两个人物角色代表同一个现实生活中的人物的概率,这个配对正确率高达 95%。

这个项目在实际应用中取得了很好的效果,林肯实验室参与开发了美国国防部高级研究计划局(DARPA)的 Memex,曼哈顿地区检察官 Cyrus Vance jr. 在一份提交给美国众议院的书面证词中称,仅在 2017 年,他的办公室就使用 Memex 工具搜索出超过 6000 名人口贩卖嫌疑人。

但骇客也利用机器学习,进行 AI 的对抗性训练

安全部门及相关公司利用机器学习打击暗网犯罪的同时,骇客也开始利用机器学习进行对抗和犯罪。

比如上文中提及的「创世纪」,骇客利用「数位孪生」作为数位面具模仿真实的用户,并选择网路安全技术来通过欺诈检测协议。「如果一边是机器学习,那么另一边也是机器学习,」Malek 说,「现在,骇客和坏蛋们正在实施他们自己的方案,作为一种对抗性的机器学习训练。」

另外,早在 2017 年的 DEFCON 大会上,安全公司 Endgame 也披露了 OpenAI 框架可以被用来定制恶意软体,用以创建安全引擎无法检测到的恶意软体。其原理是自动改变一部分被认为是恶意的二进制文件,使其在防毒软体中看起来是值得信赖的。

同样还有网路犯罪自动化(Cyber crime Automation),有一种叫做 Hivenet 的智慧殭尸网路。他们就像寄生虫一样潜伏在人们的设备中,自动决定谁是下一个使用受害者资源的人。

而这类似于这种恶意欺诈和攻击的软件,多数是在暗网中发佈的。根据英国虚拟专用网络(VPN)比较服务发佈的暗网价格指数,从用于攻击知名品牌的即时钓鱼网页到密码破解工具、WiFi 网路骇客程式,以及各种功能的骇客工具,有一些只需要 2 美元(约 60 新台币)就可以买到,其中就包括一些用人工智慧生成的订制恶意软体。

开发 AI 时,需要评估负面效应

人工智慧作为一项技术本无善恶之分,但是如同网路,除了我们日常可以接触到的表面,还存在一个「暗网」一样,人工智慧也可能被心怀不轨的人利用,作为一个犯罪工具。

而对于 AI 从业者来说,也许以后在进行开发时,不仅需要考虑技术本身,还需要评估是否存在随之而来的负面效应,以决定这项成果是否适合发佈或者开源。

原创文章,作者:奈落,如若转载,请注明出处:https://www.zx116.com/?p=410

发表评论

电子邮件地址不会被公开。 必填项已用*标注