时间: 2024-11-16 01:47:04 | 作者: 产品中心
盖世汽车讯 想象一下,一辆无人驾驶汽车突然开始偏离道路,而此种危险情况并不因传感器故障导致,而是源于一起网络攻击。黑客们可以访问车辆计算机系统核心的深度学习(DL)神经网络,从而危及乘客以及其他驾驶员和行人的安全。
要阻止此类网络攻击,第一步是要对其知道,不过,这一任务往往极具挑战性。精确识别计算系统中的深度神经网络会面临多重障碍,因为此类神经网络通常受到专利保护,因此除非进行法律干预,否则调查人员也无法访问。另一个常见的问题就在于,此类神经网络会经常更新,调查研究人员难以获取此类网络的最新迭代版本。
对此,据外国媒体报道,美国佐治亚理工学院(Georgia Tech)基于人工智能技术开发出事后网络安全取证工具AI Psychiatry(AiP),可使用人工智能在遭受网络攻击的设备上恢复特定的运行模型,并发现致命漏洞发生的位置,从而解锁各种神经网络(从无人驾驶汽车到IMDB娱乐数据库)中的恶意软件。
AiP可以在本地网络内存和训练该神经网络的图形处理器上恢复原始的DL模型,而且无需了解该模型的框架、平台或版本。相反,其采用“线索”来重构模型,或重构所有神经网络中常见的组件。
其中包括模型的内存图像中的权重、偏好、形状和层数,这是模型正常运行时,一组已被冻结的比特和字节操作信息。该款内存图像至关重要,因为其可以让AiP将该模型与被攻击后的模型作比较。
电气与计算机工程系博士生David Oygenblik表示:“此类模型通常会根据当前环境不断调整信息,因此攻击者可能会破坏特定模型正在学习的信息,因此导致攻击发生。我们得知,内存图像可以捕捉运行时间内发生的所有变化。”
一旦该模型被恢复,AiP 就可以在另一台设备上运行,让调查人员对其进行彻底的测试,以确定漏洞的具置。目前,AiP已经在不同的机器学习框架(TensorFlow和PyTorch)以及数据集(CIFAR-10、LISA和IMDB)上进行了测试,其成功恢复并重新部署了30个模型,准确率达100%。
类似AiP的工具可以让网络调查人员立即查看整个事件经过。解决网络犯罪问题不仅有助于保护用户数据安全,还能确保车辆在道路上安全行驶,从而预防未来有几率发生的犯罪行为。