保护人工智能与机器学习应用和数据
Share:
随着商业和工业组织日益互联,人工智能(AI)和机器学习(ML)技术正逐步融入主流系统、设备及关键应用。当前的实际应用案例已经广泛覆盖多个领域,从语音识别、恶意软件检测、质量测试,到涉及人类安全的关键应用,如驾驶辅助系统或医学诊断等。
对AI和机器学习的威胁
对AI应用的攻击,甚至简单的故障或无意的操作,都可能带来危及生命的后果。在医疗领域,不正确的分类可能导致错误的诊断,进而采取不合适的治疗。此外,AI通常基于敏感的患者数据进行训练,因此数据的保密性和患者的匿名性至关重要。这些数据可能是CT或MRT扫描图像,或是患者病史信息,一旦AI生成的数据泄露,可能对患者产生严重的不良影响。
在工业领域,攻击者可能篡改机器学习的训练数据。哪怕是看似无害的改动,比如更改单个像素的颜色,也可能产生重大影响。这些被操纵的特性可能会渗透到训练后的模型中,而人类观察者可能无法察觉。同样地,攻击者可能篡改训练数据的预处理、训练参数,甚至是完成的训练模型,以导致系统在后续阶段出现错误,或输出不正确的分类结果。
保护机器学习生命周期
机器学习生命周期中的攻击面非常广泛,防止数据和算法被操控至关重要。在机器学习生命周期中,任何数据或算法的篡改都可能产生灾难性后果。此外,包含在其中的敏感数据及知识产权的机密性也必须得到保护,例如训练数据可能暴露某个组件的内部工作机制。在这一方面,即便是AI应用本身或关于特定训练参数的重要性数据,都可能构成知识产权。