人工智能和机器学习标准的工作开始

为了为人工智能和机器学习标准的发展扫清道路,安全人工智能行业规范小组发布了一份报告,强调了该领域的主要挑战。

盖蒂图片社1202271610

虽然广泛使用人工智能(AI)和机器学习在制造业中可能还需要几年的时间在美国,这两种技术都开始取得进展在工厂的地板上没有。这些技术的潜在应用程序运行域前所未有的海量数据通过连接的传感器和设备,使经过适当训练的人工智能算法能够帮助优化生产流程。

然而,作为一项相对较新的技术,人工智能目前缺乏标准,这可能会阻碍其在工业上的进一步应用。特别是,缺乏标准可能会导致运营商在实施时遇到困难,与其他系统缺乏互操作性,对最佳实践缺乏了解,甚至可能存在网络安全漏洞。

这就是为什么标准的发展经常发出新技术,开始成熟。标准不仅通过超速创新帮助供应商 - 他们还向最终用户发出信号,即基于众多参与者在标准的开发过程中商定的标准,该技术已经有效。简单的说,标准降低了成本,传达了重要信息,提高了可靠性。

ETSI安全人工智能行业规范组(SAI ISG)是目前第一个致力于安全人工智能的组织,最近发布了一份报告,描述了主要障碍,重点是机器学习和与机密性、完整性相关的障碍,以及技术生命周期中每个阶段的可用性。此外,该报告还研究了人工智能面临的更广泛挑战,如偏见、伦理和滥用的可能性。

“关于人工智能伦理有很多讨论,但没有关于确保人工智能的标准的讨论。然而,它们正成为确保基于人工智能的自动化网络安全的关键。”“第一份ETSI报告旨在对确保人工智能所面临的挑战进行全面定义。与此同时,我们正在研究威胁本体,研究如何确保人工智能数据供应链的安全,以及如何测试它。”

在该报告中,机器学习的生命周期被分为八个阶段,每个阶段都有其独特的风险:数据获取、数据管理、模型设计、软件构建、培训、测试、部署和更新。

在数据采集和策序阶段,主要问题是完整性。换句话说,当从多个源或多种格式集成数据时,测量参数或数据结构中的不束可能会产生导致差或甚至危险的决策导致的适应机器学习算法。此外,该报告还考虑了恶意演员可能故意毒物数据在运作中播种数据的可能性。

虽然模型设计和软件构建阶段被确定为相对安全的,但报告发现类似于或更严重的安全问题可能在机器学习算法的训练阶段出现自己。

例如,如果攻击者使用合成输入数据来增强训练数据集,从而诱使算法输出包含原始训练数据信息的标签,那么训练数据集的保密性就会受到损害。这种类型的数据泄露可能涉及商业相关信息,如知识产权或敏感的人事信息。

目前,未提升这些问题的明确标准已经提出,但通过澄清AI和机器智能周围的主要问题,SAI IG希望该过程可以开始。

完整的ETSI SAI IG报告可以在这里查看。

更多的网络安全