我们的人工智能方法是错误的吗?

我们将使用Ai Doom人类对Alan Turing的预测,机器将有一天会控制,或者可以在不危及我们的情况下提供不同的方法仍然提供好处?

盖蒂图片社985281064 (1)

在工业自动化世界中,人工智能(AI)发挥着越来越大的作用。乍一看似乎似乎普遍存在,但这是因为AI技术在很大程度上隐藏在设备或软件中的View-嵌入来提供新功能。虽然我们可能尚未使用科幻电影中所描绘的AI,但它不再是自动化技术中的罕见功能,并且我们以增加的速度与其交互。

要了解我的意思,请考虑今天AI在自动化中使用的所有方式,例如:Advantech与NVIDIA一起带来从人工智能到云计算和边缘计算产品, Aveva的成立将人工智能纳入资产绩效管理套件, Epicor添加将AI技术融入到ERP软件中,Festo的组合ai和气动援助人类/机器人互动,惠普的加入许多企业计算产品都采用了人工智能欧姆龙的用于预测维修的新控制器应用程序,PTC添加AI到其CAD软件,西门子增加了神经处理模块的S7-1500控制器,并启用新功能工业检测无人机.这个列表并不是详尽无遗的,但它确实有助于说明在离散制造和加工行业中使用的各种技术中,人工智能应用的广度。

斯图尔特·拉塞尔在TechCrunch Sessions: Robotics + AI活动上登台。来源:TechCrunch斯图尔特·拉塞尔在TechCrunch Sessions: Robotics + AI活动上登台。来源:TechCrunch鉴于人工智能在自动化领域的日益应用,我发现Stuart Russell在最近的TechCrunch Sessions: Robotics + AI活动上发表的评论特别有趣。罗素是加州大学伯克利分校的计算机科学教授,他提醒听众,早在1951年,艾伦·图灵(Alan Turing)就在演讲中说,我们应该期待机器控制人类。

“图灵对此不确定,”拉塞尔说。“我们[即人类]输了。所以,你不得不想知道我们为什么要做Ai。我们真的想到了可能发生什么吗?如果我们更好地使AI更好,我们会失败;因此,我们必须采取具体步骤[防范]。“

尽管罗素关于人工智能的评论并不完全是悲观的,我们仍然可以阻止图灵警告的结果,但他确实指出,我们目前所走的道路并不能阻止图灵的预测。

“我们对AI的方法根本误解了;拉塞尔说,我们已经想到了错误的方式。““AI的标准模型是我们在20世纪40年代和20世纪50年代从机器智能思想借来的。这个想法是AI是一个创建的理性代理,以实现目标。但是机器没有目标,所以我们必须插入它们。这里的问题是我们不知道如何完全确定目标以避免问题。“

他提醒观众无数的故事,说明人们往往无法充分考虑他们的计划的后果。例如:被一个精灵满足了三个愿望,最后一个愿望是由于意想不到的后果取消前两个愿望;或者迈达斯国王希望他摸到的所有东西都变成金子,但当他摸到的所有食物都变成金子时,他却差点饿死。

罗素在TechCrunch活动上为他的《人类兼容:人工智能和控制问题》(Human Compatible: Artificial Intelligence and the Problem of Control)签名。来源:TechCrunch罗素在TechCrunch活动上为他的《人类兼容:人工智能和控制问题》(Human Compatible: Artificial Intelligence and the Problem of Control)签名。来源:TechCrunch罗素说,为了抵消人工智能的负面潜力,我们必须在设计人工智能应用时始终对人类感恩赖德。“不能让机器假设它拥有完整的目标。它必须知道,它并不知道整个目标。”“机器必须有义务优化人类的偏好,这样,当机器解决问题时,人类的结果就会更好,而不是更糟。”

罗素警告,达到这一点,艾丽将不是一项简单的任务。“需要做大量的工作来取代标准的AI模型。我们使用的所有技术和定理都需要重新创建AI算法,“他说。

罗素建议,一个好的开始是要意识到我们不需要通用智能的所有情况。换句话说,我们已经配备了人工智能的应用类型可能不需要这种智能。然后,我们应该把重点放在把申请限制在“一个严格的决定和行动的盒子里,”他说。

在IIoT