来自 安全 2021-06-09 02:02 的文章

高防_建筑安全网防护网_3天试用

高防_建筑安全网防护网_3天试用

人工智能宣言第1部分:理解基于人工智能的安全的风险和伦理含义我们生活在一个技术日新月异的时代,我们生活的方方面面几乎都依赖于计算和连接的设备。网络物理系统使用的指数级增长已经改变了工业、政府和商业;更重要的是,创新速度没有放缓的迹象,特别是随着人工智能(AI)的革命将通过越来越强大的数据分析、预测、安全和自动化工具进一步改变日常生活。1就像过去的极端创新浪潮一样,随着这一次的高潮,关于道德使用和隐私控制的争论可能会激增。到目前为止,ddos云防御价格,人工智能与社会的交集带来了一系列独特的伦理挑战,其中一些挑战已经被期待和讨论了很多年,而另一些则刚刚开始显现。例如,学术界和科幻小说作者都曾长期思考超智能机器的伦理含义,但直到最近,我们才发现现实世界的问题才开始浮出水面,比如自动化决策工具中的社会偏见,或自动驾驶汽车做出的道德选择。2在过去的二十年里,安全团体越来越多地求助于人工智能和机器学习(ML)的力量,以获得许多技术利益,但这些进步迫使安全从业者在这一过程中应对一定数量的风险和道德困境。作为网络安全领域人工智能和人工智能发展的领导者,黑莓赛伦斯是辩论的核心,并热衷于推动人工智能的使用。从这个有利的角度,我们能够密切关注人工智能的技术进步,同时从风险专业人士的角度观察人工智能的更广泛的社会影响我们认为,网络风险社区和人工智能从业者有责任不断评估人工智能的使用对人类的影响,无论是在总体上还是在安全协议内,我们必须一起找到方法,在所有基于人工智能的产品和系统中建立伦理考虑。本文概述了人工智能的一些早期伦理维度,并为我们自己和其他人工智能从业者的工作提供了指导。基于计算机的决策伦理人工智能在实际任务中失败的可能性最大。当这项任务是在下棋时,失败的后果是微不足道的,但当人工智能被赋予驾驶汽车或驾驶载有500名乘客的大型喷气式飞机等任务时,风险就越来越大。在某些方面,这些失败的风险与那些依靠人类决策操作的既定技术没有什么不同。然而,人工智能决策方式的复杂性和缺乏透明度加剧了人们对人工智能运行系统的担忧,因为它们似乎更难预测和理解。此外,这项技术被广泛应用的时间相对较短,再加上公众对这些人工智能驱动系统究竟如何运作缺乏了解,ddos为什么难以防御,也增加了人们的恐惧因素。计算机做出可能产生致命后果的决策的新奇性让人们感到害怕,而这种恐惧很大程度上是围绕着这些系统如何平衡道德的关注点。考虑一下一个现实世界的例子:社会已经习惯于由人为错误或机械故障导致的车祸,尽管在法规和技术方面进行了改进,以减少车祸固有的危险,但我们现在毫无疑问地接受了它们作为驾驶总体风险的一部分。另一方面,由人工智能故障引起的事故比传统类型的人为或机器故障引起的公共警报要大得多。以第一个已知的无人驾驶汽车撞死一名行人的案件为例,4, 8计算机似乎确定汽车将要撞到行人的时间太晚了,但它是否可以将汽车驶离公路以避免碰撞?计算机比行人的安全更有利于乘客的安全吗?如果是两个行人呢?如果他们是孩子呢?如果计算机面临着两个不同行人中的一个发生碰撞的选择呢?当面对这种瞬间的决定时,人类驱动程序与基于人工智能的软件有什么不同?对这起事故的部分警讯也源于人们担心其原因会影响到其他自动驾驶车辆以及与人工智能相关的更广泛的活动。例如,道路状况是否使这起事故成为人类或计算机系统无法避免的事故?是这个特定导航系统的人工智能的缺陷还是所有基于人工智能的导航系统的缺陷?无人驾驶汽车涉及的人工智能技术非常复杂,比汽车的机械部件更难测试。在这项技术在全球推广之前,我们是否有足够的知识来量化风险?狮航610航班的致命失事提供了另一个有益的例子。坠机似乎是由一个机械传感器错误引起的,导致飞机的计算机系统迫使飞机机头朝下。人类飞行员似乎在失去控制之前反复将机头向后拉。9事实上,这起事件涉及到一台电脑做出错误的决定,在线ddos防御,并使飞行员失去控制,这一事实引发了人们对纯粹机械故障的担忧。如果这是引擎故障的结果,悲剧也会是一样的,但它会在代理和过失方面引起不同的伦理考虑。此外,与复杂的人工智能系统相比,我们大概能够更好地量化机械故障中重复发生事故的风险。这些例子突出了确保依赖人工智能的系统得到良好测试和构建的重要性,这些系统的最终用户能够充分评估风险。10这在实践中意味着什么在很大程度上取决于人工智能的使用目的。需要仔细注意特定任务失败可能造成的潜在危害,以及系统的复杂性,以及这种复杂性在多大程度上增加了对失败概率估计的不确定性。风险专业人士将需要考虑在透明度和有效性、透明度和隐私性之间,以及在人工干预的可能性和人工智能决策的总体有效性之间的权衡,所有这些都取决于人工智能在任何给定环境中的上下文使用。隐私和同意近年来人工智能的迅速采用和广泛使用也引起了相当多的隐私问题。人工智能系统越来越依赖于为培训和测试目的而摄取大量数据,ddos假ip防御,这不仅鼓励公司维护可能遭受盗窃的大型数据库,而且还鼓励公司积极收集过多的个人信息,以建立这些数据库的价值。5, 10它还鼓励人们以超出数据所有者最初同意的方式使用这些数据。事实上,在复杂的人工智能系统中,可能很难预先知道任何给定的数据在未来将如何使用这些担忧与捕获数据的全面扩散和无限期存储有关,这些数据的百分比越来越高,就像从物联网(IoT)等网络物理系统排放的废气一样。11, 12人工智能从大型数据集获得最佳价值这一事实成倍地加剧了这些担忧,并且越来越能够检测到能够重新识别被认为是匿名的数据的独特模式。网络攻击者暴露这些本应受到保护的大型数据集的能力不断增强,这进一步加剧了人们的担忧。这一趋势与传统的基于签名的安全解决方案的效率不断下降密切相关。这些担忧为数据隐私法增加了新的层面,网络安全和风险领导者在帮助组织掌握人工智能时必须考虑这些法律。在这种情况下,好消息是,cc可以防御,事实上,如果作为公司整体分层防御策略的一部分安装和正确配置,人工智能技术可以用来增强隐私与其他分析工具相比,人工智能通常更适合使用和学习适当的匿名数据。特征哈希,当用于训练机器学习系统的数据首先通过哈希算法改变时,13, 14是一个不可逆的转换,它使得数据对于人类分析毫无价值,但是对于模式检测而言,人工智能系统仍然可读。特征散列可以通过减少数据的维数使基于人工智能的分析更有效,从而使处理过程比其他方法更能保护隐私偏见和透明度回到伦理问题,人工智能系统通过歧视性或任意性决策(通常是由于使用有限的数据集进行培训而导致的)加剧社会不平等的可能性也成为最近公众关注的一个问题。4, 10随着政府机构和法院越来越多地转向基于人工智能的系统来帮助和提高人类的决策能力,包括改变生活的决策,如刑事判决和保释决定,很明显,现有的社会偏见可能会通过算法或这些算法所依赖的训练数据无意中融入到基于人工智能的系统中。这也变得越来越明显,这些人工智能系统中的一些是故意偏袒,以掩盖武断或不公正的结果背后的客观和科学严谨。在佛罗里达州布劳沃德县,一项由亲公众组织(Pro-Publica)进行的一项基于人工智能的风险评估分数的研究说明了第10点,第15点