来自 CC防护 2022-05-23 15:30 的文章

ddos防火墙_苍云盾立_怎么办

ddos防火墙_苍云盾立_怎么办

我们是否应该以比人类更高的标准来控制机器?

本月,来自不同学科的一个有趣团体聚集在Avast的CyberSec&AI连接虚拟会议上,讨论AI偏见。此次活动展示了来自世界各地的顶尖学者和技术专业人士,他们研究了人工智能隐私和网络安全方面的关键问题。

小组会议由风险资本家萨米尔·库马尔主持,谁是微软内部风险基金M12的董事总经理,包括:

该小组首先探讨了人工智能偏见的性质,这种偏见可以用多种方式定义。沙基说,首先是"算法不公正",即明显侵犯人类尊严。他举了一些例子,从强化机场安检(据说是随机挑选人员进行额外检查)到预测性治安。人工智能的部分问题在于偏见并不是一个简单的参数。事实上,根据弗雷利克的说法,偏见有两大类:社会偏见和技术偏见,阿里云防御ddos攻击,"这两种偏见相互影响,在普遍接受的社会习俗中形成背景,"她在演讲中说这些习俗也会随着时间的推移而演变。"评估这些习俗的一部分与法律背景有关,Wachter提醒专家组这一点。"看看美国平权行动的进展,"她说例如,现在我们在医学院有了更好的公平性,我们就不需要那么多了。"Wachter说,"技术偏见更容易纠正,比如在训练人脸识别模型时使用更多样化的人脸集合。有时,在评估技术时,cdn高防和高防ip,我们不得不降低我们的期望值。"

当然,定义偏差的部分问题在于将相关性与因果关系分开,这在讨论中被多次提到。

另一个问题是创建人工智能算法的团队的多样性。弗雷利克说:"如果你不雇佣不同的人,你会得到你所付出的。"但多样性不仅仅是性别或种族,高防cdn哪里好,还有不同的专业领域和背景。瓦赫特说:"作为一名律师,我在法律框架内思考,但我不能提供技术建议。需要跨不同背景进行讨论。我们可以用非常不同的方式使用同一个词,并且必须创造一种共同的语言来有效地合作。"

理解人工智能偏见的另一部分是比较人工智能输出中隐含的道德标准。库马尔问我们是否应该以比人类更高的标准来控制机器。Sharkey说"机器并没有比人类做出更好的决策,防御DDOS的产品,更多的是这些决策对我个人的影响。"Wachter觉得算法的标准比人类低。但还有另一个问题:"算法可以掩盖种族主义和性别歧视行为,可以排除某些群体而没有任何明显效果。这可能是无意中发生的,因此更加危险。"考虑到她的法律背景,她建议这是一个我们可以应用新法规来测试这些意外后果的地方。

最后一个注意事项与解释人工智能建模的结果有关我们必须能够解释这些结果,"古普塔说但是,模型的改进速度远远快于解释的质量,特别是对于深度学习模型。"其他小组成员同意并提到,有必要明确定义培训和测试集,以提供最合适的背景。

该小组是赛博安全与人工智能互联年会的一部分,这是一个关于人工智能的年会,安全狗能防御ddos攻击吗,由Avast共同组织的机器学习和网络安全。要了解更多关于此次活动的信息,并了解如何访问Garry Kasparov(国际象棋大师和Avast安全大使)等演讲者的演讲,请访问活动网站。

在我们的播客Avast黑客档案的第八集中,安全专家Dave Aitel揭开了NSA的神秘面纱,解释了"零日"一词的谬误,"并告诉Avast CISO Jaya Baloo是什么让他走上了黑客的道路。

在我们播客Avast hacker Archives的第七集中,Avast CISO Jaya Baloo与PGP电子邮件加密包的创建者、长期的隐私和人权活动家Phil Zimmermann交谈。

我们深感悲伤地分享了Vince Steckler,我们的前Avast首席执行官兼Avast传奇人物于周二在一场悲惨的车祸中去世。