来自 DDOS 2022-05-26 13:30 的文章

云防护_ddos清洗中心_快速解决

云防护_ddos清洗中心_快速解决

人工智能正在倾听,哪里cc防御好,这是不可阻挡的——但我们都必须保护儿童的隐私

"我们每天要思考的事情太多了,我们要学习的新东西太多了。新的风格、新的信息、新的技术、新的术语……但是,不管时间流逝多少,不管在此期间发生了什么,有些事情我们永远无法被遗忘,记忆永远无法抹去。它们永远与我们同在,就像一块试金石。"——村上春树,"岸上的卡夫卡"

根据微软最近的一份报告,亚马逊的Alexa和苹果的Siri等数字助理用户继续将便利性置于潜在隐私问题之上。百分之八十的人对这些设备提供的效用表示满意;只有一半的人(41%)担心他们获取的数据的安全性。正如我之前所写的,这是我们每个人在数字时代都必须权衡的权衡,成功防御ddos,没有任何正确或错误的答案。但有知情和不知情的决定,我怀疑这些调查者没有正确地考虑他们的数据如何输入到他们的虚拟助手可以使用。一旦你的数据被引入到算法中,所有权链就会被打破,你就会失去控制——对孩子来说,这是一种不公平的负担,金盾防火墙可以防御多少DDOS,同时也是一种潜在的安全风险。

即使你信任收集你的数据的公司以及分析和应用它的算法,也会担心黑客会访问你的数据。我们可能理解一个犯罪黑客集团想要我们的信用卡号码和身份信息,路由器防御ddos,但没有人能够确定利用AI分析我们的行为、我们的生物特征数据和其他敏感数据会造成什么伤害。国家行为者可以利用这些细节窃取机密、干预选举、操纵或勒索官员。镇压性国家已经在使用先进的黑客工具打击持不同政见者和其他团体。

仍然有直接的理由对数字助理保持警惕。现有的商业模式取决于其准确性和智能性的持续改进。输入的数据被吸收到机器的学习算法中,帮助人工智能避免过去的错误并做出更好的预测。在一个循环中,消费者收集技术的好处,同时不断为其改进提供材料。在上面引用的微软报告发布前后,有消息透露,亚马逊有一个专门的员工团队,他们会收听Alexa录制的语音,以便对软件进行培训,使其性能更好。亚马逊的回应是强调,它只记录"非常小的样本",以改善消费者体验。然而,令人不安的是,即使是选择不让录音反馈到系统中的用户也可能会受到这种手动审查过程的影响。本月,Facebook还承认向承包商支付了监听和转录Messenger对话的费用。然后苹果公司承认,人类雇员正在听Siri录音,防御ddos收费,据报道其中包括发生性行为的用户。换句话说,你给数字助理的信息不仅仅是进入人工智能的黑匣子。它很可能被其他人重放,更不用说以一种可以追溯到你的方式。

我们更关心的是人类获取我们的数据,但算法本身呢?这个问题并不局限于像数字助理这样的一类特殊产品——它涉及到关于人工智能的更广泛的道德考虑。我们交给智能机器的信息可能会以离散束的形式进入,但随后它们就不再是可识别的,被网络所包含。这不再仅仅是一个赋予消费者数据所有权的权利和法规的问题。今天,我们的信息一直被纳入复杂的算法中,这些算法甚至对构建它们的工程师都不再透明。

我们的单个数据点有助于加强和扩展这些系统,但在这个过程中,我们失去了对它们的所有权。在人工智能的情况下,没有办法改变一个人的想法,收回对自己数字财产的占有权。应该强调的是,这些考虑并非纯粹是哲学上的。以欧盟去年通过《通用数据保护条例》(GDPR)为例:实施过程中立即出现了非常明显的问题。如果有关的数据被纳入一个人工智能的学习过程中,监管者如何实施"被遗忘的权利"?我们也可以考虑不同群体的具体含义,例如在这一技术中成长的一代。正如《连线》必读文章中所描述的,他们将面临上一代人从未遇到过的困难。首先,他们将拥有大量的数字记录,记录他们从童年开始的生活,每一次面试和贷款申请都会跟在他们后面,更不用说未来的日期了。

数字助理和其他人工智能不会向儿童或青少年解释人类可能耐心地阐明的长期数据影响。他们捕获信息时对这些考虑因素漠不关心。然后,他们收集的信息可以被插入算法中,从而决定重要的社会结果。例如,一名学生在录像中作弊被抓到,可能会因为这一失误在成年后继续被人们记住并受到惩罚,从而引发学业不良和进一步违规的恶性循环。据推测,我们希望建立一个让儿童有空间犯错并从中学习的社会。然而,通过将巨大的权力交给人工智能,我们为相反的情况搭建了舞台:在这个世界上,过去的错误成为个人记录上不可磨灭的印记,限制了自我改进的机会。