商业和法律追随者和传福音者错误地认为它将引导我们走向更大的平等。 可悲的是,它导致我们唯一无情的平等是算法歧视中的平等。这是由于算法偏见的存在而发展起来的,通过这种偏见,分析的缺陷和法律影响被序列化和标准化,这在无法预测的大规模上系统地违反了数据持有者、个人和公民的信息自决. 他们无法逃脱,因为他们可以诉诸于捍卫自己权利的所有行为者都在这些技术的工业插入中受到交叉利益的侵犯,因此没有可能保护他们的进步。 . 与迄今为止使用的任何其他数据处理技术相比,人工智能会产生更
具侵入性、侵入性、羞辱性、恐吓性、纵容性和 電話號碼列表 性的影响,并且应该将其描述为具有修复数据的权利,这是一种风险活动。.. 另一方面,来的问题是,当非人工智能被人工智能取代时,人们对这项技术的权力地位和控制权也在关键的插入领域被削弱,例如获得住房、融资、消费品和服务,或教育、健康或司法。 之所以如此,是因为面对不是真正的人工智能,启用一项声称尚未实现的技术的结构影响,尽管它可能在未来出现,但并未得到研究。这里最严重的影响是投射影响,因为一旦某件事被承认,它的插入很少会倒退,特别是当那些将这些特洛伊木马插入指定结构的人战略性地关注未来在它们身上构建不可约的操
作怪物时,因此围绕着它们所产生的新霸权现状,没有任何变化,协同作用继续产生。这已经发生在世界许多地方的司法、安全、教育、卫生等领域。 今天控制人工智能的人象征性地掌握着权力,不仅是处理权,而且还直接控制着数据和拥有数据的人的命运。因此,除了对个人数据保护和数据安全审计的影响研究外,还应对这些技术过程中涉及的参与者进行详细研究,以验证可能存在的不相容利益,这可能会破坏这些过程在我们生活的关键领域插入颠覆性的技术变革。目前,人工智能与其承诺为我们已经两极分化的星球带来更大平等的承诺相反,