人工智能ai电影郭敬明_电影剧情终将实现,“AI”挟持的时代即将到来

信息变革

人工智能ai电影郭敬明

数字信息技术使您能够随时随地访问所需的信息。 这对我们接触的所有领域都有很大影响,从工业制造到商品和服务的消费。 如今,数字信息技术重新定义了人们交流的方式,也重新定义了寻找合作伙伴的方式。 消费者、生产者和供应商、工业家和工人、服务提供者和顾客、朋友和伙伴之间的重新定义关系已经在社会上发生了很大变化。

技术革命下一个潮流的前沿是人工智能或人工智能。 20世纪后半期的数字革命给我们带来了信息,使我们能够迅速做出决策。 从根本上说,决策方法也在我们身边改变。 人工智能通过自动化决策过程来改变这一点,保证了更好的定性结果和效率。 人工智能游戏系统在打败世界象棋冠军加利加斯帕罗夫和世界冠军柯西的成功中证明了人工智能的稳定性,证明了当前决策在计算潜在未来行为预测方面优于人类。 人类决策的局限性

人工智能ai电影郭敬明

不幸的是,在决策过程中,人工智能取代了剥夺人类行为透明度、可解释性、可预测性、可教育性和可审计性的不透明度。 人工智能的逻辑不仅对对方来说是未知的,对程序的制作者来说也是未知的。 随着AI作出我们的决策,决策的透明度和可预测性可能会成为过去。

想象一下。 在法庭上,过去的决定使法官服从先例。 一致性在司法、政府、关系和道德方面至关重要。 AI没有遵守先例的法律要求。 人工智能的决策对人类来说可能是真正的假设。 因为人们经常有有限的直接或间接的经验,机器可以得到大量的数据。

人长期筛选不出他们的经验,机器很容易筛选出来。 人类排除和决策无关被认为不重要的因素,机器什么也不排除。 这可能是决策不符合人类理解的规模。 随着企业和社会迅速转向人工智能,人工智能实际上可能会在比人长的时间范围内做出更好的决定,具有短距离背景的人会感到困惑、沮丧,大家都会相信对方。 机器决策的冷漠

人工智能ai电影郭敬明

理解基于人工智能的决策是很重要的。 人的决策可以通过一组明确的规则,或者只基于结果主义,或者通过组合协会来导出。 人类有选择地决定哪些信息与决定相联系。 因为缺乏选择性,机器参考了作出决定时不重要的要素。 证明这一点的很多例子都是由于微软关闭了聊天机器人Tay,在推特上开始发表煽动性的反犹太发言,在波士顿大学的研究中发现了“上司”、“建筑家”和“金融家”的性别关系的男性、女性这样的“护士”和“接待员”。 这可能由数据来证明,但与我们的显着性值相反。 当数据驱动的过程依赖于这些AI算法的输出时,会产生偏见决策,通常违背我们的道德价值观。 人工智能的道德

人工智能ai电影郭敬明

ProPublica于2016年提供了这方面的明显证据。 美国法院使用的计算机程序误标黑人被告,他们在两年内没有犯罪行为,成为罪犯的概率有可能是白人被告的两倍。 一个人做同样的事情,那个人就叫种族歧视。 AI暴露了我们的显性价值观和集体经验之间的分裂。 我们的集体经验并非永远不会改变。 他们受到重要的社会决策的影响,这些决策受到我们道德价值观的指导。 我们是否希望在机器上留下决策过程,只能从过去学习,而不能形成未来?

考虑到人工智能在医疗诊断、金融服务和就业筛查等领域的应用规模,单一因素的结果是巨大的。 由于算法依赖于许多功能来提高可预测性,因此管理这些决策的逻辑越来越难以理解。 因此,我们失去了决策的整体控制,放弃了一切有利于过去观察的原则。 在某些情况下,这是不道德的、违法的和不公平的。 算法公然忽视当前无罪推定和机会平等原则。 机器、人、社会

人工智能ai电影郭敬明

一贯性对道德和诚实至关重要。 自数个世纪以来,我们的决定必须遵循高于统计准确度的标准,相互信任、减少危害、公平和公平的共同美德已经被证明是任何推理系统生存的重要基础。 如果没有内部的逻辑一致性,人工智能系统就没有鲁棒性和说明责任,是产生社会信任的两个重要措施。 道德和逻辑推理之间的分歧阻碍了对数据驱动决策的理解批判性地参与决策过程的能力。

这是我们生活的新世界,复杂决策被反思性的选择削弱,观察结果加强了复杂性,道德性降低了实用性。 今天,我们的道德观提供了决策框架。 我们的决定很快可能会怀疑我们的道德规范。

大家都在看

相关专题