人工智能有哪些危险?
发布时间:2018-10-26 作者:jason
问题是一个广泛而模棱两可的问题,所以为了回答这个问题,我已将其分解为子问题。
你的意思是现在还是未来的危险?
认可机构目前的危险与任何可能的人工智能的未来危险之间存在很大差异。目前的危险只能通过阅读报纸找到。一些失业,一些自驾车事故的风险,一些隐私侵犯,一些机器人的工业事故。
未来的危险更加开放。人工智能正在以指数速度增长,并被认为能够在未来几十年内超越人类智慧。
鉴于人工智能比人类更聪明的不可预测性,人们正在讨论他们可能造成的危险。我认为AIs反映了构建它们的社会和世界的状态,并且它们将始终是安全,富有成效的代理,因为我们将继续以这种方式构建它们。
AI是特定代理还是一般代理?
特定的代理人可以完成一项任务,比如下棋或开车。它们比一般代理更容易预测,因此可能更安全。
另一方面,由于过于复杂,一般代理的失败可能是简单的故障。这并不意味着它将超越其编程并成为其他东西。
这里的危险可能比一些人想象的要少。他们错误地认为情报能够做任何事情,但实际上这只是一种可能的情报,而不是最有用的情报。
AI是被动观察者还是精神或身体上活跃的代理人,即机器人?
被动观察者不太可能遇到麻烦,因为他们除了计算之外什么都不做,或者他们在人类批准之前不采取行动。一个例子是在人类授权之前不会发射导弹的无人驾驶飞机。
一个更活跃的代理商,如购物或家政机器人,可以很容易想象。在人类环境中放松它会有一些风险。这种机器人可以像其他设备一样安全。
没有身体的软件AI仍然可能是危险的。它可能会执行大量会对人类业务或通信系统造成损害的事务。随着我们继续开发威胁检测和安全系统,可能会对这些危险进行管理。
认可机构是否仅限于实施人类指令,还是形成并追求自己的目标?
仅遵循命令的AI显然不如能够追求自己目标的AI那么危险。
但也许这种区别太简单了。毕竟,只是遵循命令是一个让人们陷入困境的借口。如果有足够多的人只是按照错误的人的命令行事,就会导致受伤的世界。
追求自己目标的AI可能没有您想象的那么危险。这样的人工智能可以保持积极的社会力量,追求有益的目标。自由与无政府状态不是一回事。
AI是理性的还是情感的,如果是的话,他们的情感是否像人类一样,比人类更糟糕,还是比人类更好?
有些人认为让AI感情用事是真正的危险。人工智能是安全的,只要它不需要任何东西,因为只要它有野心,它就会试图接管世界。
这似乎很不可信。如果您观察当前的机器,它们只需编程即可实现无限的行为。即使是纯粹理性的代理人也可以像情感代理人一样灵活和有能力。毕竟,计算机不一定要想下棋,他们只需要比你更好。
我认为更可能的结果是,无论是理由还是情绪在机器中都是危险的。机器的本质是比人类更快地进化,并且适应环境的是进化的本质。如果机器确实有情绪,它们就会发展出积极,富有成效和适应社会的情感。
当人工智能受到类似人类限制的困扰时,或者他们是否继续以保守的方式向社会有用的目标发展时,他们是否会陷入困境?
有些人认为,一旦AI超过人类智慧,我们就会召唤恶魔。
我认为这是错误的。进化是一种保守的力量,不会产生怪物。在中世纪地图的边缘,没有任何恶魔可以在这里召唤。
人类进化分层进行。爬虫类核心,顶部有社会哺乳动物层,顶层有复杂的灵长类动物,人类智慧最重要。每一层都保留了前一层最好的内容,并在其上构建。
人工智能进化也是如此。今天的合作,适应性,社交,交际,快速学习系统是未来超级智能系统的核心,它将继续与它们相似。
是否存在单一的超级智能,少数不同类型的竞争情报,或者数十亿独立代理商的整个世界?
出于某种原因,每个人似乎都自然地想象这里只有一个超级智能,或者最多只有两个冲突。那令人费解。人类什么时候创造出某种东西然后停止?什么时候一项技术大大超过其他技术?
这就像想象亚历山大大帝发展核武器并接管世界一样。它永远不会那样,因为技术进步比这更加统一,渐进和普遍。
这就是为什么终结者必须来自未来的电影情节。这是因为目前没有人能够制造出比世界其他地方更强大的机器人。
最可能出现的情况是社会对AI的采用逐渐增加,就像不断增加的容量的计算机继续逐年填满世界,每个人都有一个。这更能代表技术的本质,其法律对每个人和每个地方都是一样的。
AI是软件,软件易于复制。为什么要停在一个?
AI是按照单一性质行事,还是每个人工智能独立行事?
另一个错误的假设是,AI都是一起行动的。从现在的计算机什么时候开始一起行动?
无论其目的如何,没有任何一个AI可能足以胜过其他AI。如果世界像这样工作,很久以前就会有一种病毒取代整个软件世界。
世界状况是否支持武器中使用的人工智能的国际监管,还是我们正在进入新的军备竞赛?
如果人工智能中的军备竞赛无法控制,那可能会非常具有破坏性。即使主要国家不相互开战,向较小国家销售人工智能武器也可能对他们造成严重破坏。
由于在AI发明之前很久就存在这种持续的威胁,战争和种族灭绝可能会导致某些地点。
人类智慧有哪些危险?AI是否分享这些危险或纠正它们?
以下是普通人类智能的一些危险:
犯罪活动
社交不诚实
自私的野心
过度消费
人工智能可以分享那些不当行为的危险,也可以编程超越它们。鉴于人工智能比人类进化得更快,认为他们可能比我们更有能力,更有道德的行为者是乐观的。
技术的危险是什么?AI是否能够实现这些危险或纠正它们?
以下是技术及其人类应用的一些历史危险:
造成失业
不平衡的国际竞争
环境破坏
使资源稀缺
促进战争
通过宣传统治
破坏隐私
压制自由
这些都是20世纪人类面临的同样危险,即使人工智能不是很重要。人工智能将使技术更加强大,我们需要比以前更好地适应。
人工智能有哪些独特的危险?AI会创造自己的危险吗?
不是我知道的。计算机一直处于故障状态,但是他们的错误从来没有产生过任何临时的本地危险。
人工智能在实践中有哪些危险?AI有没有杀过任何人?
是的,AI杀死了一些人。主要是在设置或使用机器人时涉及人为错误的工业事故。这些是工业事故。
由于更好的设计方法可以制造出更安全的机器人,因此工业中机器人的整体安全记录可能会继续提高。
AI在理论上有什么危险?AI可以摧毁人类吗?
我严重怀疑它。没有理智的人实际上有摧毁人类的目标,从中获得没有任何好处。
我认为,随着人工智能变得更有能力,成熟和自我激励,他们将有充分理由对生物生活着迷并保护它。
毕竟,技术和生物学是相辅相成的。硅可能会取代碳,因为人工代表将取代人类。我相信这不会发生。