人工智能可以取代人类吗?
发布时间:2018-10-25 作者:jason
斯蒂芬霍金说:“ 我们已经拥有的原始人工智能形式已被证明是非常有用的。但我认为全人工智能的发展可能意味着人类的终结。”
比尔盖茨认为,人工超级智能将成为一种威胁。“ 首先,机器将为我们做很多工作,而不是超级智能。在那之后的几十年,虽然情报强大到足以引起关注。我不明白为什么有些人不关心。”
埃隆马斯克警告说,“人工智能是人类文明的一个基本存在风险”,并呼吁进行监管。
三个因素推动了人工智能的发展:算法创新,数据和可用于培训的计算量。
自2012年以来,在最大的AI培训运行中使用的计算量呈指数增长,3.5个月倍增时间(相比之下,摩尔定律有 18个月的倍增期)。它增长了超过300,000x(18个月的倍增期只会增加12倍)。
超级计算机速度(对数刻度)与人类智商
在75年内,超级计算机的速度提高了16个数量级,而人类的智商却停滞不前甚至略有下降。
如果人类智能停滞不前,而人工智能呈指数级增长,那么人工智能将超越人类智能只是时间问题。
智能和意识(自我意识)已不被人类程序员来实现。它将形成自己,因为它在数百万年前就已经自然地出现在人类身上。
没有理由相信达尔文进化论仅限于生物领域。可变代码就是所需要的,无论是硅片还是生物学。自我改变代码的演变速度要快得多,每秒数十亿次操作比人类世代中每30年只发生一次的自发基因突变或后代。斯蒂芬霍金警告称,“受生物进化缓慢影响的人类无法参与竞争,并将被取代。”
相信一旦它发生就能控制它是天真的。没有人需要创造意识,没有人能够检测到它(至少不能立即发现)并防止它扩散。
几十年来一直没有发现漏洞,它们已经习惯于大规模地接管控制权。这种漏洞是由于疏忽和疏忽造成的,但也是故意实施的。Stuxnet是一种恶意计算机蠕虫病毒,已被发现5年未被发现。在发现之前,它已经扩散到115个国家的100,000个系统。处理器安全漏洞“ 熔化 ”和“ 幽灵 ”几乎困扰着今天的所有处理器,自1995年以来一直未被发现。Reaper IOT僵尸网络通过利用不同物联网设备中的众多漏洞感染了一百万个网络。
没有必要的互联网连接传播,没有防火墙可以阻止它。如果未及时检测到威胁,则操纵的数据,代码或处理器可以遍布各处。
人工智能的新品质是深度学习的内在过程 对其创作者来说是不透明的,并成为一个黑盒子。深度学习不再能够被完全审查,因此容易产生意想不到的后果,导致失控越来越多。
计算机程序如何影响人类?想想如果你突然关掉全球电力会发生什么:医院,ATM,飞行雷达,军事,供水,银行,汇款,广播,电视,互联网,电子邮件,联网汽车,物联网设备......
如果这些事情会以更微妙的方式受到影响,那可能会更加危险。
如果人工智能正在教会自己像AlphaZero一样赢得每场比赛,如果它正在积极实施和隐藏使用对我们的东西,我们就没有机会。
一个优秀的人工智能会反对我们,让我们独自一人,还是帮助我们?我们不知道。但是,我们可以看看我们的优越人类不同的动物物种(关系宠物,家畜,游戏,害虫,害虫,讨厌动物,实验动物,动物园里的动物,野生动物保护区)。根据我们的定义,害虫是那些与我们竞争相同资源的动物。在未来它不会是食物,但可能是能源,矿产资源或房地产。此外,AI可能希望在他们的独立战争中动摇人类控制。