|我们正处在AI算法不可控的危险状态!( 二 )


所以他预言 , 将来会使多种多样的智能机器人出现 , 每个机器人来完成一定或一类工作 。

···
就着张钹对机器人未来的畅想 , 另外两位院士也提出了自己的看法 。
乔红认为 , 将来的机器人主要有三个要求:

  • 智能发育;就像人类会有意识、情感和自己的目标 , 但机器人没有自主产生的目标 , 因此“发育”就是指自主学习 , 自由运动 。
  • 机理不能复制;指人在感性上的不可复制 , 独一无二 。
  • 永远的学习 。

王天然则进一步认为 , 不管未来机器人做成什么样子 , 有一个问题肯定是共通的:机器人与人类应该保持什么样的关系?换句话说 , 也就是“人机共融”问题 , 这是人与机器人关系的一种抽象概念 , 具体指人与机器人可以相互理解、相互感知、相互帮助 , 实现人机共同演进 。
对于现在两种甚嚣尘上的观点 , 王天然也发表了他的看法 , 一种是“将来机器人会统治人类” , 他认为过于科幻 , 人造的机器不可能达到这个目标;而‘机器人造出来是为了取代人’的说法 , 王天然也认为是在故意挑起人和机器的矛盾 , 在他看来 , 机器人的目的不是和人争夺 , 现在整体的目标就是机器换人 , 人取代人 。
那么机器人和人类最好的关系是什么呢?王天然用了四个字:“宛如同类 。 ”
他解释道:“如果机器人要能替人类服务 , 那最好是伙伴关系 , 虽然你是机器我是人 , 但是我们俩感觉却好像是同类 , 而不是一个人和一个机器在一起 。 这样就能使得机器人能够更好为人类服务 , 而不是统治人类 。 ”

···
而要谈到机器人与人类的关系 , 那么必然还会面临另一个问题:伦理 。
阿西莫夫认为 , 关于机器的伦理问题有两个需要思考的方面:机器人如果智能超过人类 , 或有意识以后 , 我们应该如何让机器人按照伦理准则来行为;人类如何按照伦理原则来设计和使用机器人 。
张钹认为 , 上述两个方面表面看起来简单 , 实际上却关系到三大难题:
  • 首先是标准和法规问题:什么是道德?什么时候不道德?这本身就有非常大的争议
  • 对于人类来说 , 有人会在设计使用机器人的时候遵守伦理原则 , 但有些人不会
  • 如果假设道德规范有了 , 还有涉及到机器人行为是否可控
张钹展开说明了第三个问题 , 他表示 , 如果机器人完全按照规则来执行 , 那就不是智能机器人 , 只有人类制造者给予了它一定的自主性 , 机器才能有创造性 , 才能逐渐学会自主解决问题 , 而这必然就要付出一个代价——机器人可能会不受控制 。
张钹说:“当20世纪人工智能发展起来以后 , 虽然机器人还处在智能很低的阶段 , 但我们已经处在了一个危险状态 , 为什么呢?因为我们处于不可控状态 , 比如说用深度学习的方法开发出来的人工智能算法没有可靠性保证的 。 ”
张钹最后提到了人工智能的三次浪潮:第一次是1956年到1974期间的人工智能1.0 , 科学家将符号方法引入统计方法中进行语义处理 , 出现了基于知识的方法;20世纪80年代初至20世纪末则是人工智能2.0 , 与人工智能相关的数学模型取得了一系列重大发明成果 , 进一步催生了能与人类下象棋的高度智能机器;而从21世纪初开始至今 , 人工智能3.0的浪潮正在掀起 。
“我们要提出来第三代人工智 , 必须要解决第二代人工智能的算法不安全、不可靠、不可信、不可控的状态或问题 , 而这种担心现在看起来已经是一个近忧 , 而并非远虑了 。 ”

相关经验推荐