5G|现在电脑连接了我们所有人,那么接下来会发生什么?( 七 )


计算机也能使欺骗成为可能 。 人工智能可以生成看起来真实的内容 。 语言模型可能被用来为极端组织提供虚假新闻和招募材料 。 生成式对抗网络是一种深度学习 , 可以生成逼真的内容 , 可以帮助艺术家或创建深度伪造、图像或视频 , 显示人们在做他们从未做过的事情
在社交媒体上 , 我们也需要担心人们的社会、政治等观点的两极分化 。 一般来说 , 推荐算法优化用户参与度(平台通过广告盈利) , 而不是民间话语 。 算法还可以以其他方式操纵我们 。 机器人顾问——提供金融建议或客户支持的聊天机器人——可能会了解我们真正需要什么 , 或者按下我们的按钮 , 向我们推销无关的产品 。
多个国家正在开发自主武器 , 机器人手中的枪支或导弹引发了科幻小说中终结者试图消灭人类的幽灵 。 他们甚至可能没有恶意 , 错误地认为他们正在通过消灭人类癌症来帮助人类 。 在更短的时间内 , 现实世界中的自动化系统已经造成了股市的闪电崩盘 , 例如量化交易 。 如果AI被要求做出生死攸关的决定 , 他们就会面临著名的电车问题 , 即在不是每个人都能获胜的情况下 , 决定牺牲谁或什么 。

由于致命自主武器的存在 , 比如土耳其制造的STM无人机 , 专家们呼吁禁止那些可以在无需人工干预的情况下发动袭击的设备
还有关于如何在社会中管理技术的社会、政治和法律问题 。 当人工智能系统造成伤害时 , 谁应该承担责任?(例如 , 自动驾驶汽车已经导致了人员死亡 。 )我们如何才能确保更平等地获得人工智能工具及其好处 , 并确保它们不会歧视群体或个人?持续的工作自动化将如何影响就业?我们能管理数据中心对环境的影响吗?这些数据中心使用大量的电力 。 我们是否应该优先使用可解释的算法 , 而不是许多神经网络的黑盒以获得更大的信任和可调试性 , 即使这会使算法在预测方面更差?
我们能做些什么宾夕法尼亚大学计算机科学家、2019年《道德算法》(the Ethical Algorithm)一书的合著者迈克尔·卡恩斯将这些问题置于可管理性的范围内 。 一方面是所谓的差异隐私 , 即向医疗记录数据集添加噪音的能力 , 这样它就可以与研究人员有效地共享 , 而无需透露太多的个人记录 。 我们现在可以用数学来保证个人数据应该如何保存 。
介于两者之间的是机器学习的公平性 。 研究人员已经开发出一些方法 , 通过删除或改变有偏见的训练数据来增加公平性 , 或者最大化某些类型的平等——例如贷款——同时最小化利润的减少 。 然而 , 某些类型的公平将永远处于相互冲突之中 , 数学无法告诉我们哪些是我们想要的 。
另一端是可解释性 。 与公平性相反 , 公平性可以用多种数学方法进行分析 , 而解释的质量很难用数学术语来描述 。 “我觉得我还没有看到一个好的定义 , ”卡恩斯说 。 “你可以说 , ‘这是一个算法 , 它将使用一个训练有素的神经网络 , 试图解释它为什么拒绝你的贷款 , ’但(感觉不太有原则 。 ”最终 , 如果受众不理解它 , 这就不是一个好的解释 , 衡量它的成功——无论你如何定义成功——都需要用户研究 。
像阿西莫夫的三定律这样的东西不会把我们从试图帮助我们去伤害我们的机器人手中拯救出来 。 而且 , 即使这一列表扩大到一百万条法律 , 法律的文字与它的精神也不相同 。 一种可能的解决方案是所谓的反向强化学习 , 在这种学习中 , 计算机可能会根据我们的行为来解读我们真正看重的东西 。
本文参考science news.文章 , “Now that computers connect us all for better and worse what’s next?” , 如有兴趣还可查阅原文 。

相关经验推荐