
文章图片

我们可能需要摆脱人类思维的局限性
1956年夏天 , 10名科学家在达特茅斯学院会面 , 并发明了人工智能 。 来自数学、工程、心理学、经济学和政治学等领域的研究人员聚集在一起 , 看看人工智能能否如此准确地描述学习和人类思维 , 以便用机器复制 。 仅仅十年后 , 这些科学家为机器人学、自然语言处理和计算机视觉的戏剧性突破做出了贡献 。
尽管自那以后已经过去了很多时间 , 但机器人学、自然语言处理和计算机视觉仍然是迄今为止最热门的研究领域之一 。 可以说 , 我们专注于教人工智能像人一样移动 , 像人一样说话 , 像人一样看 。
这样做的理由很清楚:有了人工智能 , 我们希望机器可以像人一样行为、阅读法律合同或购买东西等任务 。 我们希望这些任务比人类更快、更安全、更彻底地完成 。 这样 , 当机器承担我们生活中无聊的任务时 , 人类将有更多的时间进行有趣的活动 。
然而 , 研究人员越来越认识到 , 人工智能在模仿人类思维时 , 可能会遗传人类偏见 。 这个问题体现在亚马逊的招聘算法和美国政府的COMPAS算法中 , 前者以歧视妇女而闻名 , 后者不成比例地惩罚黑人 。 无数其他例子进一步说明了人工智能中的偏见问题 。
在这两种情况下 , 问题都始于一个有缺陷的数据集 。 亚马逊的大多数员工都是男性 , 许多被监禁的人都是黑人 。 尽管这些统计数据是普遍存在的文化偏见的结果 , 但该算法无法知道这一点 。 相反 , 它得出结论 , 它应该复制它提供的数据 , 这加剧了数据中包含的偏见 。
手动修复可以消除这些偏见 , 但它们带有风险 。 如果不正确实施 , 善意的修复可能会使一些偏见变得更糟 , 甚至引入新的偏见 。 然而 , 人工智能算法的最新发展使这些偏见越来越不重要 。 工程师应该接受这些新发现 。 新方法限制了偏见污染结果的风险 , 无论是来自数据集还是工程师本身 。 此外 , 新兴技术意味着工程师自己需要减少对人工智能的干扰 , 消除更无聊和重复的任务 。
当人类知识成为王者时
想象一下以下场景:您有一组来自不同行各业的人 , 跟踪他们是否感染了新冠病毒 。 无论是医生、护士还是药剂师 , 人类都输入了COVID/无COVID标签 。 医疗保健提供商可能有兴趣预测新条目是否可能已经感染了新冠病毒 。
监督机器学习在解决此类问题时非常有用 。 算法可以吸收所有数据 , 并开始了解不同的变量 , 如一个人的职业、总收入、家庭状况、种族或邮政编码 , 如何影响他们是否感染了疾病 。 例如 , 该算法可以估计三名来自纽约孩子的拉丁裔护士已经感染新冠病毒的可能性 。 因此 , 她的疫苗接种日期或保险费可能会被调整 , 以便通过有效分配有限的资源来拯救更多生命 。
这个过程乍一看听起来非常有用 , 但有陷阱 。 例如 , 医疗保健提供商可能给数据点贴错了标签 , 导致数据集错误 , 并最终导致不可靠的结论 。 这种类型的错误在上述就业市场和监禁系统中尤其具有破坏性 。
监督机器学习似乎是解决许多问题的理想方法 。 但人类太参与数据制作过程了 , 以至于无法使其成为灵丹妙药 。 在一个仍然遭受种族和性别不平等的世界里 , 人类偏见普遍存在 , 具有破坏性 。 依赖如此多的人类参与的人工智能总是有纳入这些偏见的风险 。
相关经验推荐
- 微信|微信用户需了解,若手机出现“4种情况”,请尽快将手机关机
- |最便宜 iPhone 开售,只需 2035
- 一加科技|手机出现“新骗术”?无需本人就能转走存款,请注意保管好财物
- 微信|QQ 8.8.68版已正式发布:不是它变了,是我们已不是目标人群!
- |电脑无法在真空中运行
- 笔记本|让Win妙变mac!无需黑苹果,用这个软件就搞定
- 苹果|华硕RT-AX86U巨齿鲨联名款上新仅需1999元
- iPhone|新iPhone到手后都需要做什么?赶紧收藏
- 英特尔|显卡太难买,游戏媒体向Intel求救!Intel表示:我们尽力而为
- 特斯拉|特斯拉ModelPi,是否能颠覆苹果,让我们拭目以待
