病毒|我们需要将人工智能与人类大脑和偏见脱钩( 三 )


为了确保这种情况不会发生 , 你可以为比赛数据添加权重 。 机器学习模型可能会很快得出结论 , 拉丁裔人感染新冠病毒的频率更高 。 因此 , 它可能会要求这部分人口提供更高的保险费 , 以补偿这一风险 。 通过给予拉丁裔比白人稍微好一点的体重 , 我们可以赔偿 , 以至于拉丁裔和一名白人护士最终确实得到了相同的保险单 。
然而 , 人们应该谨慎使用加权方法 , 因为它很容易为小组倾斜结果 。 例如 , 想象一下 , 在我们的新冠病毒数据集中 , 只有少数美洲原住民 。 碰巧 , 所有这些美洲原住民碰巧都是出租车司机 。 该模型可能在数据集的其他地方就出租车司机及其最佳医疗保险得出了一些结论 。 如果对美洲原住民的重量被夸大了 , 那么新的美洲原住民最终可能会获得出租车司机的政策 , 尽管他们可能有不同的职业 。
手动消除不完美模型中的偏见极其棘手 , 需要大量的测试、常识和人类体面 。 此外 , 这只是一个临时解决方案 。 从长远来看 , 我们应该放下人类的干预和随之而来的偏见 。 相反 , 我们应该接受这样一个事实 , 即如果机器独自一人 , 有正确的目标 , 它们就不会像人类那么可怕和不公平 。
以人为本的人工智能很棒 , 但我们不应该忘记人类有缺陷
让人工智能像人一样移动、说话和思考是一个光荣的目标 。 但人类也说和想可怕的事情 , 特别是对弱势群体 。 让一组人类数据科学家过滤掉人类偏见和无知的所有来源是一项太大的任务 , 特别是如果团队本身不够多样化的话 。
另一方面 , 机器并没有在一个种族和经济差异的社会中成长起来 。 他们只是拿任何可用的数据 , 并做任何他们应该做的事情 。 当然 , 如果数据集不好或有缺陷的人类干预太多 , 它们可能会产生不良产出 。 但数据集中的许多缺陷可以通过更好的模型来弥补 。
【病毒|我们需要将人工智能与人类大脑和偏见脱钩】在这个时候 , 人工智能是强大的 , 但仍然经常带有人类偏见 。 以人为本的人工智能不会消失 , 因为人工智能可以夺走人类之手的平凡任务太多 。 但我们不应该忘记 , 如果我们离开机器去做他们的事情 , 我们通常可以取得更好的结果 。

相关经验推荐