有一个极端的案例说明这种错误的想法是如何走向绝境的。2016年,两名研究人员发表了一篇文章,声称只需要让人工智能系统识别一下人脸就可以发现潜在的犯罪行为。这样的系统让我们回到了一个世纪前那些武断的犯罪理论。随后的研究表明,他们的系统大概是根据一个人是否微笑来判断犯罪行为:系统训练使用的是警方拍摄的罪犯面部照片,而这些照片往往都不会面带微笑[124]。
机器人杀手
希望你会认同我的想法,我认为人工智能系统当我们的老板会导致员工异化,而让人工智能系统来决定一个人是否应该被警方拘留,这是对人权的一种侮辱。那么,对于一个有能力决定你生死的人工智能系统,人们又将如何看待呢?随着人工智能的迅猛发展,人们对这一前景的担忧开始见诸报端,其中至少有一部分原因是我们提到过很多次的《终结者》场景。
关于自主武器的话题总是带有强烈的煽动性,许多人会本能地厌恶它,认为这样的系统是不道德的,永远不该被建立。对于持有这样观点的人而言,若是有品行端正的人持有相反观点,会让他们感到惊讶。因为我知道这个主题有多么震撼,所以我会尽可能轻描淡写地带领你深入研究潜在的人工智能自主武器所引发的问题。