首页 > 财经 > 正文

人工智能使用中的伦理问题无法仅靠STEM毕业生来解决

2020-01-30 13:42:00

人工智能(AI)的实际应用面临着各种各样的障碍——引人注目的、高调的人工智能部署并没有得到很好的接受,微软的“Tay”机器人在发布仅16小时后就在Twitter上模仿反毒刻薄话。同样,亚马逊的人工智能招聘程序对女性存在偏见,该公司向市政执法部门推销不可靠的面部识别技术。人工智能常常反映出设计师们的偏见——包括,尤其是无意识的偏见——考虑到社交网络已经经历过的众多其他问题,这些偏见会让Facebook试图构建一个带有“道德指南针”的人工智能成为一个令人担忧的前景。

东北大学(Northeastern University)伦理研究所和专业服务公司埃森哲(Accenture)表示,这个问题必然需要思想的多样性。埃森哲发布了一份关于建立数据和人工智能伦理委员会的指南。从定义上讲,这样的委员会是不可能通过聚集具有相似背景的人来讨论人工智能设计的优点来实现的。作者提倡将技术、伦理、法律和主题方面的专家以及公民参与者包括进来,以“提出潜在的或实际的社区关注和观点,这可以采取公民或社区导向的视角”。

参见:人工智能:商业领袖指南(免费PDF)(TechRepublic)

东北大学伦理学研究所所长、哲学教授罗恩·桑德勒(Ron Sandler)说:“这是一个在某些方面与生物伦理学类似的领域,可以为组织提供资源,帮助它们预先识别和解决我们所看到的这些问题。”“这将是一个高度跨学科的领域,将技术专长与商业、组织、人文、社会科学和法律专长相结合,就像它在其他强大的伦理领域一样。”

法律和社会指导对于人工智能的创造至关重要,因为法律法规在很大程度上受到社会习俗的影响。“有一本书曾多次帮助人们在晚上入睡,那就是《法律之源——习俗》(Custom as a Source of Law)。我们的想法是,如果我们能确定某件事是一个社区的习俗……随着时间的推移,我们实际上可以将一个社区内的行为和理念与我们的法律直接联系起来。“我们可以看到,在未来,这将成为一种标准实践,甚至可能成为一种最佳实践。如果这成为一种最佳实践,那么我们可以说这可能是一种责任。”

对遵守社会规范的关注和考虑,尽管当人工智能在一个国家开发并输出到另一个国家时,这种关注也应该加强。桑德勒说:“当我们设计一个算法系统时,它会内置某些类型的价值观,因为(设计师)会做出某些设计选择,而这些设计选择反映了价值观。”“同样的价值假设在其他情况下也适用吗?”无论是不同的文化还是不同的领域,都可能从金融服务转向社会服务。伦理委员会背后的部分理念是能够在一个组织内,让人们不仅负责识别,而且负责解决这类问题。”

蒂尔认为,经典的电车问题虽然有用,但被滥用了。他指出,梅赛德斯-奔驰(Mercedes-Benz)的自动驾驶汽车技术计划将优先保护司机,而不是乘客。德国国家的哲学基础对个人有着更沉重的负担或关怀。例如,如果你越过边境进入比利时,他们真正关心的是整个社会。你可能会遇到这样的情况,当你驾驶一辆自动驾驶汽车穿越边境时,它会做出不同的决定,因为一边的海关说“救司机”,另一边的海关说“保护大多数人”。如果你在一个地区或国家开发基于一种思维方式的技术,而这种技术又被输出到其他地方,那么你真的需要某种控制或反馈循环,这样它才能在那个国家得到适当的应用。”

有关人工智能的更多信息,请查阅TechRepublic的“制药研究人员测试人工智能以预测视力下降”和“为什么人工智能会带来就业增长”。

我们的编辑会重点介绍TechRepublic的文章、图库和视频,你绝对不能错过这些内容,以了解最新的IT新闻、创新和技巧。星期五