早在2017年,就有新华网的一篇报道指出,因为伦理道德法律框架设计滞后和人工智能让人类尴尬等原因,以及科技巨头Google和美国军方关于将AI用于武器的时间也持续在网上发酵。
也正是因为这些报道的源头都指向了一个我们不可忽视的领域:人工智能与伦理道德,所以才有了后来的由Elon Mask等知名科学家、企业家组成的2000多人也在国际人工智能联合会(IJCAI)上共同签署了地址将AI武器化的宣言。
其实来说,人工智能研究的传统问题(或目标)包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵对象等对欧中能力。而且人工智能一般以统计方法、计算智能和传统的符号作为提升其智力是该领域的长期目标之一。
人工智能中使用了许多工具和借鉴多领域了计算机科学、信息工程、数学、心理学、语言学、哲学和许多其他领域;包括搜索和数学优化、人工神经网络以及基于统计、概率和经济学的方法。
说回到我们本文的重点,我们必须先了解AI系统所面临的道德困境,才能够构建具有伦理道德的AI系统之前,为了达到此目的,美国的科学家们设计了一个叫做GenEth的道德困境分析器。
设计目标就是要将伦理学考虑进去,与智能系统有关的道德伦理问题通常会超出系统设计者的掌控;提出了一系列的有关AI和道德的考虑内容:行为特征,责任,行为,样例,以及行为准则等等。
可以试想一下,当自动驾驶车突然失灵时,它应该如何选择?本文最开始的图便来自这个网站,美国MIT设计了一个叫做道德机器(Moral Machine)的网站。使用众包的方式收集用户对于自动假设车道德困境的选择。很明显,当我们在未来大量使用无人车时,这个问题就变得很重要了。
通过收集300万用户的反馈,道德机器网站发现,如果能拯救更多的人,人们更倾向于让自动驾驶车自毁;如果通过杀死车上的乘客能避免伤害更多的人,人们通常乐于接受这个特征,但是却希望自己的车上没有这个特征。
这方面的研究也刚刚兴起,我们期待更多更好的发现能够弥补现有研究的不足,我们基于研究的目的也是,了解的更多,才能做好翻倍,让人工智能为我们所用。但是,对于哪种才是最符合伦理道德的做法,还是莫衷一是。
版权声明:本文为Yun88网的原创文章,转载请附上原文出处链接及本声明。
更多产品了解
欢迎扫码加入云巴巴企业数字化交流服务群
产品交流、问题咨询、专业测评
都在这里!
2024-03-27 15:02:15
2021-12-17 13:43:29
2022-11-22 09:52:44
2022-11-23 17:13:50
甄选10000+数字化产品 为您免费使用
申请试用
评论列表