登录

伦理规则


分类

设计

因此,伦理规则设计与“人工智能+”同行甚至先行就是营造健康发展的必要生态。
文章

结合海尔格•诺沃特尼的研究结果以及笔者的调查,那么基于原则而非利益的伦理规则设计应该围绕以下四个得到大多数人认可的问题切入,公正问题、责任问题、隐私问题与安全问题,目前这四个问题已成为人工智能领域最紧迫也是得到全世界认同的问题。
文章

效果

笔者以前曾撰文指出,大数据杀熟就是这种情况的最轻微表现,基于利益制定的伦理规则,由于其短视行为最后不可避免地造成整个社会陷入“囚徒困境”,从而让整个社会重归“丛林原则”状态,也许更为可怕的是,基于利益设计的规则可能造就人工智能的“利维坦”,这是我们制定伦理规则之初就应当极力避免的。
文章

影响

反之,基于利益制定的伦理规则,尽管可能符合功利主义与实用主义的目标,但却是短视的,其后果只能是零和博弈,总会使一方受益的同时导致他方利益受损,最终这种基于利益设计出的规则也会反噬自身。
文章

其它

由于科技会出现迭代现象,伦理标准应该与之同步变更,遗憾的是人类社会中规则的变化总是慢于科技的变化,这就不可避免地会出现“伦理代差”,尤其是针对以人工智能为代表的高科技,这种伦理规则的滞后性愈发凸显,将不可避免地在某些领域出现“伦理失灵”与“伦理真空”现象,对于全局性的技术而言,这种可能性将大大增加了,这是整个社会承受不了的代价。
文章