7月28日开幕式上宣布了该公开信IJCAI 2015年7月28日会议上展出。
记者希望看到新闻稿可能接触托比·沃尔什。
托管、签名验证和列表管理支持FLI;行政关于这封信的问题,请联系组成。
自动武器选择和从事目标而无需人工干预。他们可能包括,例如,武装四轴飞行器可以搜索特定的预定义的标准和消除人会议,但不包括巡航导弹或遥控无人机的人类让所有目标的决策。人工智能(AI)技术已经到了一个临界点的部署这些系统——实际上如果不是合法可行内年,不是几十年,和风险很大:自主武器已被描述为第三次革命战争,火药和核武器之后。
许多争执了支持和反对自治的武器,例如由机器取代人类士兵是好为业主减少人员伤亡但坏,从而降低阈值去战斗。人类现在的关键问题是是否开始全球AI军备竞赛或防止它开始。如果任何重大军事力量推进,人工智能武器的发展,全球军备竞赛几乎是不可避免的,和这个技术的端点轨迹很明显:自主武器将成为明天的卡拉什尼科夫冲锋枪。与核武器,他们不需要昂贵的或难以获得原材料,所以他们将成为所有重要军事力量无处不在的和廉价的大规模生产。它将只是一个时间问题,直到他们在黑市上出现在恐怖分子手中,独裁者希望更好地控制他们的民众,军阀希望实施种族清洗,等等。自主武器非常适合暗杀等任务,不稳定的国家,镇压人群和有选择地杀死一个特殊的族群。因此,我们相信,一个军事AI军备竞赛不会对人类有益。有很多方法,人工智能可以让战场更安全对人类,特别是平民,没有创造新的杀人的工具。
正如大多数化学家和生物学家已经没有兴趣构建化学或生物武器,大多数人工智能研究人员建造人工智能武器不感兴趣,不希望别人玷污他们的领域通过这样做,可能会创建一个主要公共反对AI,限制其未来的社会福利。事实上,化学家和生物学家已经广泛支持国际协议,已经成功地禁止生化武器,就像大多数物理学家支持条约禁止太空核武器和激光致盲武器。
总之,我们认为,人工智能是有很大潜力的,人类在许多方面受益,这领域的目标应该是这样做。开始一个军事AI军备竞赛是一个坏主意,而且应该被禁止进攻自主武器阻止有意义的人类无法控制的。
添加你的签名
验证是如何工作的呢?
•宣言的URL——这个人已经公开宣言签署公开信,可以在线观看。