跳到内容
所有打开的信

自动武器的公开信:人工智能和机器人技术研究人员

自动武器选择和从事目标而无需人工干预。人工智能(AI)技术已经到了一个临界点的部署这些系统——实际上如果不是合法可行内年,不是几十年,和风险很大:自主武器已被描述为第三次革命战争,火药和核武器之后。
签名
34378年
添加你的签名
发表
2016年2月9日,

7月28日开幕式上宣布了该公开信IJCAI 2015年7月28日会议上展出。
记者希望看到新闻稿可能接触托比·沃尔什
托管、签名验证和列表管理支持FLI;行政关于这封信的问题,请联系组成

点击这里查看这个页面在其他语言:德国日本俄罗斯

自动武器选择和从事目标而无需人工干预。他们可能包括,例如,武装四轴飞行器可以搜索特定的预定义的标准和消除人会议,但不包括巡航导弹或遥控无人机的人类让所有目标的决策。人工智能(AI)技术已经到了一个临界点的部署这些系统——实际上如果不是合法可行内年,不是几十年,和风险很大:自主武器已被描述为第三次革命战争,火药和核武器之后。

许多争执了支持和反对自治的武器,例如由机器取代人类士兵是好为业主减少人员伤亡但坏,从而降低阈值去战斗。人类现在的关键问题是是否开始全球AI军备竞赛或防止它开始。如果任何重大军事力量推进,人工智能武器的发展,全球军备竞赛几乎是不可避免的,和这个技术的端点轨迹很明显:自主武器将成为明天的卡拉什尼科夫冲锋枪。与核武器,他们不需要昂贵的或难以获得原材料,所以他们将成为所有重要军事力量无处不在的和廉价的大规模生产。它将只是一个时间问题,直到他们在黑市上出现在恐怖分子手中,独裁者希望更好地控制他们的民众,军阀希望实施种族清洗,等等。自主武器非常适合暗杀等任务,不稳定的国家,镇压人群和有选择地杀死一个特殊的族群。因此,我们相信,一个军事AI军备竞赛不会对人类有益。有很多方法,人工智能可以让战场更安全对人类,特别是平民,没有创造新的杀人的工具。

正如大多数化学家和生物学家已经没有兴趣构建化学或生物武器,大多数人工智能研究人员建造人工智能武器不感兴趣,不希望别人玷污他们的领域通过这样做,可能会创建一个主要公共反对AI,限制其未来的社会福利。事实上,化学家和生物学家已经广泛支持国际协议,已经成功地禁止生化武器,就像大多数物理学家支持条约禁止太空核武器和激光致盲武器。

总之,我们认为,人工智能是有很大潜力的,人类在许多方面受益,这领域的目标应该是这样做。开始一个军事AI军备竞赛是一个坏主意,而且应该被禁止进攻自主武器阻止有意义的人类无法控制的。

添加你的签名

签署者

点击这里查看签署国的完整列表。迄今为止,公开信已经签署了AI /机器人技术研究者和别人。签署者的列表包括:

AI /机器人研究人员:

您需要启用javascript来查看公开信签名者。

其他代言人:

您需要启用javascript来查看公开信签名者。
阅读更多
公开信

相关的帖子

如果你喜欢这个,你也可能会喜欢:
签署者
31810年

暂停巨型人工智能实验:一封公开信

我们呼吁所有AI实验室立即暂停至少6个月的训练比GPT-4 AI系统更强大。
2023年3月22日
签署者
998年

公开信中对鲁莽的核升级和使用

可恶的乌克兰有可能升级为一场全面战争北约-俄罗斯核冲突这将是人类历史上最大的灾难。必须采取更多措施来阻止这样的升级。
2022年10月18日
签署者
关闭

远见在人工智能监管公开信

人工智能(AI)承诺的出现戏剧性的变化在我们的经济和社会结构以及日常生活[…]
2020年6月14日
签署者
276年

自动武器的公开信:全球健康社区

鉴于我们承诺不伤害,全球卫生界历史悠久的成功宣传反对不人道的武器,和世界和美国医学协会呼吁禁止核、化学和生物武器。现在,最近的人工智能的发展给我们带来了一场新的军备竞赛的边缘在致命的自动武器。
2019年3月13日,

报名参加生命研究所通讯的未来

加入20000 +人接受定期更新我们的工作和事业领域。
查看以前的版本
放大镜 交叉 箭头向上 linkedin 脸谱网 pinterest youtube rss 推特 instagram facebook-blank rss-blank linkedin-blank pinterest youtube 推特 instagram
Baidu
map