人工智能:“微软不想提供可能侵犯人权的工具”


2018-09-25 01:06:04

人工智能:“微软不想提供可能侵犯人权的工具”

谷歌在6月宣布了七项主要原则,以构建其人工智能技术的发展

微软正在做什么

微软思考伦理问题该集团在1月份发布了一本名为The Future Computed的书我们致力于一系列原则,如公平性,可靠性,这些技术的开放性已经二十五我在微软工作了五年,对我来说就像一个家庭,经常我们讨论微软在世界上的价值观和角色的方向

两年前,我说我想要我们成立了一个关于数据和人工智能问题的委员会,它们对社会管理的潜在影响支持了这个想法,最后我们创建了七个委员会,例如“敏感用途”

IA“,另一个关于”偏见和公平“,第三个关于”人类 - IA合作“......这是一个开始我们正在研究具体案例,我们在其上工作很多,我们进行研究,我们审议e我们的建议回到了方向并且到目前为止,它们都被接受了什么类型的建议

微软正致力于紧急呼叫系统及其分发......关于如何使用这些技术帮助组织消防车,救护车,警车等方面的工作很多

如纽约市等城市使用我们收到了一个大城市的要求,这个城市在世界上一个以尊重人权而闻名的地区委员会见面了,想了很多,我们决定说不微软不想承担提供可能用于侵犯人权的工具的风险在某些情况下,我们正在考虑提供功能有限的产品,缺乏面部识别技术来识别皮肤的种类或颜色谷歌承诺不将其AI技术应用于武器服务对于微软来说呢

我希望生活在一个没有军队的世界里也许有一天它是可能的但不幸的是,我们已经看到民主国家的军队必须保护我根本不喜欢的自由来想象什么在没有美国军队的第二次世界大战期间会发生什么当我听到人们想知道美国,法国或其他军队是否准备使用人工智能时,我们必须记住IA指的是自20世纪30年代或40年代以来最初部署在军队中的许多技术,我认为它将继续这样构成,我们应该怎么想

我认为,如果一个工程师不想在这种类型的应用程序上工作,他应该能够说出来但个人而言,民主国家的军队,其武器库是为防御和保护而设计的

人权,使用计算机的最新进展并没有给我带来特别的问题但这只是我自己的观点,我不代表微软发言而且这并不能阻止我关于潜在的侵犯人权行为或日内瓦公约提出的关于IA提出的问题的工作6月,员工要求微软终止与警方的合同美国移民局(ICE),在儿童与父母分离后的丑闻......我相信我们会在委员会中讨论这个问题我们非常重视这些问题ICE是一个小国的联邦机构它决定将我们的Azure云服务转移到电子邮件,文档和消息的管理中

它使用Office 365的标准服务,其他国家的许多其他公共机构也是如此

一个民主选举的总统做了许多人认为卑鄙,但合法的事情我们有成千上万的员工有些人感到震惊应该禁止他人使用电子邮件等工具

这只是这种服务,而不是AI

在微软网站上,1月份声明宣布其人工智能技术将允许ICE“加速面部识别和识别” 不,没有AI这是一个错误但这并不意味着我们不应该问这个问题!如果他们真的使用那种技术怎么办

我们需要认真考虑它我们非常关注可以在监视方面进行面部识别的应用如果我们不得不考虑与城市的合同,那么应该非常谨慎地通过发射有限的实验,与第三方合作,更好地理解公共安全与侵犯人权风险之间的平衡我们需要继续学习,我们知道这很棘手有些人,比如网络之父蒂姆·伯纳斯 - 李(Tim Berners-Lee)呼吁各州监管人工智能你怎么看

我个人的观点是,监管,如果做得不好,可以阻碍创新但它也可以刺激它

例如,我真的喜欢AI可以用来节省的想法生活,包括避免人为错误在路上,每年有120万人被杀,我希望AI帮助阻止它今年,一个人在特斯拉被杀[我曾经问特斯拉的某个人是否可以与微软研究院分享他们的数据,因为我很想知道人们什么时候开车,有什么问题的情况......但他说“不,我们不分享数据”如果政府说,“我们要求你与研究人员分享你的事故,问题,人们认为这辆车的时间数据ñ '工作不正常等'

它将刺激研究,它将提高所有人的安全性我们会更快地行动观察监管对航空业做了什么:它使它非常安全

上一篇 :“要进入集体记忆,事件必须具有意义......”5
下一篇 在Francazal,测试轨道悬浮Hyperloop 5列车