主持人:本杰明·汤普森
欢迎回自然的播客。本周,监控特殊…
(押韵)
主持人:本杰明·汤普森
自然有一个特别关注面部识别技术和他们的角色在本周的监测系统,在播客,我们紧随其后。在这个节目中,我们将探索如何使用这些技术,伦理问题时需要考虑做研究,以及该领域的学者认为对他们的使用。这个特殊的建筑师之一是理查德•范Noorden特性在编辑自然和他共同主办自然的播客本周与我。理查德,你好。
主持人:理查德·范·Noorden
你好,本。
主持人:本杰明·汤普森
理查德,首先,我想我们要问面部识别技术是什么?我的意思是,我想象情节的名字,但你能给我一个介绍一下它是如何工作的吗?
主持人:理查德·范·Noorden
确定,所以,从本质上说,这种技术的几何是你的脸,像一张脸打印,你可以认为你的手指的指纹。这是你独特的分类,这是一个生物标识符。然后,可以用来检查其他打印。因此,它可以被用来验证你自己。你可以打开你的智能手机。可能你如何穿越护照门因为你匹配存储照片。也可用于所谓的一种一对多的比较扫描打印对数百或数以百万计的其他人,这是警方如何扫描人群,试图找到一个观察名单中,例如。
主持人:本杰明·汤普森
这不是一个新技术,Richard。为什么自然现在想覆盖它吗?
主持人:理查德·范·Noorden
是的,所以在过去的几年里,我认为这项技术已经进入了世界各地的许多地方,和阻力也越来越多。今年,我们看到城市在美国禁止公共机构使用面部识别,因为他们担心错误和偏见,和我们看到的建议监管在欧洲和美国和其他地方。所以,我们看看如何研究本质上是完全被这种技术的上升。所以,我和我的同事一起工作,大卫。Castelvecchi,记者在这里,自由职业者托尼Roussi,我们检查这三个特性。现在,今年,它实际上是被特别及时,因为COVID了和我们已经看到的地方使用面部识别技术来帮助跟踪联系和实施检疫,实际上,人们担心这种实时监测技术的使用可能会停留在大流行后,COVID给一些城市和州实验和巩固这些技术的机会。
主持人:本杰明·汤普森
面部识别的崛起在世界各地的城市是我们本周的第一个故事的主题。我们已经调查关注这项技术的传播,努力抵制它。我们的旅程开始于塞尔维亚。
应聘者:达尼洛Krivokapić
我们知道的是整个城市将会覆盖这些相机。
面试官:诺亚贝克
主任这是达尼洛Krivokapić人权组织分享基金会驻贝尔格莱德,塞尔维亚。
应聘者:达尼洛Krivokapić
此时此刻,我们能够地图,公民从贝尔格莱德,超过1000相机在贝尔格莱德超过460个地点。
面试官:诺亚贝克
监控摄像头的传播在塞尔维亚是达尼洛。但不是仅仅因为他们的患病率。这些相机也配备面部识别技术部署在预防犯罪的名称创建智能城市。
应聘者:达尼洛Krivokapić
这意味着如果一个城市是完全覆盖着相机和面部识别软件和你也有一个与生物识别身份证照片的数据库,您可以跟踪每个人。
面试官:诺亚贝克
和达尼洛警告说,任何系统帮助政府来跟踪人们滥用开放。
应聘者:达尼洛Krivokapić
如果你有一个系统,基本上是覆盖整个城市,这些自由是处于危险之中。我们也生活在一个国家,我想说,礼貌,和脆弱的民主,所以当我们的政府有这样的一个强大的工具,这可能会导致很多问题。
面试官:诺亚贝克
这种面部识别技术在贝尔格莱德的扩张只是最新的一个例子在世界各地。
应聘者:史蒂芬·费尔德斯坦
我认为这种技术的传统智慧是,它主要是围绕国家技术复杂的还有那些糟糕的人权记录。
面试官:诺亚贝克
这是史蒂芬·费尔德斯坦。他一直在分析人工智能监控技术的传播国际智库在华盛顿特区。
应聘者:史蒂芬·费尔德斯坦
我认为这可能是一个一般意义上的民主国家都使用这种类型的技术,这些技术,更少,但像中国这样的国家,俄罗斯、伊朗非常强劲。复杂的功能和不良记录的自由也许这个科技的领先用户。我发现实际上是民主国家一样普遍的使用这些技术作为专制政府。
面试官:诺亚贝克
例如,这里在伦敦,使用面部识别技术是在2016年和2018年之间自然在国王十字大道的办事处,在伦敦市中心的一个繁忙的街道。特定的使用这种技术已经被停止了。有一些观点发表后的公共意识到它。但警方也已使用面部识别自2016年以来,在英国。在美国的一些州也有类似的警方使用的技术。
应聘者:史蒂芬·费尔德斯坦
一般来说,只是比我预期的更广泛,许多国家不那么复杂的功能,像肯尼亚这样的地方,例如,国家在中亚,塞尔维亚,他们都部署先进的面部识别监测、社交媒体监控等等。
面试官:诺亚贝克
根据史蒂文的研究,这个监测技术的传播,在一定程度上,是由所谓的“软贷款”从中国公司——一种廉价的融资使政府购买技术,提出了一个担心,中国政府可能不正当影响的国家购买他们的系统。但为了更好地理解这些监视工具是如何传播的,史蒂文警告说,只有看中国太简单了。毕竟,他们不是唯一的监测技术的提供者。
应聘者:史蒂芬·费尔德斯坦
中国是一个很大的球员,但这不是唯一的球员。无论是民主国家提供技术像美国,英国,法国,日本,和很多人一样,以色列,以及独裁政权,比如俄罗斯,也提供这些类型的功能。所以,从我所看到的,拥挤的市场。有很多来自不同国家的不同的竞争对手正试图提供这种类型的设备。
面试官:诺亚贝克
在过去的几个月里,一些公司,比如IBM和微软,划清界限这种监测技术在收到重大阻力,但尚不清楚有多少企业参与这项技术的发展,以及一些对公众压力可能没有那么敏感。例如,美国公司Sandvine。白俄罗斯政府提供技术,允许他们有选择地审查网站,网站相关动荡由于有争议的选举。
应聘者:史蒂芬·费尔德斯坦
现在,经过大量的政治压力在美国,Sandvine已经把其销售和提供这些工具从白俄罗斯。但是,只有特定事件的发生,因为在美国兴起的政治问题。否则,Sandvine非常乐意继续为白俄罗斯政府和提供这些工具,事实上,它继续提供这些相同类型的干预工具其他独裁政府,像埃及,世界各地。所以,从这个意义上说,它几乎似乎有点反应。
面试官:诺亚贝克
所以,如果监测技术的传播就像面部识别由公众的反应介导在某种程度上,这引出了一个问题,“公众怎么看?给我们一些启示,这是卡莉,Ada Lovelace研究所所长在英国。
应聘者:卡莉类
我们调查了4000名公众广泛的代表性,我们有一些很有趣的发现。总体上,我们发现人们更舒适与警察使用面部识别技术相比,使用的技术在私营部门。广泛的大约69 - 70%的人说他们会舒适与警察在特定情况下使用面部识别技术。而认为应该使用面部识别低得多的水平在学校或在工作场所,例如。
面试官:诺亚贝克
虽然大部分的受访者满意的某些使用技术,29%的人不满意。
应聘者:卡莉类
的人说他们不舒服,他们给的主要原因是,他们觉得这将正常化监视,我认为这是一个真正的担心存在很多人,可能是由某些社区的人经历更多的高度已经觉得他们over-surveilled或over-policed,包括黑色或少数民族背景的社区,这是一个真正的问题。
面试官:诺亚贝克
这也反映在担忧从被调查者说,他们广泛内容使用监视技术,但他们警告。因此,得到一个更微妙的理解,随后的Ada Lovelace研究所调查了一些公民的生物识别技术委员会,有点像焦点小组。
应聘者:卡莉类
我们有一个会话与人专门从黑色或少数民族背景,一个会话与残疾人和一个会话与人”社会。通过这些课程我们发现一系列不同的焦虑和担忧使用面部识别和其他生物识别技术。一个线程,在整个公民的生物识别技术委员会,它将是非常重要的,这项技术并不歧视某些群体。有一个大问题的公众,这种技术歧视,他们希望看到某种验证或保证的技术不是歧视性之前推出。
面试官:诺亚贝克
这些发现,连同其他几个问题,导致了Ada Lovelace研究所支持暂停这项技术,至少在监管问题之前敲定。这个播客的来源都不是完全监视技术,但通常他们担心技术超过了监管。卡莉认为,监管机构需要把人们受到面部识别技术前沿和中心工作时在未来如何最好地使用他们。
应聘者:卡莉类
我们将报告结果的公民的生物识别技术委员会希望在今年年底之前,他们已经取得了一系列建议,我们希望看到现在进入政策。并行,我们还委托一个独立审查的监管框架在英国生物特征数据。我们任命马修·赖德QC和一个律师团队和技术专家分析现有法律框架,提出一系列建议,如何改变了法律,以更好地保护人们的生活,使生物技术的使用在一个安全的和可信赖的方式。
面试官:诺亚贝克
这是卡莉Ada Lovelace研究所,总部设在英国。你也听到达尼洛Krivokapić分享基金会的塞尔维亚和史蒂文·费尔德斯坦在卡内基国际和平基金会总部设在美国。这个包是由豪尼克的叙述我,诺亚贝克。
主持人:本杰明·汤普森
理查德,似乎我们刚刚听说这些相机真的随处可见。
主持人:理查德·范·Noorden
极为忧虑,担心的是这里的缺乏透明度,缺乏对数据的理解,在任何地方,人们觉得他们可能是被照相机或观看他们的形象可能是看着后来被警察使用面部识别技术,从本质上讲,它改变你的感觉如何你的生活,可能。你可能不去集会或抗议甚至足球比赛如果你认为可能使用面部识别技术,也是一种工具,只是非常适合建立一个架构的控制,并且经常所使用的社区对他们说,他们并不感到更安全,即使他们被告知他们应该更安全,因为相机。所以,很多当地的阻力,我们看到的是由人说,“这不是帮助我们的社区,尽管我们被告知。
主持人:本杰明·汤普森
我想有不成比例的不同效果的使用这项技术在不同的社区。
主持人:理查德·范·Noorden
完全正确。有一个例子今年早些时候被捕的一个叫罗伯特·威廉姆斯在密歇根人面部识别系统误认为他是偷了一块手表。他们模糊的监控录像的一个黑人和他们匹配他的驾驶执照,他也是黑人,但这不是他。他们的家中逮捕了他,很显然,根据威廉姆斯曾投诉申请美国公民自由联盟,一个侦探给他看这些照片,威廉姆斯拾起来,把它旁边的他的脸,说,“我希望你不要认为所有黑人看起来很相像。这不是我。”显然侦探回答,“嗯,电脑是你说。所以,对任何人都噩梦。他被释放,但他超过一天举行。和该地区人民说不仅仅是一个错误是,在这种情况下,没有足够的检查在这是否应该匹配实际上是一个匹配。这也在这一地区扮演警察的感觉over-policing黑人社区,和他们会使用这个工具可能更关注他们已经逮捕的人太多,,这只是加剧了这些担忧。例如,美国公民自由联盟说,根据他们的说法,这个工具不工作很好,甚至当它工作时,太危险的一个工具。 That’s what Phil Mayor of the ACLU says. So, that’s been an example that people have cited to talk about how this technology doesn’t work well enough and it could just be used to further entrench biased policing, is what they’re charging.
主持人:本杰明·汤普森
好吧,让我们来谈谈这项技术。面部识别是研究的产物,技术需要开发和算法框架下训练的脸,这并不是没有问题。
主持人:理查德·范·Noorden
是的,这个被称为“肮脏的小秘密”的面部识别技术,这是这些算法需要培训数百万面临为了得到擅长从每个提取最相关的几何的脸,要做到这一点,研究人员需要大量的数据集的面孔。这在过去的几年中被因为喜欢计算机科学,人脸识别的研究涉及吸引大量的公共图像的网络,甚至经常许可研究使用,还有一些非常大的数据集的数以百万计的面孔发布的公司或学术团体为了训练和测试和基准测试他们的面部识别算法,多好,这只是工作。然后一个艺术家叫亚当·哈维已经指出,这意味着你的脸可能是在一个共享的数据集,然后随后被引用和使用的公司为军方创造这些系统。这结果让一些人发现他们在这些照片非常不开心,这是计算机科学研究人员没有想到。数据是公众的危害是什么?原来的伤害来自的自主权和尊严在这些照片的人,当他们听到,不想以这种方式使用他们的照片。因此,人们不得不重新思考,‘嗯,我们不应该以这种方式收集数据集的照片吗?首先我们应该询问人们,我们会怎么做,如果我们有了我们需要的数以百万计的照片吗?”,周围有其他伦理问题的研究。
主持人:本杰明·汤普森
显然,道德问题在同意和如何使用这项技术,但也围绕一个非常有争议的研究领域,使用这些数据集,这就叫做面部分析,努力推断别人的特点,通过分析他们的脸。然而,尽管存在这些问题,人们仍然在人脸识别的研究引出了一个问题,这种研究可以合理吗?嗯,了解一些在学术界的讨论中,我伸手从美国康奈尔大学的凯伦·利维,研究社会、法律以及伦理维度的新技术。
应聘者:凯伦征税
我认为的历史知识几乎总是一个重要的在做这样的工作和思考的社会影响,一个是做什么。很多人将现代面孔识别一些年长的伪科学试图辨别从脸的形状像犯罪,对了,事情很深深扎根于种族主义和优生学。我认为他们是很恰当的对比的一些现代研究试图做出类似的推论基于面对,比如性取向或再次,诸如犯罪或其他个人特征。你还看到报纸,您仍然看到试图做出这样的推断,但是我认为,在大多数情况下,越来越多的研究人员的意识到这样做的真正的局限性和可能遵循的社会和伦理后果,我知道一些出版物场馆或会议场地已经开始认真对待更关注研究,试图做那样的事。
主持人:本杰明·汤普森
在你的研究,你有没有了解这人回到技术在道德上是中性的,它是如何使用的问题的一部分?
应聘者:凯伦征税
是的,我的意思是,人们总是喜欢让那些断言,对的,他们只是工程师和人有时不负责任的工具,实际上是构建和部署到世界这是基于科学,科学家们做的。我认为与人脸识别,对于某些应用程序比这更加深入的合作,如问题实际上是对科学本身的完整性,而研究人员应该从根本上关心。但最重要的是,我认为越来越多的意识到仍远普遍认识的程度我们可以把道德责任或道德责任研究人员的工作,他们做了,把外面的世界。因此,人脸识别的‘好’使用,或那些经常rhetoricised,几乎总是喜欢寻找失踪人员,尤其是失踪儿童,或打击恐怖主义,我认为每个人都喜欢东西,在大多数情况下,认为积极的用例。困难的是,它几乎是不可能的只部署一个技术对于那些用例,每个人都同意是有益的。这是真的,真的很难阻止这些工具使用的蠕变很多很多的东西,我们对他们的伦理问题有了更多的矛盾。
主持人:本杰明·汤普森
如果我想出一个算法非常,非常善于识别面孔在医学背景下,显然有潜力,它可以用在不同的上下文中,这就是研究人员需要知道的。
应聘者:凯伦征税
潜在的,是的,我不认为这一定意味着很难停止。我不想这样的断言我们不应该做任何研究,可能会有一些负面的社会影响,因为这些都是几乎不可能预测。我们应该反思,我们应该仔细思考而不是放弃,“嗯,我只做科学,因此无论接下来会发生像我不关心,”给我的印象是一个非常荒谬的论点。但是没有亮线,我想,或另一种方式。我不认为像柜台指出,“嗯,你应该做哪些你觉得只100%相信,没有人会滥用它,“这将是一个很困难的线画,将阻碍很多科学。所以,我认为答案可能是中间的,正确的,还有一些我们可以到位的体制保障试图确保慈善的使用,但我们永远不会相信这将持有100%。
主持人:本杰明·汤普森
我的意思是,你说把保障到位,我的意思是,有可能使一个道德数据集,如果是这样,可以使用它在道德面部识别研究呢?
应聘者:凯伦征税
我认为有某种道德最小值,我们可以考虑。所以,当然,考虑同意是一个很好的初始阈值,你会想要确保你使用数据集的你感觉很相信的人会同意他们包含的数据集。已经是一个相当困难的酒吧,不是我认为有很多牵引计算研究。其他的人认为很多关于学术界和产业界之间的关系,正确的。人们有不同的需要程度他们想种productise研究与基础研究在这个领域。除此之外,人们认为很多关于包容,同时,我认为,这实际上是一个非常有趣的伦理困境。所以,很多人变得相当合理担心微分准确率为不同类型的脸,对,人们的面孔的颜色或女性的面孔和面孔识别算法往往是不准确的。有很有趣的辩论在社区内关于我们是否应该想要的是更广泛的数据集,有更多的准确性对于那些组织,或者我们可以说,实际上,使用这些数据集是一个问题。我们不一定需要更广泛的数据集,将被用于在警察的黑人社区。我想承认的道德不确定性有一个初始步骤。 But there’s like I think significant and legitimate disagreement about kind of what we ought to do in that case.
主持人:本杰明·汤普森
凯伦,你显然在这方面的工作。有什么东西已经和一些变化,你见过的印象在你的研究领域?
应聘者:凯伦征税
通常,我认为在技术研究,推动小说做技术上的事情或以某种方式提高艺术的状态,就像我认为学术奖励往往来自于做一些冷却之前,没有人能够做。我认为人脸识别是一个真正伟大的背景下,技术进步的例子可能是社会和伦理上间接的方式仅仅是现在,我认为,成为更广泛的赞赏。真的很难,我认为,影响广泛的跨企业的学术文化的改变和开始说,“好吧,也许我们也应该回报像仔细思考这些社会后果或可能在技术上的东西真的令人印象深刻的喜欢并不是真正应该鼓吹和广泛发表。”,我们开始看到社区认为,我认为这是一个困难的谈话,因为没有人想被指责做不道德的事。规范,我认为,变化的很快。机器学习的一些主要会议刚从研究者开始要求更多的关注他们的工作的伦理后果,他们没有。这将是非常有趣的,我想,看开发未来几年的新社区,因为我觉得这是对的。我认为这是一个社区没有以前认真对付那些以显式的方式,这将是有趣的,五年以后,这是典型的研究者认为很严重或包括在他们的论文伦理语句有意义,还是有点像一个时尚褪色或者它不会是有效的吗?我认为,那些将观看有趣的发展。
主持人:本杰明·汤普森
凯伦征收从康奈尔大学。我们听到凯伦说,理查德,会议,在某些情况下,开始采取安全措施,但她还提到,一些研究论文仍出来,都是基于一些相当有争议的研究至少可以说。这是你一直在寻找一个特性。
主持人:理查德·范·Noorden
是的,有很多文件,实际上,从中国一直在关注使用面部识别,试图区分维族的面孔——这少数民族,其中大部分是穆斯林在中国西部,似乎这种非凡的学术期刊发表这项研究,本质上给它一个隐性的,是的,这是好的。今年有很多的辩论应该做什么在这种背景下对这些论文。然而,不仅仅是工作。其他报纸,试着看看其他特征的人从他们的脸。但是,令人惊讶的是,一些这方面的研究仍在进行,还出版,这是很难看到如何通过伦理审查。,本质上是一个不断扩大的联盟的人说,“这项研究在伦理上是很困难的。为什么有人做吗?为什么科学界说这是好吗?“当然,公司和政府将做他们做的,他们应该受社会和法律,有研究人员能做的事情不多,除了公开反对它。但在他们自己的科学研究中,研究人员需要更仔细地考虑什么他们做他们的面部识别工作。
主持人:本杰明·汤普森
实际上发生的事情有一个研究人员思考他们在做什么,理查德,你问他们。
主持人:理查德·范·Noorden
是的,所以,今年早些时候,就在COVID真正起飞,我们问及500面部识别,人工智能和计算机视觉的研究人员对这些道德问题,他们认为和他们认为这项技术是如何作为一个整体。伦理问题,一般来说,人很不舒服,担心他们,我认为这是积极的,他们担心。70%以上的人,例如,认为弱势群体的研究,例如,回族,我所提到的,他们认为,基本上是不道德的或者是不道德的,即使你已经同意。在是否人脸识别研究人员应该得到同意的人的照片,他们训练系统,这是更多的分裂。只有40%的人认为科学家应该获得知情同意。不过,比我想象的,毕竟,很多数据集,我们这里讨论的是公共的照片。
主持人:本杰明·汤普森
所以,仍然很分裂的字段,那么在这种情况下。
主持人:理查德·范·Noorden
是的,仍然分裂,因为如果这些在线照片有执照说他们免费使用,为什么不使用它们呢?许多研究人员仍然认为,这也是很难看到如何向这些人伸出援手。你不一定知道他们是谁只是因为你看到他们的脸的照片或如果有标签。所以,我认为研究人员仍真的工作这个想法,说实话。他们有点清楚应该做什么研究,尝试找出敏感,个人特征的人从他们的照片。很多人觉得需要知情同意在这里或那里应该事先与影响的团体讨论。当问科学界应该做这些伦理问题的研究,很多人认为应该有伦理道德的同行评审会议和期刊上,当我们讨论,实际上,我们应该坚持人类主题研究伦理的形式部分同行评议的过程。
主持人:本杰明·汤普森
但是,也许把责任从研究者自己,我的意思是,我使用这个词守门松散,但谁发表的论文和会议?
主持人:理查德·范·Noorden
嗯,我认为这是说,社区作为一个整体需要灌输更多的伦理审查的方式工作,因为那些运行会议通常是研究人员,甚至运行日志的人几乎都是研究人员,在接受报纸的人,所以把这些伦理审查过程是我想很多人都想要的东西。人们也担心机构审查委员会,这些伦理机构考虑对人体的研究,这对医学研究我们非常熟悉。计算机科学,那么。很多人认为这些人脸识别的研究应该主要通过这些机构审查委员会,但他们中的许多人觉得这些板不是很好装备在这种研究法官伦理问题,因为伤害我们讨论可能危害到整个组,不损害个体。如果你想创造一些从他们的照片,发现某人的性,现有的事实可能是更有可能伤害整个集团的人现在可以挑出或即使技术不行,认为它可能是有害的,可能。因此,这些更微妙的危害。这些都不是直接医疗损害参与研究。这些微妙的社会危害,所以人们不确定IRBs同时装备精良的考虑这些,所以你可能会通过一项研究伦理审查,这将是一个新的浏览器锻炼。这不是真的深思。
主持人:本杰明·汤普森
开始的时候,我们听说了Ada Lovelace学院在英国以及他们对公众谈论意见面部识别技术和如何使用它,有可能觉得在某些情况下,这种技术的速度超过了监管。你认为这里的一部分问题是,事情进展得太快,伦理审查委员会或任何你正努力跟上吗?
主持人:理查德·范·Noorden
哦,完全。我的意思是,它如此迅速地移动在过去的几年里,我不认为这不是任何人的错,这只是一种欣赏,更需要注意这一点。在我们的调查中,我们也要求研究者”,你怎么看待面部识别的方法是使用?什么是舒服和不舒服是什么?”,我很有兴趣知道的答案实际上模仿很密切的Ada Lovelace研究所做了一个更大的调查时发现,一种代表性的4000名英国人的调查。我们的研究人员和Ada Lovelace研究所的调查回答的人,相当满意的想法警察使用这种探头寻找犯罪嫌疑人已提交。这是一种非常表达假设有额外的监管到位,当然可以。和他们也相当舒适的使用在机场检查我们的身份,使用智能手机,他们非常不舒服,这个东西可以用于工作检查你的出勤,甚至在采访中看到,如果你有适合公司特点,这正在发生。在学校很不舒服被使用。本质上,很不舒服,当他们不能真正看到使用技术的公共利益是什么。 If the benefit just accrues to the private company that’s in control of the tech, people are not very happy about that.
主持人:本杰明·汤普森
理查德,今天我们已经听到了很多关于面部识别技术。我认为这是公平地说,面部识别技术不太可能很快消失。所以,它去哪里,理查德?我们怎样才能确保它的使用“好”,我想?
主持人:理查德·范·Noorden
所以,毫无疑问,我们看到很多阻力和担忧隐私和伦理等等要成长。我认为我们将看到更详细的个案解剖时面部识别是有用的,不是因为在笼统通常不会让你失望的细节是什么好,什么不是。和都是要让人们真正与技术和真正理解如何使用和为什么它是使用,我很鼓励Ada Lovelace研究所做的工作,因为他们使用这些公民的生物委员会实际上问人们他们认为非常详细的方式如何使用面部识别技术。因为最终,这项技术将改变我们的社会。它会改变我们的社会的方式可以监管和国家可以监控的方式正在发生什么事情。它会影响人们的隐私,最终,我们需要询问大家是否感觉舒适的社会改变这种方式,和这样的辩论,我们需要以安全、建设性地使用这些技术。如果我们没有辩论,这可能最终可能的情况下,许多社会不想进去,但是我们可以看到自己在默认情况下。因此,我们需要停下来考虑,改变规定,改变立法,以确保这项技术正在为我们所有人,而不仅仅是相机背后的人。
主持人:本杰明·汤普森
理查德,让我们离开这里。今天感谢你加入我。听众在哪里可以找到更多关于面部识别技术和调查结果,例如?
主持人:理查德·范·Noorden
是的,我们的调查结果和面部识别技术都是网上的文章,解释它是如何工作的,它的使用和研究人员的伦理问题,你可以找到他们nature.com/news。
主持人:本杰明·汤普森
和最后一件事。显然,没有Coronapod在今天的节目,但留意podcast提要在本周晚些时候的最新一集,诺亚会说话的地方自然的海蒂Ledford死亡率的下降和接触疫苗的最新消息。如果你想与我们取得了联系,你可以联系我们在Twitter上@NaturePodcast -或在电子邮件podcast@nature.com。我是本杰明·汤普森。
主持人:理查德·范·Noorden
我理查德·范·Noorden。谢谢你的倾听。