AI Rising:公司和公众如何应对人工智能

秒送号(miaosong.cn)自媒体平台10月27日文章,人工智能听起来可能像是一个未来派的概念,也许我们距离可以在各种主题上达到或超过人脑能力的通用形式的AI距离我们数年或数十年,这的确是正确的。

但是,机器学习,面部识别和该技术的其他早期形式的含义已经对全球的公司,政府机构和人们产生了影响。从隐私到工作到执法到人类的未来,这都引起了人们的疑问。
AI Rising:公司和公众如何应对人工智能

在GeekWire播客的这一集中,我们听到了人们从现在开始就对AI以及AI对业务,技术和社会的影响而采取的不同看法,这些都记录在最近的西雅图GeekWire峰会的不同会议上。

听上面的剧集,或订阅您喜欢的播客应用,然后继续阅读以编辑节选。

首先,微软总裁布拉德·史密斯(Brad Smith)是《工具和武器》一书的合著者,着眼于人工智能。

史密斯:我认为可以说,人工智能将在未来三十年内重塑全球经济,这可能比任何其他单一技术力量都要重,可能与内燃机在二十世纪上半叶重塑全球经济一样多。

我们的章节之一是关于劳动力中的AI的,我们实际上是从谈论马的作用开始的,这是1922年在布鲁克林发生的最后一次马燃。我们追踪从马到汽车的过渡是如何变化的经济的各个方面。我认为AI同样适用,因此我们应该做到这一点。
AI Rising:公司和公众如何应对人工智能

微软总裁Brad Smith在GeekWire峰会上。(GeekWire照片/ Dan DeLong)
但是,如果这还不足以引起您的注意,那么我认为书中还会涉及到其他一些内容。在整个人类的整个历史中,我们,我们所有人,我们每个人,都活在当下,是历史上第一代赋予机器赋予决策能力的人,这些决策能力只能由人做出。因此,我们最好做到这一点。

我们是第一代将决定机器如何做出这些决定,什么样的道德原则将指导他们做出决定的第一代人。没有压力,但是我们最好把它弄对。

AI Rising:公司和公众如何应对人工智能

有趣的是,在这样的背景下,每一代美国人以及世界上大多数人实际上已经成长为在电影院中观看具有相同基本情节的多部电影。人类创造可以自我思考的机器。机器为自己思考。机器决定奴役或杀死所有人类。这就是所谓的《终结者》电影1到N,包括即将发行的电影以及许多其他电影。

因此,我们了解到的一件事是,这引起了公众的共鸣。当他们看着技术领域并且看到我们创造可以做出决策的机器时,他们会以一种观点的观点来对待它,而这并不是纯粹的热情。

AI Rising:公司和公众如何应对人工智能
Todd Bishop:那么“正确处理”是什么样的?

布拉德·史密斯(Brad Smith):我认为这首先要求我们制定一套道德原则。我们有一家公司。我们描述了创建这些原则所经历的过程。有趣的是,这些校长和与他们非常相似的其他人几乎遍布世界各地。

人工智能将在未来三十年重塑全球经济,这可能比任何其他单一技术力量都要重。
这意味着技术公司,最终每个公司,每个部署AI的机构都必须弄清楚如何实施这些原则,这是一个巨大的挑战。我们谈论一点。这意味着作为一个社会,我们需要将这些原则付诸实践。我们该怎么做?好吧,这就是法律。这就是所谓的监管。因此,所有这些元素也将包含在内。是的,当您将所有内容放在一起时,这确实是一个巨大的挑战。

如果这看起来很复杂,我认为2019年对我们所有人来说都是一个非常有趣的课程,也许它应该对我们特别是在西雅图讲话,正如我们所描述的,最基本的道德原则就是我们所说的问责制。您需要确保机器对人员负责。

好吧,到最后,这意味着什么?这意味着,如果机器执行不正常的操作或未遵循您设想的道德方法,则必须能够关闭机器。

在2019年影响普吉特海湾经济的最大软件相关问题是什么?飞机驾驶舱内的软件。飞行员无法关闭的软件。那应该告诉我们。这不仅应该与一家公司或一个行业进行对话。我认为这应该与所有创造技术,在社会各个领域使用技术的人都可以交流,这是我们应该记住的一课。我们必须能够创造出出色的技术,我们确实希望能够在不希望使用该技术的情况下将其关闭。

当您进入科技行业时,我们要提出的观点之一是,在2010年,我们确实达到了技术拐点,因为与过去相比,不仅个人而且公司都开始存储他们的数据在云中,在数据中心中。它使我们成为了其他人的数据的管理者,而不是该数据的所有者。我认为我们的首要责任是保护他们的数据,保护人民,保护可能基于数据发生的事情而牵连的人民权利。

TB:您已经提到,在人工智能领域,人脸识别是我们真正能够弄清它的最早领域之一,至少需要采取一些第一步。亚马逊首席执行官杰夫·贝索斯(Jeff Bezos)两周前在Spheres上与记者们争执不休地表示,他们正在努力。亚马逊的公共政策团队正在努力。您正在与他们合作吗?

布拉德·史密斯(Brad Smith):我们没有与他们合作,但是如果他们想聊天,我们会很高兴。我的意思是,每当我们有机会与亚马逊的朋友交谈时,我们总是欢迎这个机会。而且我们与他们讨论或与他们讨论了很多事情,所以我想这个机会将会出现。

首先,我要鼓励我们所有人在面部识别中考虑一下。你们中的许多人从事技术工作或从事技术领域工作,在我进入Microsoft的26年中,我从未见过像面部识别这样的公共政策问题会爆炸。当我们在书中描述,我们给了很多心思和萨蒂亚的和我谈什么我们要在这个问题上说,刚刚过去的7月,2018年七月一个很好的协议,我们发表了一篇博客。我写了它,并说:“这是一项需要受到法律和法规约束的技术,因为它有很大的希望,但它可能会遭受极大的滥用。”

GeekWire编辑Todd Bishop和微软总裁Brad Smith在2019 GeekWire峰会上。(GeekWire照片/ Dan DeLong)
当我们第一次写这篇文章时,许多科技行业的反应,尤其是在硅谷,但在西雅图也是如此,“他们在华盛顿湖另一侧的水中放了什么? ?你们这是怎么了?您为什么说这需要受到监管?然后就在一年之内,旧金山市通过了一项禁止旧金山市使用面部识别的法令。您会看到有关它的字面意思在世界范围内蔓延。所以这很快就发生了。

我们确实需要两件事。第一,我们确实需要法律。去年12月,我在布鲁金斯学会发表了演讲。我们分享了一项建议,认为我们认为该建议将成为一部好的法律的一部分,我认为对于Amazon和每个人都在考虑这一点非常重要。我确实认为我们都应该透明。

我认为在当今的国家和当今的大多数国家中,如果科技公司想说:“嘿,这是一个主意,人们通常会感到满意。我们有个主意。人们将至少给我们一个公平的听证会。他们不想看到我们接受想法,而只是进入众所周知的后台,不与公众分享而将其提供给立法者。因此,我认为如果我们都以这种透明性分享想法,我们都会从中受益。

但是第二件事也很重要,我认为这是进行对话的另一个地方。我不认为公司应该通过简单地说:“我们希望会有法律。我们会有一些想法,一旦通过,我们就会遵守。”

我认为我们有责任比这更主动。这就是为什么当我们在12月说:“这里是我们认为应纳入法律的六项原则。”我们说,“然后,我们将开始将这些原则应用于自己。诸如我们将分享的事情,我们将确保我们的技术可以进行测试,以便人们可以查看,评估它,并与其他人相比定量地决定自己是否有偏见?”

TB:您将其与AI的消​​费者报告进行了比较。

布拉德·史密斯:好的。对于要部署面部识别的客户,应该有一个消费者报告。例如,我们说过,我们不会在会以偏向结果的方式使用它的情况下出售它。而且,我们已经说明了我们如何拒绝了加利福尼亚一家执法机构的许可机会,我们认为这样做会被利用。

我们已经说过,专制政府不应该使用它进行大规模监视。而且,我们已经解释了当我们认为存在以这种方式使用技术的风险时,我们如何拒绝许可技术的机会。而且我们在世界各地的国家/地区都设置了限制,以免以这种方式无意中使用它。

因此,我赞扬亚马逊将提出想法。不客气。它将做出积极的贡献。但我认为,亚马逊不应被允许说:“太好了。我认为,我们这个行业的所有人都有责任更广泛地思考我们自己对道德和正当性的认识,而不是在某个地方的政府中等待某人的责任。告诉我们该怎么做。

接下来,我们将在AI状态方面进行探索,探索隐私,监视和执法领域。GeekWire公民编辑Monica Nickelsburg在GeekWire峰会上主持了本次会议,与美国代表Pramila Jayapal,西雅图警察局局长Carmen Best和Taser和人体摄像头技术制造商Axon总裁Luke Larson进行了主持。

GeekWire公民编辑Monica Nickelsburg,西雅图警察局局长Carmen Best,美国众议员Pramila Jayapal和Axon总裁Luke Larson在GeekWire峰会上。(GeekWire照片/ Dan DeLong。)
莫妮卡·尼克尔斯堡(Monica Nickelsburg):我们正生活在对政府使用技术的方式感到非常焦虑的时刻。从电子邮件提供商到ICE,再到警察观看Ring监视录像的所有内容。我很好奇,为什么现在呢?是什么促使人们越来越怀疑,甚至引起公众的恐惧?

美国众议员Pramila Jayapal:对我来说,我认为其中之一是技术的发展速度快于政府监管和了解影响的速度。因此,在开发一种技术时,它就是为满足我们所讨论的需求而开发的。它满足了这一需求,并且不断完善。

但是,它还有其他所有其他辅助用途,不一定是它被开发的原因,而是它们是该技术被使用的一些方式。我认为面部识别就是一个例子。但是,我们必须赶上政府方面,而且我们必须拥有一个能够适应最终监管的技术的系统。

因此,如果您现在看一下选举安全性,我们周围有一些法规,但是它是基于过时的技术。我们需要确保技术不断更新,然后我们的法规才能与时俱进。

我们正处于大规模监视的时代,我认为这是我们在全国范围内所关注的问题,即如何使用我们的数据,正在发生什么,可以访问谁,如何在技术出局的人中控制它那里。我们确实需要快速工作才能到达那里。

首席卡门·贝斯特(Carmen Best):我同意这一点。问题是,当我们找到该技术时,我们在做什么。而且围绕它的法规和规则跟不上它的快速发展。因此,尽管我们认为这非常重要,但我们还是要确保我们保护人们的隐私,以及那些有时与我们拥有的技术冲突的问题。

在西雅图警察局,我们有一位专职律师,她是一名隐私专家,以确保我们在城市的其他地方使用信息技术,并且不侵犯人们的隐私权。因此,这对我们所有人来说都是一个非常大的问题。

MN:这确实说明了监管行动的必要性。但是众所周知,政府的设计行动缓慢。是否也有促使公司提高透明度的动力?因为其中许多人不讲故事或解释这些技术而闻名。他们与执法机构达成的许多交易都是秘密进行的,因此,公众如何对这项创新充满信心,如何利用这项创新,如果建设这项创新的人没有真正告诉他们这是什么对他们意味着什么?手段?

首席卡门·贝斯特(Carmen Best):我可能会质疑,因为根据我的经验,我只从事过28年的执法工作,但是根据我的经验,在大多数时候,我们拿到东西时就必须拥有搜查令。内置了关于如何获取信息,如何利用信息的参数。他们不能走出去,而没有司法审查和这类事情就只能随意做这些事情。

我会更加关注管制不善的私营企业。我可以想象Google会比西雅图警察局提供有关您的更多信息。
我会更关注管制较少的私营企业。我可以想象Google会比西雅图警察局提供有关您的更多信息。有一个竞技场可能比我们大多数人更具侵入性,拥有更多的信息。

卢克·拉森(Luke Larson):在考虑在Axon开发新产品时,我们已经建立了一个新的咨询机构,称为道德委员会。我们创建此文档的目的是为我们提供建议,以指导我们如何利用人工智能以及广泛的技术应用。因此,我认为公司不应该凭空创造这些解决方案。我认为他们需要寻求不同利益相关者的指导。

特别是在执法方面,了解他们所服务的社区以及这些社区中不同的人口统计和利益相关者是非常重要的。并确保在我们做出这些决定时代表他们。

因此,在我们的道德咨询委员会上,我们有技术专家。我们也有警察领袖。我们也有道德学者。当我们在努力权衡这些决定的含义时,我们正在谈论的是,尽管我们可以做些事情,但这是正确的事情,是否应该采取措施保护人们的身份,下游影响等?最终我不认为这是公司的工作。我确实认为我们希望政府来规范这些决定。

美国众议员Pramila Jayapal:我确实同意,这些公司应扮演角色并承担责任,因为它们是最了解该技术的公司。因此,我非常感谢您的咨询小组。而且我认为它的另一部分不仅是在技术发展时考虑它,而且当您看到正在发生的结果时,您如何立即做出响应?

我将告诉您,以面部识别为例,有一些公司,Microsoft是其中之一,他们非常愿意与我们合作以真正考虑需要做什么。即使您看到布拉德·史密斯(Brad Smith)出色的文章呼吁监管,但许多公司并不总是这样,但我认为还有其他公司对研究进行了大肆讨论,并说:“哦,没有证据。没有证据。我们不需要为此做任何事情。”

因此,我确实认为,开发这些技术的公司应负有真正的责任,因为一旦该技术问世,您就无法再将精灵放回瓶中。您无法控制中国对维吾尔人使用这种监视技术的方式,也无法控制人们越过陆地边界将相同技术应用到手机上。

因此,我确实确实认为到处都有责任,政府需要更快地对问题做出反应。我们需要在法规中建立技术不断变化的知识,并且需要与公司和所有利益相关方合作,以确保我们正确制定法规。

接下来,负责亚马逊设备和服务业务的高级副总裁戴夫·林普( Dave Limp)。

TB:亚马逊和其他公司在今年陷入了争议,当时有报道称,人们正在审查各种语音助手的录音,而这些录音通常是在客户不了解的情况下进行的。您和您在亚马逊的团队从客户对这些启示的反应中学到了什么?这些反应如何影响您现在正在做的事情?

亚马逊的戴夫·林普
在GeekWire峰会期间,亚马逊设备和服务负责人Dave Limp与GeekWire联合创始人Todd Bishop聊天。(GeekWire照片/ Dan DeLong)
Dave Limp:好吧,当听到客户的答复时,您要做的第一件事就是解决问题。因此,在这些领域并不总是完美的,但是我们已经准备好在24小时内使用此功能,以使客户能够选择不使用人工注释。因此,我认为我们是第一个能够提供这一点的人。同时,我们还澄清了我们的服务条款和隐私中心内的消息传递。我们在Alexa的中心地带,您可以在这里隐私保护所有事情,这很清楚我们正在这样做。

如果我能回到过去,那我会做得更好。对于为什么以及何时使用人工注释,我会更加透明。事实是,至少在AI行业这是众所周知的事情。不管是在媒体界还是在客户群中广为人知,很显然我们在那里还不够出色。

这不只是演讲。语音是人类正在注释的区域,但是您的地图,人们正在注释您选择的路线。在获得许可的情况下,您的病历将得到注释,以使AI更适合X射线。如今,AI的技术水平是如此之高,以至于仍然需要人工注释。

我想像一个未来,我相信它将实现,如果您阅读有关AI走向的最新研究论文,那么会有一天,联合学习和无监督学习以及尚未发明的转移学习和算法的结合将减轻AI的发展。需要人工注释和地面实况。但是,我们不相信这一天是今天。

TB:正如您所说,您是第一个向客户提供选项,选择不对语音录音进行人工检查。但是苹果实际上后来又走了一步,说:“默认情况下,这不会到位。人类不会查看您的录音。客户可以选择加入。”为什么不走这一步呢?

戴夫·林普:是的。我们还添加了一项功能,使客户也可以打开自动删除功能。因此,我们大约在同一时间(相隔一个月)添加了这两项内容。我们坐在房间周围,讨论了选择加入和选择退出之间的区别。这很重要,这是最基本的事情,我知道人们并不总是相信这一点,但是我们不希望为了数据而在亚马逊上使用数据。我去过那里九年了。我可以向您保证。我们希望使用可以实际代表客户改善体验的数据。

无论是通过政策还是通过法律本身,监管的空间都很大。我认为这是我们辩论的一个好问题。
所以我们进了一个房间,进行了确切的辩论。在很多例子中,如果您感兴趣的话,我可以给您几个,我们做注释的数据(仅占1%的一小部分)对于使Alexa和服务变得更好至关重要。

我举一个例子,这是我们两周前刚在印度推出的一种新语言,印地语。我们知道,在发布的前90天内,借助注释的帮助以及我们所做的其他其他算法的努力,Alexa在北印度语中的准确性将提高30%至35%。因此,您坐在那张桌子旁,然后走了:“我们是否要让客户满意并改善35%?”答案是否定的。而且,您确实需要足够广泛的数据语料库(来自各种不同的地理位置和人口统计资料)才能取得进步。这就是我们着陆的地方。我不知道其他公司打算如何做。对他们来说更好的问题。

TB:您是否应该采用广泛的行业原则,要么在公司内部使用,要么在整个行业中使用,以指导这些决策,以免您临时做出这些决策?

戴夫·林普(Dave Limp):我当然认为,我们今天所处的很多地区都有监管的空间。我们对此非常公开。我认为围绕AI的道德规范,无论是通过政策还是通过法律本身,都有广阔的监管空间。我认为这是我们辩论的一个好问题。

我认为,围绕隐私,还有各种各样的监管空间。我不同意法律的每一个细微差别,但是GDPR(这是欧洲人努力在平衡上增加更严格的隐私权政策)的努力非常非常好。然后事情不一定好。

但总的来说,我认为它非常非常好。它可能不那么好的地方就是模棱两可的地方。问题有时是存在灰色区域,然后您不知道如何编写代码,并且希望它尽可能地成为明确的法规。但是,所以我认为在这两个地方,都有很大的监管空间,我们肯定会对此持开放态度。

免责声明:该自媒体文章由实名作者自行发布(文字、图片、视频等版权内容由作者自行担责),且仅为作者个人观点,不代表 秒送号Miaosong.cn立场,未经作者书面授权,禁止转载。[投诉 · 举报作者与内容]

「作者 · 档案」
提供最新、最快、最热的各种热点资讯阅读分享,欢迎大家关注!

  
(0)

相关阅读

发表回复

登录后才能评论
发布