编译:李珠江
编辑:琼凉
审校:周鹤翔
来源:GPLP犀牛财经(ID:gplpcn)
女性从事科技行业的机会越来越多,但仍有很大的提升空间。目前,约有四分之一的科技工作是由女性担任的。为了突出该领域那些有成就的女性,《权威杂志》(Authority Magazine)采访了多位AI领域的女性领导人。
每个人都被问到了以下问题:“众所周知,科学家们一直在争论,先进的AI在未来是否会对人类构成威胁。这场辩论已经逐渐演化为埃隆·马斯克(Elon Musk)和马克·扎克伯格(Mark Zuckerberg)之间的辩论。那么,您的立场是什么?怎样才能防止这种担忧发生?我们该怎么做才能让公众相信,AI没有什么可担心的呢?”
下面是10位AI领域女性领导人的回答。
AI具有双面性
Anna Bethke(英特尔AI负责人)
我认为,人们使用AI的方式比AI本身对人类的危害要更大。
AI的使用具有双面性性,就像锤子或者其他任何工具一样,既可以用来做善事,比如做鸟笼;也可以用来做坏事,比如打碎花瓶。虽然AI有可能学习提高到具有自我意识和甚至产生恶意,但这其实极难做到。
有些人已经能够通过制造带有恶意的AI,进行服务类攻击、在社交媒体的骚扰等等。虽然我们不能简单地排除具有自我意识的恶意AI存在的可能性,甚至被忽视,但是我们应该更多的就创建恶意AI进行讨论。
随着技术的发展和应用,披露该技术发展的透明度越高,每个人就能越了解情况,就能更多的提出质疑。从系统的设计,测试和实现,到立即纠正任何不利行为,或根据需要进行批量升级,在一定程度上都要保持人类的判断力,这一点很重要。
科技是我们的合作伙伴
Carolina Barcenas(Visa高级副总裁)
我认为,科技是我们的合作伙伴。
科技的确会带来一些变化,但是我相信社会的适应能力。尽管一些工作岗位可能会消失,但新的工作岗位将会被创造出来。当前是技术创新的时代。我相信,正确地使用AI将使我们的生活受益无穷,而我们现在正处于这一重大变革的开端。但是,我也认识到,技术一旦落入心怀不轨的人手中,可能是毁灭性的,这就是为什么要围绕AI的道德使用去进行有效监管,这是极其重要的一点。目前,数据的使用和隐私保护在欧洲已经受到了重视,其他国家也紧随其后,但我们仍处于起步的萌芽阶段。我认为最重要的是,我们要让人们知道什么是真正的AI,以及我们需要面对的挑战是什么。
AI只是我们开发的一种工具
Tatiana Mejia(Adobe的AI主管)
AI只是我们开发的一种工具,作为一个社区,我们有责任告诉大众,AI是如何创建的,以及我们该如何使用。技术本身并无好坏。
在Adobe,我们谈论AI服务于创作者并尊重消费者。我们正在仔细研究相关问题,并制定和实施有关数据隐私、数据治理、数据多样性等方面的流程和准则等。
继续推进 同时落实安全措施
Marie Hagman(Zillow的人工智能总监)
纵观历史,人们一直在使用新技术来完成一些令人惊讶的事情,并且给他人带来痛苦。例如,核能和原子弹。我是一个乐观主义者,我认为AI利大于弊。我们需要继续推进,同时落实安全措施,更快地制定和更新公共政策以帮助减轻风险。我觉得我们不能也不应该向人们保证AI没有什么可担心的。人们应该了解到它的风险并提高警觉。我们已经建立了保护社会免受不良行为影响的系统,包括执法,司法体系和公共政策。除此之外,我们应该让这些领域的领导人了解情况,并优先考虑防范AI可能造成的威胁。
当今AI发展还不成熟
Madelaine Daianu, Ph.D.(Intuit数据科学高级经理)
我认为,随着AI技术的进步,这些辩论只会越来越激烈。
有人认为这些争论为时过早,主要是因为当今的AI发展还不成熟。我们尚未发现创建超级智能的必要条件,因此,我们尚未掌握正确的信息,来确定如何更好地减轻可能存在的危害。
机器人不会明天就来占领这个世界
Doris Yang (BlackBerry Cylance高级总监)
AI的好坏,取决于人类如何定义问题和答案的边界,以及处理这些问题所需的数据。也就是说,不管制造出一个有意识的机器人需要花费多长时间,谈论AI使用的边界以及人工智能的应用才是至关重要的。即使到了今天,我们身边仍然存在着隐私和透明性的问题。
以AI驱动的解决方案有很多好处,我们应该积极地考虑问题,以便我们可以继续从中受益,而不会放弃更多的自由。我们现在需要为我们的底层设施打下基础,并保持警惕,以防技术和其他实体侵犯它们。
探索如何更好的利用AI
Marina Arnaout(Microsoft经理)
历史表明,每当一项伟大的发明落入心怀不轨之人手中时,邪恶就会占上风。当前,我们正处于AI发展的早期阶段,正在探索如何更好的利用AI,激发潜能,这可以帮助我们预防自然灾害,或者为盲人提供更多帮助,当然,还有更多形式的商业智能。
AI具有赋予社区和企业权力的潜力,并具有许多好处。但是,毫无疑问,先进的AI技术同时也会带来各种不利影响。它可能会以人类无法跟上的速度大幅度改变劳动力结构,从而产生重大的经济影响,并带来许多道德挑战。更直接地说,AI可以被设定为破坏程序,也可以做一些有益的事情,这是一个全球性的问题。
为AI设定条件和界限
Elena Fersman(爱立信AI研究负责人)
每一项新技术都会带来威胁。尽管AI是特殊的,但由于它是自我发展的,我们仍为其发展设定条件或界限。这些条件需要掌握在人类手中。我们需要承担责任,规定“游戏规则”,并规定这些算法永远不能打破规则。这些规则与人类必须遵守的法律,法规,道德框架和社会规范没有什么不同。为避免此类担忧发生,我们应该以AI系统所理解的语言来实施“生存规则”。也就是说,我们需要将这些规则数字化,确保框架和软件架构具有灵活性并允许修改,并且算法可以保证它们遵守这些框架。
成立一个组织:规范AI产业和研究
韩超(Lucidworks副总裁)
AI可以应用于许多造福社会的领域,例如医疗保健和自动驾驶汽车。然而,在武器开发或基因编辑领域,危险团体对于AI的滥用是令人担忧的。当前,AI不具备自我学习的能力,无法故意伤害他人,也无法通过互联网相互连接进行大规模的破坏。但是,如果未来控制不当,这些行为都是可能发生的。当前没有任何集中化的组织来规范AI产业和研究。我们高度依赖大型IT公司的良好愿景,并遵循标准的模型构建流程,以防止AI的偏见或滥用。我希望这样的组织能尽快成立,以获得更多公众的信任。
不应该试图去阻止人们的担忧
Trisala Chandaria(Temboo首席执行官)
所有新的技术给人类带来机遇的同时,也带来了危机,这就是科技的本质。
想想在汽车刚出现的时候,我们必须建立基础设施,采取安全措施和其他技术来适应他们。诸如道路,驾照,安全带和安全气囊等东西,都是为了确保公众能够安全有效地使用汽车。同样,在构建AI技术时,我们需要考虑安全性,基础设施,法律等。只要考虑到这些因素,我们就可以永远使用AI。
然而,这些措施仍在制定过程中,目前需要优先考虑。我们不应该试图去阻止人们对AI的担忧。人们应该问问他们的数据是如何被使用的,哪些技术影响了他们的生活,以及AI是如何影响社会。担忧和恐惧是有区别的。我们不想吓唬人们,让他们远离新技术,但我们希望确保人们在影响他们日常生活的技术上有所选择。这取决于这个领域的领导者,确保公众有足够的能力和信息来做出选择。
免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。