2月20日消息,在接受《连线》杂志采访时,Google DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)表示,尽管人工智能领域已取得了显著的进展,但真正的突破尚未到来。他强调,简单地扩大规模无法推进行业的发展。
在过去一年中,OpenAI通过ChatGPT等项目在业界独占鳌头。然而,在哈萨比斯的带领下,Google DeepMind并未因此气馁,而是在人工智能模型研发上展现了强大的竞争力和创新精神。
自从Alphabet去年4月合并了其两个人工智能部门为Google DeepMind后,哈萨比斯一直专注于整合资源,应对OpenAI的崛起及其与微软的深度合作,后者被Alphabet视为对其核心业务——搜索引擎的潜在威胁。
哈萨比斯透露,谷歌研究人员在ChatGPT发布前已有类似想法,但由于担心滥用和误用,决定暂不商业化该技术。
随着多模态人工智能模型Gemini的迅猛发展,Google DeepMind在研究和发布速度上发生了巨大变化。Gemini不仅提升了谷歌在与ChatGPT竞争中的实力,也强化了多个谷歌产品。Gemini发布两个月后,谷歌推出了更为强大的免费版Gemini Pro 1.5,该模型能同时分析大量文本、视频和音频数据。
随着科技巨头们纷纷开发和推出更强大、实用的人工智能系统,Alphabet推出的Gemini Ultra模型无疑为行业树立了新标杆,并可能促使竞争对手如OpenAI加速研发。
最近,哈萨比斯在伦敦家中接受了《连线》杂志资深作家威尔·奈特(Will Knight)的专访,深入探讨了Gemini Pro 1.5的技术细节和未来发展,及人工智能领域的趋势。
全文如下:
问:Gemini Pro 1.5能接收更多数据作为输入,并采用了名为“专家混合”的架构,这两者之间是什么关系?
哈萨比斯:Gemini Pro 1.5能处理适中大小的短片。想象你在学习某主题,有一个小时的视频讲座,你需要找到特定事实或内容,这非常有用。我相信这将带来许多令人惊叹的用例。
在Google DeepMind首席科学家杰夫·迪恩(Jeff Dean)的领导下,我们发明了“专家混合”架构,并不断优化改进。尽管Gemini Pro 1.5还未广泛测试,但性能已与上一代最大模型相当。这表明我们有能力利用这些技术创新创建更大的模型,这正是我们的努力方向。
问:计算能力增强和用于训练AI模型的数据量增加,是否推动了人工智能进步?据说,奥特曼打算筹集高达7万亿美元资金提高AI芯片产量,更强的计算能力会开启超级AI之门吗?
哈萨比斯:确实,这些因素推动了人工智能巨大进步。这也是为何像英伟达这样的公司如此成功,以及OpenAI提高芯片产量加速AI发展的原因。然而,我认为DeepMind与其他组织有所不同,始终将基础研究放在首位。在Google Research、Brain和DeepMind等部门,我们在过去10年的开创性工作中发明了多数机器学习技术。这是我们的核心竞争力,我们拥有大量其他机构可能不具备的资深研究科学家。相较之下,其他公司更注重工程研究以推动科学进步。
问:你认为扩展规模不再是AI发展唯一途径?
哈萨比斯:我坚信,实现通用AI(AGI)需要更多技术创新和规模扩展。虽然规模扩展仍在继续,并且没有看到任何停止的迹象,但我们不能仅依赖它获得新能力,如规划、工具使用或类主体行为,这需技术创新实现。我们还需在计算本身探索。我们希望在小型问题上实验,这只需几天训练。但发现小型规模上有效的方法在扩展时不适用,所以我们需找到平衡点,推断可能适用于更大规模的方法时进行扩展。
问:这是否意味着未来AI公司竞争是否将围绕工具使用和智能体展开,即AI可以做很多事,不仅限于聊天?据称OpenAI正在研究这个问题。
哈萨比斯:可能。我们在这条路上探索了很长时间。自AlphaGo以来,智能体、强化学习和规划一直是我们的主要工作。2016年,DeepMind开发了一种突破性算法,能解决复杂问题和玩复杂游戏。我们正在重新审视很多想法,并考虑将AlphaGo的能力与这些大模型结合。内省和规划能力将有助于消除幻觉等问题。
问:如何引导模型使其更具逻辑性?
哈萨比斯:这是一个大领域,我们投入了大量时间和精力。我们认为,当系统开始变得更像智能主体时,这将是它们能力的重大进步。我们在这方向投入了大量资金,其他公司也一样。我一直在安全论坛和会议上说,这是一个大改变。一旦我们让类似智能体的系统工作起来,人工智能就会与目前系统(基本上是被动问答系统)大不同,因为它们会变成主动型学习者。当然,它们也会更有用,因为能帮你完成任务。但我们将不得不更加小心。
我一直主张把智能体放到网上之前,用强化的模拟沙盒测试它们。我认为行业应认真考虑这些系统的出现,并采取措施确保安全性。也许要几年,也许更早,但这是另一类不同的系统。
问:你提到需要更多时间来测试你们最强模型Gemini Ultra。这是因为模型开发进度过快,还是因为这类大型模型存在潜在问题?
哈萨比斯:实际上两方面都有。模型规模越大,微调时面临的挑战越复杂,所需时间越长。更大模型具备更多功能,意味着我们需更全面测试。
值得一提的是,随着Google DeepMind变成更成熟稳定的组织,我们开始尝试新的发布策略。我们会提前发布实验性功能或模型,并邀请少部分受信任的早期测试者体验。这样,我们可以在正式发布前收集反馈并进行必要的调整。
问:关于安全性问题,你们与英国人工智能安全研究所等政府机构合作进展如何?
哈萨比斯:合作非常顺利。虽然我不能透露太多细节,因为这是保密的,但可以确认,他们正在对我们的前沿模型包括Gemini Ultra进行测试。我们将继续与他们保持密切合作。
此外,美国也在建立类似人工智能安全机构。这些机构都是在布莱切利公园人工智能安全峰会推动下成立的,旨在审查和监管人工智能系统,特别是涉及敏感领域如化学、生物、放射性和核武器等。目前系统还没有强大到足以引发实质性安全担忧的程度。但加强政府、行业和学术界在人工智能安全方面的合作和投入仍非常必要。随着智能体系统等新型人工智能技术出现,我们可能面临更多新挑战和变化。我们会看到渐进式改进,可能有很酷的大改进,但会感觉不同。(小小)
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )