极客网·极客观察3月28日 最近AI圈突然流行起开源概念。Meta承诺将会打造开源AI,马斯克起诉OpenAI,说它缺少开源模型。与此同时,一批科技领袖和科技企业纷纷为开源概念呐喊。不过科技界碰到一个难以解决的根本问题:它们对“开源AI”的概念无法达成共识。
照字面意思,开源AI意味着未来任何人都可以参与科技开发,它能加速创新、增强透明度,让用户对系统拥有更多控制权。但到目前为止没有人给“开源AI”进行明确界定,科技巨头完全可以根据自己的需要扭曲概念,甚至有可能利用开源AI稳固自身地位。
在这里我们不得不提到Open Source Initiative (OSI),它是一个非盈利组织,成立于1998年,正是它推动了开源软件的发展。OSI已经招集研发人员、律师、议员、大科技公司代表,总计约70人,试图明确界定“开源AI”概念。
OSI高管Stefano Maffulli说,他们对开源AI原则已经达成广泛共识,但细节方面分歧很多。要考虑复杂的竞争利益,要找到一套方案让所有人满意,要让大企业积极参与,真的不容易。
大厂的态度
去年7月,Meta开源Llama 2模型。Meta AI与开源事务法律副总顾问Jonathan Torres说:“我们支持OSI明确定义开源AI,为了全球开源社区的利益,我们会积极参与定义工作。”
相比Meta,OpenAI显得没有那么积极。在过去几年前,OpenAI很少谈及自己的研发进度,理由是安全无法保证。OpenAI新闻发言人称:“只有当我们谨慎评估好利益与风险,包括误用、加速等问题,才会考虑将强大的AI模型开放。”
Stability AI和Aleph Alpha已经提供一些开源模型,Hugging Face托管了一批免费使用AI模型。
谷歌Gemini和PaLM 2模型也没有开源,但Gemma模型已经可以免费使用,它的对手是Meta Llama 2,但谷歌所说的不是“开源”,而是“开放”。
到底上述模型能不能称为“开源”,大家意见并不统一。不管是Llama 2还是Gemma都需要获得授权,使用时会受到限制,苛刻的要求无疑是与开源相违背的。既然开源就不能施加任何限制,科技企业显然没有做到。
OSI高管Stefano Maffulli称,开源的目的本来是要确保开发者可以随意使用、研究、修改、分享软件,不施加任何限制,但AI的运行方式有些不同,所以原本适用于软件的开源理念无法流畅转移到AI领域。
Stefano Maffulli解释称,AI模型涉及的组件太多了,如果是软件,只需要修改底层代码就行了,AI更复杂,根据目的的不同,修改AI模型会牵涉到训练模型、训练数据、处理数据的代码、管理训练流程的代码,还有模型的底层架构等。
基本自由是什么?基本权利是什么?我们都需要明确界定。为了执行基本权利如何操作也不够明晰。只有定义明确,定义被大家尊重、接受才能降低合规成本,减少摩擦,分享知识。
当前的症结在于数据。所有大型科技企业只是简单发布了预训练模型,没有提供训练数据。如果想给开源AI下一个更明确的定义,没有数据就很难修改、研究模型,所以它们并不是开源模型。
有些人持不同意见,他们认为只要简单描述数据,研究人员就能深入调查模型,没有必要通过重新训练来修改模型。预训练模型可以通过所谓的微调进行调整,也就是用一批规模较小的特殊数据集来重新训练。
比如Meta提供的Llama 2,Meta虽然给出的是预训练模型,但已经有一批开发者下载、修改它,然后分享自己的修改结果。开发者会用它完成各种项目,它已经拥有一整套生态系统,我们能不能叫它半开放?或者叫半开源?
非盈利组织Open Future的研发人员Zuzanna Warso认为,从技术角度看,如果没有原始训练数据,研发人员无法修改模型,但没有训练数据就真的无法自由研究模型吗?这个争论点也值得商榷。
Zuzanna Warso称:“在整个流程中,训练数据是关键组成部分。如果我们真的关心开放,也应该关心数据的开放度。”
开源的意义
AI Now Institute联合执行董事Sarah Myers West去年曾发表一篇论文,她在论文中指出,许多开源AI项目缺少开放性,但她同时也指出,训练尖端AI需要大量数据和计算力,苛刻的要求限制了小玩家的参与,不管模型的开源程度如何都受到限制。
通过开源,人们希望达成怎样的目标?对于这个问题大家也莫衷一是。Sarah Myers West称:“是为了安全?为了学术研究?还是为了增强竞争?我们必须对目标有更清晰的认识,系统开放到什么程度会对目标追求产生怎样的影响,这点也需要考虑。”
OSI在定义草案中认为,开源能带来好处,其中自主、透明就是关键收益,但文件中也提到了“超出范围的问题”,比如伦理、信任、责任。
Maffulli解释称,从历史上看开源社区的关注重点是如何减少软件分享摩擦,不能陷入无限争论,比如应该如何使用软件。
有人不认同Maffulli的说法,技术是中性的,伦理问题不可控,这些有争议的问题本来就很重要,之所以拒绝讨论是避免松散的开源社区分崩离析。
除了OSI,还有一些组织也想为开源AI指明方向,比如2022年成立的 Responsible AI Licenses(RAIL),它想通过开源授权的方式限制模型特殊使用方式。拿到授权后,开发者不能以不合适、不道德的方式使用AI模型。在Hugging Face的托管平台上,已经有28%的模型使用了RAIL授权。
谷歌Gemma的授权也遵循相似的原则,拿到授权的开发者不能将模型应用于有害场景。艾伦人工智能研究所也制定了自己的授权规则。
开源软件管理公司Tidelift的联合创始人Luis Villa认为,考虑到AI与常规软件有所不同,探索不同程度的开放是难以避免的,这样做对整个行业也可能是有益的。但是各种开放授权互不兼容可能会影响协作,只有协作能让开源走向成功,除此还有其它一些负作用,比如AI创新会受影响,透明度会降低,小玩家参与难度提升。
社区应该围绕单一标准进行授权合并,否则就会各行其是。对于OSI的方针政策,Luis Villa也不是很认可。当初OSI提出开源软件定义时时间充裕,外部审查也很少,如今的AI环境大不相同,有大企业和监管者干涉。
如果开源社区无法给出明确的定义,其它人就会根据自己的需求各提出一套定义。Luis Villa称:“它们会填补真空,扎克伯格可能会告诉我们所谓的开源AI是什么,他讲的话影响肯定很大。”(小刀)
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 六载华为开发者大赛,“赛”出云上开发新生态
- iPhone在华份额为何不断下滑?外媒分析:因无法提供AI服务
- 硬科技观察之智能体:2025年会是AI智能体爆发之年
- "以智赋网"关键一跃!华为首发Ambient Site构建无线智能化底座
- 硬科技产业观察之端侧AI:AI算力随身释放千亿价值
- “智网慧城”计划启动全球招募,以智赋网成MBBF 2024焦点
- 英伟达最亲密的伙伴SuperMicro股价大跌,对AI产业影响几何?
- 请回答MBBF 2024:关于移动AI时代的一切
- 高通ARM争的是什么?定制设计威胁到ARM生命线
- 到底要不要分拆?英特尔和美国都陷入了挣扎
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。