新闻中心
媒体汇聚
AI开闭源之争,创新、利益、安全谁更重要?
发布日期:2024-03-25

开放还是封闭,这是个问题。“人工智能(AI)公司都与它们的名字正相反。”3月24日,特斯拉CEO埃隆·马斯克在社交平台X上这样写道,回复一条调侃“美国开放人工智能研究中心(OpenAI)并不开放、美国AI企业‘稳定AI’(Stability AI)并不稳定”的帖文。自从马斯克今年2月起诉OpenAI并于3月18日正式发布旗下AI初创公司xAI的大模型Grok-1后,AI开源、闭源之争再度升级,辩论不止存在于科技企业之间,更是引发全球各界人士的激烈争论。有专家接受《环球时报》记者采访时表示,仅选择开闭源中任何一条路都将通向极端,更理想的状态是在开源和闭源间寻求平衡,而实现这种平衡的前提需要兼顾技术发展、安全隐私、公平竞争、市场秩序、社会责任、可持续发展等多种复杂因素。

  AI初创公司xAI的大模型Grok-1(视觉中国(15.8100.412.66%)

  “马斯克在与OpenAI的战斗中采取新策略”

  据美国“商业内幕”网站报道,AI开闭源问题引发广泛争论,起始于马斯克2月对ChatGPT制造商OpenAI及其CEO奥尔特曼等人的起诉。2015年,马斯克同奥尔特曼等人共同创立了OpenAI,核心宗旨是“创建造福全人类的安全通用AI”,其定位也是“非营利组织”。但马斯克2018年辞去了OpenAI董事会职务,并据称放弃了为其继续提供资金的承诺,奥尔特曼当时接受采访表示:“这很艰难,我必须重新调整,以确保有足够的资金。”2019年,OpenAI以“向公众传播语言模型太危险”为由封闭了源代码。此后,马斯克对OpenAI进行多次公开批评,称其已变成一家闭源、利润最大化的公司。他曾发文称:“我很困惑,一家我捐赠了约1亿美元的非营利组织是怎么成为市值300亿美元的营利组织的?”

  美国人工智能研究公司OpenAI (视觉中国)

  在这些投诉上个月转变为诉讼后,《华尔街日报》报道称,风险投资界两位重要人物在X平台上的“帖文之战”更凸显了AI开闭源两派别的相反观点。科斯拉风投公司创始人、被誉为全球“技术领域”投资之王的维诺德·科斯拉表达了对OpenAI的支持。他认为,AI“类似核武器”,开源会危及国家安全。美国一些议员也同意其观点,认为开源会使外国对手得到发展,因此应受到保护。而安德森霍茨基金联合创始人马克·安德森称:“开源软件是最安全的软件,因为受很多人关注,所以大量错误能被修复。”

  对于马斯克对Grok开源的举动,法国《世界报》分析称,这是“马斯克在与OpenAI的战斗中采取新策略”,虽然他声称“以人类的名义”出击,但实际上更多是为了自己的商业利益。报道强调,自称开源支持者的马斯克去年也对X平台的推荐算法进行过开源,但此后再也没有对代码进行过更新。清华大学新闻与传播学院教授沈阳对《环球时报》记者表示,按照此前移动互联网技术发展的逻辑,一般都会出现一家做得较好的闭源公司,随后很多公司采取开源策略,抢占闭源之外的市场。虽然开源面向更多用户,但闭源利润更高。

  越来越多公司“押注”开源

  那么AI开源和闭源有什么区别?科技企业如何决定是否开源呢?根据IT专业媒体TechTarget的文章,开源AI意味着公开AI模型、训练数据和底层代码,闭源AI则隐藏或保护其中一项或多项。开源AI鼓励创新,可供公共领域的所有人使用、修改和分发,而闭源AI意味着源代码仅供拥有它的公司修改和开发。

  据科技网站“diginomica”去年底报道,非营利组织“开放源代码促进会(OSI)”正努力为开源AI建立清晰的法律定义,目前相关草案对开源AI的判定标准包括是否免费或在合理成本内、源代码是否完整、是否存在歧视或对其他软件的许可限制等。目前几乎没有企业完全符合OSI的所有要求,即便是那些支持开源的公司也只是部分符合。

  而企业选择开源与否的考量因素有很多。首先,闭源AI往往速度更快且使用更方便。此外,一些科技公司高管表示,闭源AI能够带来更短的开发周期和更大的商业利益,模型的安全性能得到更好的保障,企业在创新商业化方面也能保持优势。而开源AI有利于促进协作、创新和透明度,开发人员可以互相学习并共同解决问题,这可以帮助企业吸引开发人员。此外,开源AI也意味着可以对底层代码、模型和数据进行更严格的审查。但与闭源的优势相对,开源AI也面临着更容易被黑客、犯罪分子或对手误用或滥用的风险,也更难保护开发者的知识产权和竞争优势。

  据《华尔街日报》报道,随着AI市场围绕微软、OpenAI等闭源系统所有者整合,一些公司试图通过开源增强竞争力。除马斯克的xAI外,开源的支持者还包括Facebook母公司Meta,该公司去年7月发布了Llama 2模型供公众下载和修改。Meta还与同为开源支持者的美国国际商业机器公司(IBM)发起“人工智能联盟”,倡导“开放科学”,参与者包括数十家初创企业、大公司和非营利组织,如戴尔、索尼、甲骨文、英特尔等。法国AI初创公司Mistral AI去年底发布了具有开放权重的模型,这意味着将构成模型内部工作原理的重要参数公开。许多其他初创公司也都“押注”开源,包括法美合资企业Hugging Face,它曾推出ChatGPT的首个开源替代品HuggingChat。一些资金较为雄厚的公司也曾开源同类产品,比如美国芯片制造公司Cerebras(开源Cerebras-GPT)、美国软件公司Databricks(开源Dolly)等。

  与之相对的是,业界最大的AI公司OpenAI及其“劲敌”Anthropic都支持闭源。如ChatGPT、Anthropic的Claude、旧金山独立研究团队开发的文本到图像生成器Midjourney等都不是开源模型。

  不过,从实际做法来看,“两条腿走路”是目前大部分公司的选择,即构建一系列AI模型,其中一些是免费的,而功能更强大的另一些则需要付费。比如谷歌,上个月推出了开源模型Gemma,标志着其过去决心闭源后再次重返开源赛场的策略转变;微软虽然以闭源软件闻名,但它仍是世界上开源项目的主要贡献者之一,包括Azure SDK等。而上文提到的开源支持者Mistral AI,上个月也宣布与微软合作,推出更强大的闭源AI系统,客户必须付费才能使用。知名初创公司Stability AI曾与AI初创公司Runway共同构建开源图像生成模型Stable Diffusion,但该公司去年12月也开始对其部分先进模型的商业用途收费。

  表面谈“技术民主化”,利润和安全才是重中之重

  法国AI公司Giskard联合创始人兼CEO亚历克斯·康贝西表示:“开源有助于实现技术民主化,有利于公平竞争,因为可以免费获得产品,所以小玩家也可以与大玩家竞争,这很重要,尤其是在一个已经由技术垄断主导的世界里。”不过,“欧洲新闻网”分析认为:“开源和闭源两个阵营的企业正展开对决,虽然技术民主化是辩论的核心,但企业利润和国家安全才是战斗的重中之重。”

  由于AI行业的爆炸式发展,在带来巨额利润的同时,也引发了对偏见、隐私、国家安全甚至人类未来的担忧。尽管从技术上说,开源代码可以加入保护措施和责任条款,以打击滥用和歧视,可一旦有人生成了代码副本,这些保护措施都可以被轻松修改和绕过。比如Meta发布的Llama 2,开源几天后就有人发布了无需审核的副本,它可以随意回答“核弹是如何制造的”等危险问题。

  TechTarget网站刊文分析称,关于该选择开闭源哪条路的争论越来越激烈,两派的主要参与者往往态度十分强硬,尤其一些监管机构因为担心开源会为政治对手带来优势而坚决反对开源。随着各国政府努力制定AI相关规则和政策,这种担忧正转化为国家层面的行动。比如意大利政府早在去年3月就成为首个禁用ChatGPT的西方国家,在解决了隐私担忧后才恢复访问。

  美联社日前报道称,拜登政府正卷入一场关于AI系统应该开源还是闭源的争论。去年9月,美国国家安全局宣布设立人工智能安全中心。同年10月,美国总统拜登签署行政命令称,开放权重“可能会给创新带来巨大好处,但也会带来巨大安全风险”。今年2月,美国政府出资委托有关机构撰写报告称,必须“迅速且果断地”采取行动,以避免AI带来“重大国家安全风险”,甚至在最坏的情况下,AI可能“对人类造成灭绝级别的威胁”。拜登还要求美国商务部长雷蒙多在今年7月之前与专家进行交谈,并就如何管理AI潜在风险提出建议。

  北京邮电大学人机交互与认知工程实验室主任刘伟对《环球时报》记者分析称,未来哪种技术路径会成为主流,目前还难以判断,因为这不仅涉及技术问题,更重要的是还涉及政治问题。比如美国与其盟友间非技术层面的协同会起到很大作用。从长远来看,各国在开闭源问题的选择上将呈现多样化趋势,这将取决于各国的文化、政治、经济等因素。广大发展中国家以及美国盟国范围之外的国家目前对开源期望值较高,但技术强国为了自身利益和保护核心技术,常常会以商业竞争和安全隐私保护为由拒绝开放。

  开闭源争论,欧洲和美国的重要摩擦点

  德国《法兰克福汇报》报道称,AI开闭源争论一直是欧洲和美国监管机构的重要摩擦点。欧洲拥有一个独特的机会,可以将自己定位为“对抗美国巨头及其封闭模式”的力量,并通过AI开源发挥出巨大的区域优势。

  据英国广播公司(BBC)报道,欧洲议会3月13日正式投票通过《人工智能法案》,欧盟成为目前唯一一个采取具体措施监管AI的主要西方经济体。虽然英国去年11月主办了一次AI安全峰会,但并未推出AI监管相关立法。

  《人工智能法案》的运作方式是根据风险级别对产品进行分类并相应地调整审查。该法案还要求通用AI系统生产者对用于训练模型的材料保持透明,并遵守欧盟版权法。欧洲议会议员图多拉奇表示,这是整个法案中“游说最激烈”的部分。报道称,OpenAI、Stability AI等公司都将对如何遵守该法案展开研究。

  此外,《人工智能法案》还规定,一系列严格的监管措施将不适用于开源AI系统,除非它们被禁止或被归类为“高风险”或“不可接受风险”级别。据法媒报道,这种对开源AI的豁免对法德来说是好消息,因为这两个国家一直倡导保护新的开源AI公司,这种做法与美国形成鲜明对比。德媒报道称,开源AI具有重要意义,可以“为欧盟每年贡献650亿至950亿欧元的国内生产总值”,并将“为欧洲经济创造增长机会”。

  不过,美国智库数据创新中心近日刊文称,《人工智能法案》为开源AI带来了“监管复杂性”。文章分析称,该法案对开源AI的豁免有很多限制条件,比如有些豁免仅适用于不将AI产品进行货币化的情况,所以如果公司试图通过为开源模型提供付费技术支持或使用定向广告来收取费用,都将无法适用。

  刘伟对《环球时报》记者表示,《人工智能法案》肯定会对开源AI产生较大影响。但该法案本质上是借“让AI更符合人类主流价值”这种冠冕堂皇的理由来保护欧洲自身发展。现在有种说法是,在AI领域,美国人创新很快,中国人落地应用很快,欧洲这两项赶不上,只能在监管上发力。虽然透明度监控、风险评估、分级制度、数据隐私等也都是未来AI发展的重要方面,但不排除欧洲会以此为由制约中美。

  在刘伟看来,长期开源会使不可控因素增多,但如果都闭源、奉行保守主义,AI技术发展则会滞后。理想状态是在开闭源间寻求平衡,而前提是保证技术创新和发展的同时,能兼顾安全隐私、公平竞争、市场秩序、社会责任和可持续发展。如果一味地强调开源或闭源,是在将这个问题简单化。