安防资讯网

首页 > 快讯 OpenAI 的动荡揭示了人工智能行业潜在的结构性紧张:盈利、人力&开源

OpenAI 的动荡揭示了人工智能行业潜在的结构性紧张:盈利、人力&开源

图片来源@视觉中国

文 | InternetLawReview

OpenAI 是领先的生成式人工智能公司之一,也是 ChatGPT 的制造商。本月中旬,该公司董事会突然罢免了首席执行官萨姆·奥尔特曼(Sam Altmann),员工也纷纷反抗董事会,导致公司陷入混乱。

OpenAI 曾与微软签订了价值 130 亿美元的合作协议,微软根据协议提供财务资源和庞大的云计算基础设施,这对于训练人工智能模型至关重要。作为回报,微软可以将 ChatGPT 集成到其多项服务中,包括 Bing 搜索引擎、Microsoft 365 Office 和 Teams。该交易造成了相互依赖:如果微软关闭对其云基础设施的访问,OpenAI 就会变成一个空壳;如果 OpenAI 崩溃,微软的人工智能推广战略将遭受严重损害。

根据OpenAI的最新进展,奥尔特曼将在新董事会下重新担任首席执行官。但持续的动荡揭示了整个人工智能行业潜在的结构性紧张局势,所有人工智能公司应当更加认真地考虑这些动荡因素。

人工智能组织结构:盈利 or 公益

OpenAI 模棱两可的组织结构反映了人工智能开发的存在性和商业性之间的紧张关系。

它于 2015 年成立,最初是一家非营利性人工智能研究组织,后来增加了一个营利性商业部门,以产生收入并促进与包括微软在内的其他公司的合作。根据白宫《人工智能行政命令》、英国《布莱切利宣言》和欧盟《人工智能法案》(目前正在制定)的倡议,该非营利机构专注于遏制存在风险并使人工智能模型与人类价值观保持一致:避免对人类造成伤害。

然而,营利性部门面临着严峻的现实:

生成式人工智能研究需要的财政资源和基础设施超出了非营利组织的能力范围; 生成式人工智能的世界竞争异常激烈,领导者如果为了安全问题而放慢开发速度可能会面临巨大压力,因为竞争对手会迅速赶上。

所有这些经济因素最终可能会将小公司排除在竞争之外,并减少生成式人工智能模型生产商之间的竞争。

然而,OpenAI 为了支持这一耗资巨大的目标而创建的商业部门,受到流向投资者的利润限制以及投资者没有治理权的限制。这就是为什么微软、Thrive 和其他公司对OpenAI的运营方式几乎没有直接影响力。具有讽刺意味的是,Sam Altman帮助设计了这个机制,并最终成为它的受害者。

Tips:顶级生成式人工智能的治理结构

OpenAI的多重治理结构并不是人工智能行业唯一一例,其最大的竞争对手Anthropic 是由十几名前 OpenAI 员工创办的,他们离开后创建了Anthropic,自称是一家“公益公司”(public benefit corporation,简称PBC),旨在平衡广大利益相关者的利益。“Anthropic,PBC”最初是在特拉华州注册的。

Anthropic还拥有一个所谓的“长期利益信托基金”,其中包括人工智能伦理学家和其他专家,并被允许选择公司的大多数董事。

终极稀缺资源——高技能员工的“选择”

OpenAI的整个“宫斗过程”大致如下:

11月17日,OpenAI董事会开除了Sam Altman。同时,OpenAI总裁、联合创始人Greg Brockman被告知将被董事会除名,但因为他对公司至关重要,所以仍可以继续留在公司工作。当天晚上,Brockman宣布退出公司。 11月19日,OpenAI首席技术官Emmett Shear被董事会任命为临时首席执行官。他曾一度威胁要辞职,除非董事会能提供文件或证据证明奥尔特曼存在不当行为;同一天,身兼 OpenAI 首席科学家以及董事会关键成员的Ilya Sutskever,回到了Altman的阵营。 11月20日,OpenAI的770名员工中几乎所有人都签署了一封信,威胁称如果董事会不辞职,他们将与 Altman 和Brockman一起叛逃到微软。同一天,Altman也得到了微软的庇护,而微软是这家初创公司最大的支持者。 11月21日,奥尔特曼先生回到了他的老工作岗位——OpenAI的CEO。

OpenAI 的动荡表明,高技能员工是人工智能开发的终极资源稀缺因素。他们的选择几乎决定了谁会获胜。

“开源”的对与错

贯穿人工智能行业的另一个断层是“开源”。

OpenAI 创始人选择了开源人工智能模型(公司也因此得名),任何想要使用和试验它们的人都可以使用。与开源软件运动相一致,这意味着这是一条通往创新和更好地测试潜在人类危害的快速之路。但开源也增加了不受控制和恶意使用的风险。

一些 OpenAI 创始人认为,事后看来,开源被证明是一个错误的选择。没有人能在 2015 年预见到这些模型在 2023 年及以后将带来的巨大潜力和风险。其他主要人工智能开发商,如 Meta,继续使用开源模型。所有这些趋势的结合,包括人工智能开发集中在少数大公司以及快速增长的生存风险,可能构成对人工智能行业进行更全面监管的理由。

但我们也可能大大高估了当前人工智能模型的潜在好处和坏处。先发制人的监管可能会抑制竞争和创新。

《经济学人》(The Economist)杂志对此事件评论道:对于在Sam Altmann最需要帮助的时候站在他一边的微软来说,这段插曲可能会导致微软对这家人工智能最热门的初创公司产生更大的影响力;对于世界各地的人工智能公司来说,这可能预示着从学术理想主义向更大程度的商业实用主义的转变。

文章来源:http://www.anfangnews.com/2023/1129/10081.shtml