OpenAI 最强“企业版”炸场,B 端大模型市场会“赢家通吃”吗?
来源:全天候科技     时间:2023-08-29 22:51:23

速度翻倍、安全加密、调用 GPT-4 无上限,今天凌晨,OpenAI 官宣的企业专用版 ChatGPT 堪称 " 最强 ChatGPT 版本 "!

同普通版 ChatGPT 相比,企业版性能更加强大,包括:提供无限制的 GPT-4 访问,速度提升 2 倍,支持无限制高级数据分析,支持可用于 4 倍输入和文件的 32k Tokens 上下文窗口,提供可共享的聊天模板和免费的 API 接口、保证企业的数据隐私和安全等。

除了目前适合大型企业的版本之外,OpenAI 还将很快推出适用于各类小型团队的自助式 ChatGPT Business 产品,服务于所有规模和类型的组织。也就是说,从今天开始,OpenAI 已然吹响了向 B 端市场全面进攻的号角。


【资料图】

自然,这就带来了一个问题:面向企业的 B 端 AI 大模型市场,会 " 赢家通吃 " 吗?

最近,美国光速创投 ( Lightspeed Venture Partners ) 合伙人 Guru Chahal 深度分析了这一问题。

作者认为,B 端最有可能的路径,是企业在探索阶段使用大型模型,随着在实际使用中对大模型理解的加深,逐渐转向生产阶段使用更小型、专业化(调整 + 精炼)的模型。

Chahal 还提到了企业在选择模型时需要考虑的因素,以及 AI 基础设施的发展机遇,包括评估框架、模型运行与维护、增强系统、运维工具、数据利用等各个方面。

文章干货很足,相信对想了解 B 端 AI 市场、AI 基础设施、未来机遇等方面的朋友一定大有裨益。

以下为全文内容,大家 enjoy~

目录:

大模型生态系统分类

● 将用例与模型匹配

● 未来机遇在何方

在过去的十数年里,作为 Lightspeed 团队一员,我亲历了人工智能和机器学习领域的惊人创新,这主要归功于我们与卓越创业者的深度合作。

现在,我们与他们的公司、所构建的平台,以及服务的客户进一步合作交流,以便更系统地了解企业如何思考生成式 AI。

具体来说,我们深入探究了大模型生态系统,尝试探讨诸如 " 性能最强大模型是否会赢家通吃?"、" 企业在使用时是否会一味依赖 OpenAI 的 API,还是选择更加多样化的实际用例?" 这一类问题。

这些问题的答案,将决定该未来大模型生态系统的增长方向,以及算力、人才和资金的流向。

大模型生态系统分类

根据我们的研究,我们认为,人工智能领域正在经历一次 " 寒武纪式 " 的模型大爆发。未来,开发者和企业将根据实际需求选择最适合的模型,尽管在探索阶段的使用的可能更加集中。

B 端最有可能的路径,是企业在探索阶段使用大型模型,随着在实际使用中对大模型理解的加深,逐渐转向生产阶段使用更小型、专业化(调整 + 精炼)的模型。

下图展示了我们对基础模型生态系统演化的看法。

我们认为,人工智能模型领域可以分为三个主要、但又有些交叉的类别:

类别 1:巨脑模型

这些是最优秀的模型,也是模型领域的先驱。它们产生了令人惊叹的演示效果,深深吸引了我们的注意。当开发者试图探索人工智能对其应用的潜力极限时,这些模型往往是默认的起点。

这些模型的训练成本高,维护和扩展复杂。但同一个模型可以应对法学院入学考试(LSAT)、医学院入学考试(MCAT),撰写高中论文,并像聊天机器人朋友一样与你互动。目前,开发者正在这些模型上进行实验,并评估在企业应用中的人工智能使用情况。

需要注意的是,这些模型的使用成本高,推理延迟较大,并且在明确定义的受限用例中可能过于复杂。

同时,这些模型是通用模型,可能在专业任务上不够准确(例如,参见康奈尔大学等的综合研究)。

而且,它们也是黑匣子,可能给企业带来隐私和安全挑战,企业正在探索如何在不泄露数据的情况下利用这些模型。

OpenAI、Anthropic、Cohere 都属于这一类别。

类别 2:挑战者模型

这些模型同样具有高能力,仅次于领先模型。Llama 2 和 Falcon 是这一类别中的佼佼者。它们通常与类别 1 模型中的 "N-1" 或 "N-2" 模型一样优秀。

据某些基准测试,Llama 2 甚至与 GPT-3.5-turbo 相媲美。通过在企业数据上进行调整,这些模型在特定任务上的能力可与类别 1 中模型相当。

其中许多模型是开源的(或非常接近)。一旦发布,它们往往会被开源社区迅速改进和优化。

类别 3:长尾模型

这些是 " 专家 " 模型。它们专为特定目标构建,例如对文件进行分类、识别图像或视频中的特定属性、识别商业数据中的模式等。这些模型灵活,训练和使用成本低,可以在数据中心或边缘上运行。

仅需浏览 Hugging Face,即可窥见这一生态系统的广度之大,未来还会因为它为各种用例提供服务而不断扩大!

将用例与模型匹配

尽管尚处于早期阶段,但我们已经看到一些领先的开发团队和企业开始以这种精细的方式思考这个生态系统。他们渴望将用例与最适合的模型匹配,甚至可能在更复杂的用例中使用多个模型。

在选择使用哪个 / 哪些模型方面,通常会考虑以下因素:

a. 数据隐私和合规要求,这会影响模型是在企业基础架构中运行,还是数据可以发送到外部托管的推理终端。

b. 能否对模型进行微调对这个用例是否至关重要或者强烈希望进行微调。

c. 期望的推理 " 性能 " 水平(延迟、准确性、成本等)。

实际清单通常比上述内容更长,反映了开发者希望利用人工智能解决的各种多样用例。

机遇在哪里

这一新兴生态系统产生了几个重要影响:

① 评估框架:企业将需要工具和专业知识,来评估哪个模型适合哪个用例。

开发者需要决定如何最好地评估特定模型是否适合 " 所需工作 "。评估需要考虑多个因素,不仅包括模型性能,还包括成本、可以行使的控制水平等。

② 运行和维护模型:预计将出现用于帮助企业训练、微调和运行模型的平台,特别是第三类长尾模型。

这些平台过去通常被称为 ML Ops 平台,我们预计这个定义将扩展到包括生成式人工智能。Databricks、Weights and Biases、Tecton 等平台正在迅速朝这个方向发展。

③ 增强系统:模型,特别是托管的 LLM(检索增强模型),需要通过增强生成提供卓越的结果。

这涉及做出次级决策,包括:

o 数据和元数据摄取:如何连接结构化和非结构化的企业数据源,然后摄取数据以及关于访问策略等方面的元数据。

o 生成和存储嵌入:选择用于为数据生成嵌入的模型。然后,如何存储这些嵌入:根据所需性能、规模和功能选择哪个向量数据库?

在这里,存在机会来构建面向企业的 RAG(检索增强生成)平台,以简化选择和组合这些平台所带来的复杂性:

① 运维工具:企业 IT 部门需要为工程团队建立监管措施,管理成本等。

与今天为软件开发所做的所有工作一样,他们需要扩展这些任务,以包括人工智能的使用。IT 感兴趣的领域包括:

o 可观测性:模型在生产环境中的表现如何?它们的性能是否随时间改善 / 恶化?是否存在可能影响未来应用程序版本中模型选择的使用模式?

o 安全性:如何确保 AI 本地应用程序的安全性。这些应用程序是否容易受到新的攻击方式的攻击,需要新的平台?

o 合规性:我们预计 AI 本地应用程序和 LLM 的使用将需要符合相关主管机构已开始制定的框架。这是除了隐私、安全、消费者保护、公平性等现有合规性制度之外的。企业将需要平台来帮助他们保持合规性、进行审计、生成合规性证明等相关任务。

② 数据:预计将迅速采用帮助企业了解其数据资产以及如何通过使用新型人工智能模型从这些资产中提取最大价值的平台。

正如地球上最大的软件公司之一曾对我们说的那样," 我们的数据是我们的壕沟,我们的核心 IP,我们的竞争优势。"

通过利用人工智能将这些数据货币化,以一种在不削弱防御能力的情况下推动 " 差异化 " 的方式,将是关键。Snorkel 等平台在其中发挥着关键作用。

我们认为,现在正是构建人工智能基础设施平台的绝佳时机。

尽管人工智能的应用将继续改变整个行业,但要想使每个企业都能采用这一强大技术,就需要支持基础设施、中间件、安全性、可观测性和操作平台。

本文来源:硬 AI

标签:

广告

X 关闭

广告

X 关闭