模型,开源

【Ai时刻】算力还是不够!OpenAI自曝发展受到GPU限制


【Ai时刻】算力还是不够!OpenAI自曝发展受到GPU限制

  5.29日,OpenAI的CEO-Sam Altman在一次采访中,透露了OpenAI当下遇到的问题与未来1-2年内的发展计划。

OpenAI目前受到GPU算力限制

  在采访中,一个普遍的主题是OpenAI目前极其受到GPU算力的限制,这延迟了许多短期计划的实现。最大的客户抱怨是API的可靠性和速度,同时还不能向更多用户推出更长的32k上下文,Sam承认了他们的担忧,并解释说这个问题的大部分原因是由于GPU短缺造成的。

  精调API(更加个性化与专业化的)目前也受到GPU可用性的瓶颈限制。他们还没有使用像适配器或LoRa这样的高效微调方法,因此微调非常计算密集,需要耗费大量的计算资源来运行和管理,但更好的微调支持将来会出现。

当前的OpenAI提供API的分类与价格

GPT-4的迅速版750个单词约为0.03美金(2毛钱)

  目前OpenAI的云计算服务是由微软的Azure云来支持,突如其来的Ai热潮,让服务器长期处于满负载的状态,同时算力开始出现紧张,但伴随NVIDIA高性能服务器级别的算力卡,比如H100/GXH200等产品发布;应用,相信GPU算力在未来一段时间内可以逐渐被平衡。

  专用容量提供也受到GPU算力的限制。OpenAI还将向客户提供专用容量,为客户提供模型的私有版本(如企业版)。要访问此服务,客户必须愿意预付100,000美元(约合68.7万人民币)

OpenAI的近期路线图

  2023年:

  更便宜、更快的GPT-4-这是OpenAI的首要任务。总的来说,OpenAI的目标是尽可能地降低“Ai的成本”,因此他们将努力继续随着时间的推移降低普通用户与API使用的成本。

在未来,Ai智能助手可能会伴随我们日常的工作生活的每一处丨Midjourney

  更长的上下文窗口-在不久的将来,高达100万个字符的上下文窗口是可能的。(写小说的时代来临)

Midjourney

  精调API将扩展到最新的模型,但具体形式将根据开发人员实际需要来确定。

  有状态的API-当调用聊天API时,必须不断地通过相同的对话历史记录并不断支付相同的标记。将来会有一个记住对话历史的版本。

  2024年:

  多模态(包含语音识别、图像识别、视频识别等)这是GPT-4发布的一部分,但在更多GPU算力上线之前无法扩展到所有用户。

GPT-4发布时提及的图片识别能力,仍未开放

  OpenAI除了ChatGPT之外,不会发布更多的竞争产品

  相当多的开发者表示,当OpenAI可能会发布与他们竞争的产品时,他们对使用OpenAI API进行构建感到紧张。Sam说OpenAI除了ChatGPT之外,不会发布更多的竞争产品。他说,有许多伟大的平台公司都有一个杀手级应用程序,而ChatGPT将允许他们成为自己产品的客户,从而使API更好。ChatGPT的愿景是成为一个超级智能的工作助手,但还有许多其他GPT用例OpenAI不会涉及。

  需要监管,但开源也很重要

  尽管Sam呼吁对未来Ai模型进行监管,但他认为现有模型并不危险,认为监管或禁止它们将是一个巨大的错误。他重申了他对开源的重要性的信念,并表示OpenAI正在考虑开源GPT-3。他们还没有开源的部分原因是他对有多少个人和公司有能力托管和提供大型LLM持怀疑态度。(担心有人使用开源后的GPT-3干坏事)

  扩展定律仍然有效

  OpenAI的内部数据表明,模型性能的扩展定律仍然有效,而且使模型更大仍将产生更好的性能。但由于OpenAI在几年内已经使模型变得大了数百万倍,继续保持这样的扩展速度将不可持续。这并不意味着OpenAI不会继续努力使模型更大,只是表示它们可能每年只会增加两到三倍的大小,而不会呈几个数量级的增长。