据报道,OpenAI 的 ChatGPT 每天运行成本为 100,000 美元
OpenAI 近来的成就令世界惊叹。 借助由人工智能驱动的聊天机器人 ChatGPT,该公司使创建交互式对话成为可能。 ChatGPT 让每个人都坐立不安的一件事是它的人性化响应。 另一个让人们对 OpenAI 的最新冒险感到兴奋的事实是它是免费的。 虽然每个人都可以免费访问 ChatGPT,但 OpenAI 承担着沉重的负担以保持 ChatGPT 的正常运行。
网友们很快就找到了关于 OpenAI 为保持 ChatGPT 的运行方式而必须承担的费用的线索。 至少可以说,关于此类人工智能服务的开发和运行的一些暗示令人震惊。 例如,运行 ChatGPT 的成本是每天 100,000 美元。 据多个消息来源称,微软的 Azure 云正在托管 ChatGPT,这样 OpenAI 就不必投资物理服务器机房。 考虑到微软目前的费率,单个 A100 GPU 每小时 3 美元,在 ChatGPT 上生成的每个单词的费用为 0.0003 美元。 至少有八个 GPU 用于在单个 ChatGPT 上运行。 因此,当 ChatGPT 生成平均 30 个单词的响应时,公司将花费近 1 美分。 通过这样的估算,OpenAI 可能每天至少花费 10 万美元或每月 300 万美元用于运行成本。
另一个消息来源称,单个 NVIDIA A100 GPU 可以在大约 6 毫秒内运行一个 30 亿参数的模型。 将此速度作为参考点,单个 NVIDIA A100 GPU 可能需要 350 毫秒才能在 ChatGPT 上打印出一个单词。 由于最新版本 ChatGPT-3.5 拥有超过 1750 亿个参数,因此需要大约五个 A100 GPU 来执行必要的操作以获得单个查询的输出。 在采用 ChatGPT 每秒输出大约 15-20 个单词的能力后,得出至少 8 个 A100 GPU 的平均数量。
ChatGPT 可以做任何事情,从编写复杂的 Python 代码到按需撰写大学水平的论文。 它所需要的只是及时。 因此,人们开始担心技术会取代程序员和作家等工作。 尽管这个 AI 聊天机器人看起来惊天动地,但显然 ChatGPT 并不能解决所有问题。 诚然,世界上最先进的人工智能聊天机器人是在 2021 年或之前创建的模型上接受训练的。 因此,它为每个查询创建的响应中明显缺少某些东西。
尽管遇到了这个小挫折,ChatGPT 在正式发布后的几天内就吸引了超过 100 万用户。 尽管这一数量庞大的用户中大部分都不是活跃用户,但不可否认的是,OpenAI 的 ChatGPT 在很短的时间内激起了人们足够的兴趣。 考虑到大众对 OpenAI 的最新产品很感兴趣,如果要将 ChatGPT 变成一个蓬勃发展的 AI 工具,该公司还有很长的路要走。
原文:https://www.ciocoverage.com/openais-chatgpt-reportedly-costs-100000-a-day-to-run/
文章评论