欢迎来到亿配芯城! | 免费注册
你的位置:Pango(紫光同创)FPGA/CPLD芯片全系列-亿配芯城 > 芯片资讯 > ChatGPT用户不断增长,导致微软内部AI半导体芯片等硬件短缺
ChatGPT用户不断增长,导致微软内部AI半导体芯片等硬件短缺
发布日期:2024-05-12 06:34     点击次数:57

3 月 16 日上午消息,据报道,知情人士透露,虽然微软即将宣布一整套使用 ChatGPT-4 人工智能AI)软件的 Office 365 工具,但该公司现在却面临内部 AI 半导体芯片等服务器硬件短缺的窘境。 

ChatGPT,AI,半导体芯片.jpg

    这迫使微软不得不对硬件资源采取配额供应的方式,限制其他内部 AI 工具开发团队的使用量,从而确保基于 GPT-4 的新版必应聊天机器人和即将发布的新款 Office 工具获得足够的资源。这种硬件短缺的现状还对微软的客户产生了影响:至少有一个客户表示,需要等待很长时间,才能使用已经通过微软 Azure 云服务提供的 OpenAI 软件。 

3 月 14 日消息,人工智能聊天机器人 ChatGPT 一经推出便火爆全球,但外界可能不知道,ChatGPT 之所以能够如此智能,背后依托的是微软公司为它打造的一台昂贵的超级计算机, 电子元器件采购网 将带动上万颗芯片、数亿投资。 微软表示正在加紧添置更多半导体芯片等硬件,以便增加 AI 计算能力,但如果速度不够快,就有可能限制其 Azure OpenAI 服务对新客户的吸引力。这些客户会借助此项服务将 AI 功能添加到自己的应用中。微软原本在这种新的 AI 工具的商业化方面已经领先于谷歌,但如果迟迟不能解决半导体芯片等硬件短缺问题,这种优势也将难以发挥出来。谷歌抢在微软之前于本周发布了自己的 AI 辅助写作工具,包括能够根据简短的提示,在谷歌 Docs 和 Sheets 中自动编写文本的软件。    服务器短缺正值 OpenAI 和微软试图快速扩大销售范围之际,客户可以使用自己的数据对这种 AI 软件进行微调,从而开发图片生成、文档总结、搜索引擎和聊天机器人等定制化 AI 工具。微软已经向 OpenAI 投资了数十亿美元,有权通过 Azure OpenAI 服务向创业公司销售软件。OpenAI 也将软件直接授权给客户使用 —— 而作为与微软合作的一部分,所有 OpenAI 机器学习模型都必须运行在 Azure 服务器上。这两项服务的定价相同,每次请求收费都不到一美分。    这两家公司在过去 3 个月推出的服务吸引了企业用户的广泛兴趣,他们都希望将 OpenAI 的 ChatGPT 聊天机器人的底层技术整合到自家产品中。但是微软 Azure OpenAI 服务的新客户却要面临很长的等待时间。硬件资源短缺的核心问题在于,GPT-4 等新的 AI 大模型需要在 GPU芯片 上运行,这种服务器芯片可以一次性处理大量数据。为了处理这个模型的庞大计算需求,微软已将数万个 GPU芯片整合成一个个群集,分散到各个数据中心里。在明确用户需求量之前,微软目前不得不将现有的大量 GPU芯片资源预留给新的必应 GPT-4 聊天机器人和即将推出的 GPT-4 Office 工具。 

电子元器件采购平台.jpg