在 8 月 25-27 日举行的 2023 亚布力中国企业家论坛第十九届夏季高峰会期间,科大讯飞创始人、董事长刘庆峰出席论坛,谈到了有关自家大模型进展的一些内容。


(资料图片)

刘庆峰表示,“中国 AI 领域的算法没有问题,但算力似乎始终被英伟达按住。

以前的“百模大战”,基本都是英伟达训练出来的,在企业内部只能做出微小的调优、训练,从而训练模型“还是比较难的”。

我特别高兴告诉大家,华为的 GPU 能力现在已经跟英伟达 A100 一样了。

任正非高度重视,还有华为的三个董事到科大讯飞专班工作,现在已经做到对标英伟达的 A100。

此外刘庆峰再度表态,今年科大讯飞定了一个目标,到今年 10 月 24 日,科大讯飞将发布通用大模型,全面对标 ChatGPT ,且要实现中文全面超越,英文跟它相当。

“坦白讲,今天我们跟它还有差距,但是我们很清楚,10 月份就能赶上,明年上半年就对标 GPT-4。

IT之家此前报道,在 5 月 27 日的在中国上市公司协会年会(理事会)暨 2023 中国上市公司峰会现场,刘庆峰分享了讯飞星火认知大模型的升级迭代里程碑计划:6 月 9 日将突破开放式问答,多轮对话能力和数学能力再升级;8 月 15 日将突破代码能力,多模态交互再升级;10 月 24 日通用模型将对标 ChatGPT(中文超越,英文相当)。

5 月 6 日,科大讯飞正式发布讯飞星火认知大模型,具有文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力 7 大核心能力。

根据IT之家此前报道,英伟达在 2020 年发布了 Tesla A100 计算卡,搭载了 GA100 GPU,7nm 工艺,采用了全新的安培架构。

根据介绍,Tesla A100 计算卡采用了 7nm 工艺的 GA100 GPU,这款 GPU 拥有 6912 CUDA 核心和 432 张量核心。GPU 封装尺寸为 826mm2,集成了 540 亿个晶体管。

该卡支持第三代 NVLINK,与服务器的双向带宽为 4.8 TB/s, GPU 到 GPU 的互连带宽为 600 GB/s。

Tesla A100 拥有 40GB 的 HBM2 内存,显存位宽为 5120-bit,TDP 为 400W。

推荐内容