算力不足、算法难创新,仍是横亘在国产大模型面前的现实难题
编者按:本文来自微信公众号 (ID:),作者:,创业邦经授权转载,头图来源摄图网
3月下旬,英伟达在美国加州总部举办了面向软件开发者的年度技术峰会GTC。会上,创始人黄仁勋发布了专用于大语言模型部署的GPU推理平台——H100 NVL, 其或将在推理阶段实现比现有最先进的A100快10倍的速度。
但如此先进的GPU却无法运往国内,去年8月,美国监管机构以国家安全为由,对NVIDIA A100、H100两款GPU实施禁令,不得销售给国内企业,意在通过“卡脖子”的方法来降低国内AI模型的传输速度,拖延中国人工智能发展。
而目前也确实对国内AI企业产生了较大的影响,在算力的大需求之下,呈现出了“一卡难求”的情况,就连阉割版的A800也一直处于缺货的状态。
但与GPU硬件窘迫的境况不同的是,在继3月16日百度发布文心一言大模型后,国内众多科技、AI巨头都相继公布了各家大模型的发布会时间:4月8日华为盘古大模型发布、4月10日商汤大模型发布、4月11日阿里大模型发布、4月14日同花顺举办AI产品发布会,国内大模型的“百家争鸣”与GPU被禁运后的“惨淡”状况,也形成了鲜明的对比。
这个4月,成为国产大模型混战期。
那么,在GPU受限的情况下,国内AI行业发展境况如何,能否交出属于他们自己的答卷?未来的发展是否会与国外越差越大?