无问芯穹获近10亿元累计融资 |【经纬低调新闻】

经纬创投

3周前

无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持Infini-AI异构云平台产品与市场间的紧密嵌合;强化生态合作,激活异构集群算力资源,构建支撑“M种模型”和“N种芯片”的AI算力底座,做AI模型算力的“超级放大器”,致力于成为大模型时代首选的“算力运营商”。

综述 

近日,无问芯穹(Infinigence AI)完成近 5 亿元 A 轮融资。至此,在成立短短 1 年 4 个月内,无问芯穹累计已完成近 10 亿元融资。
无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持Infini-AI异构云平台产品与市场间的紧密嵌合;强化生态合作,激活异构集群算力资源,构建支撑“M种模型”和“N种芯片”的AI算力底座,做AI模型算力的“超级放大器”,致力于成为大模型时代首选的“算力运营商”。
经纬观点 

2023年,经纬创投在Pre-A轮参与了无问芯穹的融资。经纬创投投资董事童倜表示:经纬创投相信中国AI行业的核心部分之一为国产异构算力生态,而无问芯穹的学术积累及产业能力能很好回应这一行业重大新增需求。经纬很高兴看到近一年来公司在技术开发及客户落地上的巨大进步。本次融资有幸获得众多投资机构支持,期待无问芯穹进一步加速发展,成为中国本土AI基础设施的重要组成部分。

融资新闻 
无问芯穹成立于2023年5月,致力于成为大模型时代首选的算力运营商。依托“多元异构、软硬协同”的核心技术优势,打造了连接“M种模型”和“N种芯片”的“MxN”AI基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署。无问芯穹Infini-AI异构云平台基于多元芯片算力底座,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效。
依托软硬协同、多元异构技术优势,做AI模型算力的“超级放大器”
大模型能够支撑的实际产业规模,取决于AI模型的实际可用算力,是一个壁垒更高、玩家更稀缺、价值量更高的领域。基于对于AI行业的深刻理解和长期实践,无问芯穹超前判断大模型的实际可用算力不仅取决于芯片的理论算力,还可通过优化系数放大算力利用效率,通过集群规模放大整体算力规模,由此,无问芯穹提出“芯片算力×优化系数(软硬协同)×集群规模(多元异构)=AI模型算力”公式。遵循这一公式,无问芯穹将通过软硬件联合优化技术,持续提升芯片算力在大模型任务中的利用率,并通过多元异构算力适配技术,提升集群算力利用率,扩大行业整体算力供给。

无问芯穹AI模型算力公式

在软硬件联合优化方面,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA,完成多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。基于这一方案取得的优化效果,无问芯穹已与AMD签署战略合作,携手推动商用AI应用的性能提升。

在多元异构算力适配方面,无问芯穹也拥有业界稀缺的异构适配与集群能力禀赋,7月发布的大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。

打造Infini-AI异构云平台,提供从异构算力利用到大模型应用开发全栈式能力

近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。

无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出Infini-AI异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。其中,AIStudio一站式AI平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。GenStudio大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖了从大模型开发到服务化部署的全流程,有效降低了开发成本和门槛。

自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。

做大模型时代首选的算力运营商‍,繁荣异构算力生态、加速AGI普惠进程

无问芯穹构建的 Infini-AI异构云平台不仅可帮助下游客户轻松屏蔽硬件差异,无感高效地使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,真正将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。遵循算力利用率提升思路,结合软硬件联合优化实力,无问芯穹在端侧大模型和LPU IP领域亦有超前布局,致力打造“端模型+端芯片”闭环能力。无问芯穹坚信端侧场景快速增长和应用爆发的必然趋势,AI PC、AI手机将成为未来人机交互的重要接口,将助力每一个终端实现AGI级别的智能涌现。

以“释放无穹算力,让AGI触手可及”为使命,无问芯穹致力于成为大模型时代首选的“算力运营商”,目前正在强力推进和产业链中最具价值的客户建立战略合作,再推广到更广泛的市场中实现标准化、批量化复制,建立规模优势。通过激活多元异构算力和软硬件联合优化,无问芯穹目标让大模型的落地成本降低10000倍,如同“水电煤”一般,成为行业触手可及、广泛受益的新质生产力,加速AGI的普惠进程。

无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持Infini-AI异构云平台产品与市场间的紧密嵌合;强化生态合作,激活异构集群算力资源,构建支撑“M种模型”和“N种芯片”的AI算力底座,做AI模型算力的“超级放大器”,致力于成为大模型时代首选的“算力运营商”。

综述 

近日,无问芯穹(Infinigence AI)完成近 5 亿元 A 轮融资。至此,在成立短短 1 年 4 个月内,无问芯穹累计已完成近 10 亿元融资。
无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持Infini-AI异构云平台产品与市场间的紧密嵌合;强化生态合作,激活异构集群算力资源,构建支撑“M种模型”和“N种芯片”的AI算力底座,做AI模型算力的“超级放大器”,致力于成为大模型时代首选的“算力运营商”。
经纬观点 

2023年,经纬创投在Pre-A轮参与了无问芯穹的融资。经纬创投投资董事童倜表示:经纬创投相信中国AI行业的核心部分之一为国产异构算力生态,而无问芯穹的学术积累及产业能力能很好回应这一行业重大新增需求。经纬很高兴看到近一年来公司在技术开发及客户落地上的巨大进步。本次融资有幸获得众多投资机构支持,期待无问芯穹进一步加速发展,成为中国本土AI基础设施的重要组成部分。

融资新闻 
无问芯穹成立于2023年5月,致力于成为大模型时代首选的算力运营商。依托“多元异构、软硬协同”的核心技术优势,打造了连接“M种模型”和“N种芯片”的“MxN”AI基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署。无问芯穹Infini-AI异构云平台基于多元芯片算力底座,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效。
依托软硬协同、多元异构技术优势,做AI模型算力的“超级放大器”
大模型能够支撑的实际产业规模,取决于AI模型的实际可用算力,是一个壁垒更高、玩家更稀缺、价值量更高的领域。基于对于AI行业的深刻理解和长期实践,无问芯穹超前判断大模型的实际可用算力不仅取决于芯片的理论算力,还可通过优化系数放大算力利用效率,通过集群规模放大整体算力规模,由此,无问芯穹提出“芯片算力×优化系数(软硬协同)×集群规模(多元异构)=AI模型算力”公式。遵循这一公式,无问芯穹将通过软硬件联合优化技术,持续提升芯片算力在大模型任务中的利用率,并通过多元异构算力适配技术,提升集群算力利用率,扩大行业整体算力供给。

无问芯穹AI模型算力公式

在软硬件联合优化方面,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA,完成多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。基于这一方案取得的优化效果,无问芯穹已与AMD签署战略合作,携手推动商用AI应用的性能提升。

在多元异构算力适配方面,无问芯穹也拥有业界稀缺的异构适配与集群能力禀赋,7月发布的大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。

打造Infini-AI异构云平台,提供从异构算力利用到大模型应用开发全栈式能力

近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。

无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出Infini-AI异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。其中,AIStudio一站式AI平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。GenStudio大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖了从大模型开发到服务化部署的全流程,有效降低了开发成本和门槛。

自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。

做大模型时代首选的算力运营商‍,繁荣异构算力生态、加速AGI普惠进程

无问芯穹构建的 Infini-AI异构云平台不仅可帮助下游客户轻松屏蔽硬件差异,无感高效地使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,真正将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。遵循算力利用率提升思路,结合软硬件联合优化实力,无问芯穹在端侧大模型和LPU IP领域亦有超前布局,致力打造“端模型+端芯片”闭环能力。无问芯穹坚信端侧场景快速增长和应用爆发的必然趋势,AI PC、AI手机将成为未来人机交互的重要接口,将助力每一个终端实现AGI级别的智能涌现。

以“释放无穹算力,让AGI触手可及”为使命,无问芯穹致力于成为大模型时代首选的“算力运营商”,目前正在强力推进和产业链中最具价值的客户建立战略合作,再推广到更广泛的市场中实现标准化、批量化复制,建立规模优势。通过激活多元异构算力和软硬件联合优化,无问芯穹目标让大模型的落地成本降低10000倍,如同“水电煤”一般,成为行业触手可及、广泛受益的新质生产力,加速AGI的普惠进程。

展开
打开“财经头条”阅读更多精彩资讯
APP内打开