事关AI!全国人大代表刘庆峰发声

中国基金报

22小时前

第23次参加全国两会的刘庆峰,此次围绕AI时代的自主可控生态建设、人才培养、就业保障、民生刚需应用和科技温度等提出9条建议。

【导读】第十四届全国人大代表、科大讯飞董事长刘庆峰发声

中国基金报记者 赵心怡

“推动完全自主可控的通用人工智能生态体系建设,推动‘人工智能+’所带来的新质生产力,以人工智能技术创新助力中国式现代化。”第十四届全国人大代表、科大讯飞董事长刘庆峰表示。

第23次参加全国两会的刘庆峰,此次围绕AI时代的自主可控生态建设、人才培养、就业保障、民生刚需应用和科技温度等提出9条建议。

第十四届全国人大代表、科大讯飞董事长 刘庆峰

加快构建国产算力平台上的自主可控大模型

刘庆峰表示,国产大模型实现性能效果突破,引起国际社会对中国人工智能领域更深刻、更广泛的警惕和限制,需加快解决国产自主可控人工智能产业生态薄弱、适配困难等问题。

基于此,刘庆峰从三方面提出建议。首先,鼓励基于自主可控国产算力平台的大模型研发和应用。例如,对做国产算力芯片的企业和使用国产芯片训练大模型的企业给予资金专项支持,在国家公共算力上给予资源倾斜,加速基于国产算力的大模型算法创新。

其次,构建数据资源充分共享机制,依托中国广泛的AI应用场景,积极推广大模型在产业领域的应用,并形成数据飞轮,让中国率先获得AI产业落地红利。

最后,专项支持基于国产算力平台的生态体系建设。鼓励依托自主可控算力底座建立的大模型开发者生态发展和开源社区建设,专项支持加快形成国产大模型生态体系和工具链,加速我国自主可控人工智能产业生态发展。

预防“幻觉数据”危害

中国互联网络信息中心(CNNIC)发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式人工智能产品的用户规模已达2.49亿人。

“生成式人工智能存在幻觉,特别是深度推理模型的逻辑自洽性提升,使得AI生成内容真假难辨。带有算法偏差的虚假信息会被新一代AI系统循环学习,形成恶性循环。”刘庆峰说。

因此他建议,建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能幻觉出现概率,提升生成内容可靠性。

此外,他表示还应研究幻觉自动分析的技术和软件平台,开展幻觉自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由中央网信办、国家数据局等部门定期清理幻觉数据,为公众提供AIGC幻觉信息检测工具与服务。

系统性构建“AI+医疗”规范标准

大模型技术广泛应用于医疗临床、服务和管理等多个领域,这些领域对专业性要求极高,且技术实施迅速。

刘庆峰表示,我国目前仍缺乏“AI+医疗”的系统性标准规范,面临数据安全、医学专业性及伦理风险等问题,如部分AI应用不具备专业认证的医疗能力却能回答相关问题,造成极大认知误解。

他建议,注重大模型技术创新的临床实践价值检验,确定权威第三方评测机构和信息公布机制,选定有条件的区域和科技企业先行先试,制定应用技术标准和测试规范。

编辑:江右
校对:纪元
制作:鹿米
审核:木鱼

版权声明

《中国基金报》对本平台所刊载的原创内容享有著作权,未经授权禁止转载,否则将追究法律责任。

授权转载合作联系人:于先生(电话:0755-82468670)

第23次参加全国两会的刘庆峰,此次围绕AI时代的自主可控生态建设、人才培养、就业保障、民生刚需应用和科技温度等提出9条建议。

【导读】第十四届全国人大代表、科大讯飞董事长刘庆峰发声

中国基金报记者 赵心怡

“推动完全自主可控的通用人工智能生态体系建设,推动‘人工智能+’所带来的新质生产力,以人工智能技术创新助力中国式现代化。”第十四届全国人大代表、科大讯飞董事长刘庆峰表示。

第23次参加全国两会的刘庆峰,此次围绕AI时代的自主可控生态建设、人才培养、就业保障、民生刚需应用和科技温度等提出9条建议。

第十四届全国人大代表、科大讯飞董事长 刘庆峰

加快构建国产算力平台上的自主可控大模型

刘庆峰表示,国产大模型实现性能效果突破,引起国际社会对中国人工智能领域更深刻、更广泛的警惕和限制,需加快解决国产自主可控人工智能产业生态薄弱、适配困难等问题。

基于此,刘庆峰从三方面提出建议。首先,鼓励基于自主可控国产算力平台的大模型研发和应用。例如,对做国产算力芯片的企业和使用国产芯片训练大模型的企业给予资金专项支持,在国家公共算力上给予资源倾斜,加速基于国产算力的大模型算法创新。

其次,构建数据资源充分共享机制,依托中国广泛的AI应用场景,积极推广大模型在产业领域的应用,并形成数据飞轮,让中国率先获得AI产业落地红利。

最后,专项支持基于国产算力平台的生态体系建设。鼓励依托自主可控算力底座建立的大模型开发者生态发展和开源社区建设,专项支持加快形成国产大模型生态体系和工具链,加速我国自主可控人工智能产业生态发展。

预防“幻觉数据”危害

中国互联网络信息中心(CNNIC)发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式人工智能产品的用户规模已达2.49亿人。

“生成式人工智能存在幻觉,特别是深度推理模型的逻辑自洽性提升,使得AI生成内容真假难辨。带有算法偏差的虚假信息会被新一代AI系统循环学习,形成恶性循环。”刘庆峰说。

因此他建议,建立安全可信、动态更新的信源和数据知识库,对不同类型数据的可信度和危害程度建立标签体系,降低人工智能幻觉出现概率,提升生成内容可靠性。

此外,他表示还应研究幻觉自动分析的技术和软件平台,开展幻觉自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由中央网信办、国家数据局等部门定期清理幻觉数据,为公众提供AIGC幻觉信息检测工具与服务。

系统性构建“AI+医疗”规范标准

大模型技术广泛应用于医疗临床、服务和管理等多个领域,这些领域对专业性要求极高,且技术实施迅速。

刘庆峰表示,我国目前仍缺乏“AI+医疗”的系统性标准规范,面临数据安全、医学专业性及伦理风险等问题,如部分AI应用不具备专业认证的医疗能力却能回答相关问题,造成极大认知误解。

他建议,注重大模型技术创新的临床实践价值检验,确定权威第三方评测机构和信息公布机制,选定有条件的区域和科技企业先行先试,制定应用技术标准和测试规范。

编辑:江右
校对:纪元
制作:鹿米
审核:木鱼

版权声明

《中国基金报》对本平台所刊载的原创内容享有著作权,未经授权禁止转载,否则将追究法律责任。

授权转载合作联系人:于先生(电话:0755-82468670)

展开
打开“财经头条”阅读更多精彩资讯
APP内打开