新华社北京4月3日电(记者 唐诗凝 周圆)记者3日获悉,工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》,提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
《办法》明确,开展人工智能科技伦理审查重点关注人类福祉、公平公正、可控可信等方面。包括训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息等。
《办法》还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。
2026-04-04,13439|
2026-04-03,13431|
2026-04-02,13419|
2026-04-01,13411|
2026-03-31,13403|
2026-03-30,13387|
2026-03-29,13383|
2026-03-28,13379|
2026-03-27,13371|
2026-03-26,13359|
2026-03-25,13351|
2026-03-24,13343|
2026-03-23,13335|
2026-03-22,13331|
2026-03-21,13327|
2026-03-20,13319|
2026-03-19,13299|
2026-03-18,13291|
2026-03-17,13283|
2026-03-16,13275|
2026-03-15,13271|
2026-03-14,13267|
2026-03-13,13259|
2026-03-12,13239|
2026-03-11,13219|
2026-03-10,13196|
2026-03-09,13204|
2026-03-08,13184|
2026-03-07,13180|
2026-03-06,13172|