摘要:记者3日获悉,工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》,提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
新华社北京4月3日电(记者 唐诗凝、周圆)记者3日获悉,工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》,提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
办法明确,开展人工智能科技伦理审查重点关注人类福祉、公平公正、可控可信等方面。包括训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;是否合理披露算法、模型、系统的用途、运行逻辑、交互方式说明、潜在风险等信息等。
办法还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。
未标明由印象庆阳网(www.yinxiangqingyang.com)原创的文章,均为公益转载或由网民自行上传发布。网站所有文章均不代表我站任何观点,请大家自行判断阅读。文章内容包括图片、音视频等如有侵犯您的合法权益,请及时联系我站删除。感谢理解,致敬原创!站务邮箱:931548454@qq.com
