美国国家标准与技术研究院(NIST)近日发布《人工智能和用户信任》报告草案。该报告对人类如何在使用人工智能(AI)系统或受AI系统影响时建立信任进行研究,提出了AI用户信任评估模型。 NIST认为,描述AI 系统可信度的九个特征,分别是:准确性、可靠性、弹性、客观性、保险性、可解释性、安全性、问责性和私密性。报告指出,如果AI系统具有高水平的技术可信度,并且可信度特征值足够高,尤其在存在固有风险的使用环境中,AI用户的信任程度会随之增加。 基于用户感知的信任对于实现人机协作十分必要。关键问题在于人类对人工智能系统的信任程度是否可以衡量;如果是,如何准确、恰当地衡量。对此,NIST 基于相关研究和“认知的基本原则”提出了人工智能用户信任模型。 目前,NIST 积极征集科学界有关工作者的意见反馈,寻求实验验证支持。该报告草案意见征求期截至7月30日。 上海北美标准研究中心
|