德国发布“人工智能系统认证——可信赖人工智能系统研发和使用指南”白皮书

11月19日,由德国联邦教研部和德国工程院资助的“学习系统平台(Plattform Lernende Systeme)”发布了人工智能认证白皮书,厘定测试标准。该白皮书由平台的信息安全、隐私、法律和伦理工作组、技术开拓和数据科学工作组牵头编制,平台其他工作组和邀请专家参与。

该平台认为,人工智能已在众多行业领域得到应用,为更好的发挥人工智能在经济、社会领域的潜力,受众对人工智能系统的信赖是主要问题。而对人工智能系统进行认证可以增强人们对该技术的信心。该白皮书内容指出应当在何时、基于哪些标准对人工智能系统进行认证,以及如何设计有效的检测基础结构。

评估单个AI系统认证的必要性

具体内容方面,白皮书指出,认证是确保AI系统质量的方法之一,通常由独立第三方予以确认,确认系统在有效期内符合特定的标准、规范或准则。但并不是所用应用都必须经过认证。大部分AI系统不存在问题,如用于识别垃圾邮件的算法。白皮书建议,是否对一项AI系统认证,要评估系统的关键性,这里包括是否会危害人类生命、是否会损害受法律保护的资产如自然环境,以及人们在选择和使用该应用的自由度(如可以关闭应用中的特定功能)。对关键性的考量取决于系统的使用场景。同一AI系统在不同应用场景下,可能存在不同的认证要求。例如智能扫地机器人具有高度自治性,使用通常不存在问题。但当机器人收集并向制造商提供数据,就成为对是否需要认证进行评估的关键问题。

认证形式要避免过度监管。

根据图宾根大学科学伦理国际中心负责媒介伦理和信息技术的Jessica Heesen介绍,AI认证形式既要尊重重要的道德原则,同时要满足经济原则,使之避免过度监管同时促进创新。最佳范式是,认证的过程能开启欧洲人工智能应用新的发展思路。Jessica Heesen目前同时兼任信息安全、隐私、法律和伦理工作组联合负责人。白皮书起草者建议,在高关键情况下如大学申请领域的人工智能使用,应当由政府部门监管,在特殊使用场景中,如远程生物识别,可由政府颁令禁止或设定使用限制。

认证的基础标准

白皮书提出了基本的标准要求和部分自愿标准,其中最低的基本标准包括了透明、安全、不受歧视和保护隐私,其他自愿标准诸如用户友好性、可持续性等。同时认证要在应用实际使用前进行,认证结果用有效期,同时认证程序技术发展要动态调整。获取更多前沿科技信息访问:https://byteclicks.com

学习系统平台是德国联邦教研部在2017年高技术论坛上应自治系统分论坛和德国工程院建议建立,汇集了人工智能相关领域各界专家。平台的任务是促进社会自由交流、促进研发合作,从而促进德国成为AI技术领域领先供应国。平台的领导层为联邦教研部长卡利切克和德国工程院院长Karl-Heinz Streibich 。

德国发布“人工智能系统认证——可信赖人工智能系统研发和使用指南”白皮书

下载

上一篇:

下一篇:


标签