欧盟拟立法监管AI,着力防范技术风险划出界限


IT之家12月9日消息,随着人工智能技术的飞速进步,世界各国为了应对由此带来的潜在风险也在紧锣密鼓地推动相关立法。欧盟官员在上周五取得了突破性进展,他们就《人工智能法案》(AI Act)达成了一项临时性协议。欧盟内部市场负责人Thierry Breton在公开声明中表示,这一法案是该地区针对AI的最全面监管措施,也是迄今为止同类措施中范围最广的一部法规。

欧洲联盟的代表们经过激烈的讨论和协商,最终同意了对生成式AI工具,例如ChatGPT、Bard等生成内容的人工智能进行一系列管控措施的临时协议。这些协议需要欧盟成员国和议会的正式批准,一旦生效,它将在教育、就业、医疗保健等诸多领域对人工智能应用的发展和传播进行规范。

据欧盟方面介绍,新的监管体系将人工智能划分为四个类别:最小、有限风险、高风险和禁止。被禁止的AI应用包括不考虑用户意愿的应用、针对受保护群体的不公行为,以及提供实时生物特征追踪的功能,如面部识别技术。高风险应用则涉及作为产品安全组件的AI,或者在关键基础设施、教育、法律司法事务及员工招聘等特定领域的应用。同时,被归类为有限风险的,如知名的ChatGPT和Bing聊天机器人,也将受到一定的管控。

欧盟委员会强调,人工智能不应只为自身之用,而应成为服务于人类的工具,其最终目的是为了人类的福祉。欧盟明确,市面上的AI产品或影响欧盟公民的AI应用都应坚持 “以人为本” 的原则,确保人们对技术的使用感到安全并符合法律规定。

此次欧盟AI法案的初步协议体现了欧盟对人工智能快速发展的关注及其对风险的防范意识。据悉,该立法将为欧盟成员国间以及与全球其他国家和地区在人工智能领域的合作与竞争提供一套公平、透明和可预测的规则和标准。通过这份立法草案的最终批准,可能为全球AI产业的健康发展树立新的典范。

相关新闻