据外媒报导,欧盟议员正在起草针对人工智能管理的新规定,罚款最高可达全球年营业额4%或2,000万欧元。根据人工智能监管草案,针对一系列禁止使用的情况或极少数威胁欧盟基本权利的用途禁令预计将在下周正式公布。
欧盟对人工智能监管的计划已经酝酿了一段时间。早在2020年2月,欧盟委员会就发布了一份白皮书,概述了监管人工智能「高风险」应用的计划。当时,欧盟议员们考虑将重点放在行业上——将能源和招聘等特定行业视为风险,然而后来又重新考虑该草案而没有将人工智能风险的讨论限制在特定行业。 其实,高风险人工智能应用的合规要求才是重点 (武器/军事用途被特别排除在外,因为此类用例不属于欧盟条约),但这份草案并没有完全清楚列明「高风险」如何定义。 欧盟委员会在这方面的首要目标是通过一个于「欧盟价值观」中合规制衡的系统,提高公众对人工智能的信任,以鼓励大众接受「值得信赖的」和「以人为中心的」人工智能。因此,即使不被认为是「高风险」的人工智能应用程序制造商,也仍被鼓励采用行为准则——正如欧盟委员会所言,「鼓励自愿应用适用于高风险人工智能系统的强制性要求」。 该法规的另一部分涉及支持欧盟人工智能发展的措施——推动成员国建立监管计划,于人工智能系统推向市场之前,初创和中小企业可以优先获得开发和测试人工智能系统的支持。
|