该法案首次将人工智能分为:高、中、低风险和豁免人工智能4种。并对高风险人工智能系统的开发和使用设定了非常严格的监管要求,包括:风险评估、隐私和数据保护、透明、安全、公平和责任制度。同时对中风险人工智能系统也提出了风险评估、透明、安全的要求。
按照这个法律,在欧盟地区使用敏感特征的生物识别分类系统,基于社会或个人特征的社会评分系统,操纵行为,学习和工作中的情绪识别等都将被严格限制。但事先获得司法授权等可以被豁免。这些规定对金融等系统影响很大。
该法案预先对通用人工智能(GPAI)做了法律要求。这些系统及其模型必须符合透明度原则。对开源AI系统而言该法律相对较为友好。同时,欧洲议会议员要求保护中小企业和创新。
但法案也给出了具体的惩罚措施,不遵守规则可能导致罚款。罚款金额可从 750 万欧元 到 3500 万欧元起,或全球营业额的 1.5% 到 7% 不等,具体取决于违规情况和公司规模。
欧盟的《人工智能法案》可能会对AI行业产生深远的影响。一方面,它为全面监管AI开出首个范例,尤其是通过制定明确的规则,如风险、透明度等方面为推动AI创新提供护栏,但另一方面也可能给AI公司带来巨大的合规成本,并对全球AI投资和应用产生影响。