在大多数情况下,有限或最低风险类别的人工智能系统将能够像以前一样运行,欧盟正在立法专门处理可能危及欧盟公民安全或隐私的人工智能系统。
欧盟已经发布了关于人工智能监管的立法草案,该草案将成为人工智能供应商和分销商在欧盟开拓市场的关键框架。
在立法中,欧盟将人工智能系统分为三个风险类别:不可接受的风险、高风险以及有限或最低风险。在大多数情况下,有限或最低风险类别的人工智能系统将能够像以前一样运行,欧盟立法专门处理可能危及欧盟公民安全或隐私的人工智能系统。
欧盟委员会主席乌苏拉·格特鲁德·冯·德莱恩 (Ursula Gertrud von der Leyen) 表示:“人工智能对欧洲来说是一个绝佳的机会,公民应该得到他们可以信任的技术。”“今天,我们提出了值得信赖的 AI 的新规则。他们根据不同的风险水平制定了高标准。”
风险最小或低的人工智能系统包括聊天机器人、垃圾邮件过滤器、视频和电脑游戏、库存管理系统,以及世界上已经部署的大多数其他非个人人工智能系统。
高风险人工智能系统包括大多数具有现实世界影响的人工智能,例如消费者信用评分、招聘和安全关键基础设施。虽然这些没有被禁止,但欧盟立法旨在确保对这些系统有更严格的要求和监督,同时对那些未能妥善保护数据的人处以更昂贵的罚款。
欧盟打算每年审查高风险清单,要么在其中添加新的人工智能系统,要么降级一些高风险但已在社会中正常化或风险因素与往年不同的人工智能系统.
在此 AI 法规通过后,欧盟将不允许存在不可接受风险的 AI 系统。其中包括使用潜意识、操纵或剥削技术的人工智能系统,这不是一个类别,而是对人工智能形式的普遍禁令,如有针对性的政治广告,或通过面部表情解释情感的人工智能。
根据人工智能法规,远程生物特征识别系统也将被禁止,特别是在执法部门用于识别个人身份时。
对于在欧盟内部运营或分发人工智能系统的组织或在经济集团内部开展业务的组织来说,这项立法是即将到来的第一个明确迹象。欧盟将需要 12 到 24 个月的时间就更详细的细节达成一致,但该立法不太可能与初稿相比有太大变化。
这使高风险人工智能系统类别的组织有很短的时间重新调整和雇用,以确保他们的人工智能程序在欧盟是可行的。需要额外的人工监督、透明度和风险管理,以确保 AI 系统通过检查,并且对不合规的处罚目前定为 3000 万欧元或全球收入的 6%,因此对于大型组织而言,成本可能会迫使如果他们不能重新装备他们的人工智能系统,他们就会退出欧盟。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 打破生态壁垒,自研双芯抢网:OPPO Reno13系列发布,2699元起
- 打破生态壁垒,自研双芯抢网:OPPO Reno13系列发布,2699元起
- “移”起向“新”:京津冀协同发展纵深推进,信息科技保驾护航
- 工信部批准6项量子密钥分发领域行业标准
- 三大运营商2024年省分一把手大调整:27位总经理走马上任
- 中国铁塔2024年POI产品集采结果出炉 中兴等四家厂商中标
- 对话华为周军:升级运力、以网强智,把握AI时代确定性机遇
- 中国移动邓伟:“两个不 两个一体”顶层设计 构建天地一体网络商业闭环
- 国芯科技高性能AI MCU芯片新产品CCR7002内部测试成功
- 国芯科技高性能AI MCU芯片新产品CCR7002内部测试成功
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。