欧盟准备对人工智能施加规则

随着人工智能 (AI) 领域的不断扩展和发展,政策制定者正在努力解决如何以保护个人权利和安全的方式监管这些技术。欧盟 (EU) 处于这些努力的最前沿,最近宣布了将适用于一系列人工智能系统的严格新规则,包括近几个月来一直成为头条新闻的聊天机器人 ChatGPT。
 
ChatGPT 处于欧盟拟议人工智能法规的十字准线
ChatGPT 处于欧盟拟议人工智能法规的十字准线

欧盟提议的 AI 法规使用基于风险的方法,将系统分为四组:不可接受的风险、高风险、有限风险和最小风险。最严格的规则将适用于属于不可接受和高风险类别的系统,其中包括关键基础设施、手术、移民和边境管理等。这些系统在投放市场之前必须满足严格的要求,违规者可能被处以最高 3000 万欧元或全球利润 6% 的罚款。
 
欧盟拟议法规中最值得注意的方面之一是将聊天机器人纳入有限风险组。虽然聊天机器人可能不会像其他人工智能系统那样对个人的安全和权利构成重大风险,但它们确实有可能操纵人类行为并欺骗用户。因此,欧盟要求聊天机器人对其 AI 状态保持透明,以便用户意识到他们正在与计算机而不是人类进行交互。
 
这种对透明度和问责制的强调是欧盟监管人工智能方法的一个关键特征。随着人工智能在金融、医疗保健和交通等行业的应用越来越广泛,以合乎道德和负责任的方式设计和部署这些系统至关重要。这包括确保人工智能系统是非歧视性的,受到人类监督,并且其结果是可观察和可解释的。
 
虽然欧盟拟议的法规仍在获得成员国和欧洲议会的批准,但它们代表了在发展负责任的 AI 治理方面迈出的重要一步。通过为人工智能系统的设计和部署制定明确的标准,欧盟向世界各地的科技公司和政策制定者发出一个信息,即负责任地使用人工智能是重中之重。随着人工智能继续改变我们的世界,我们必须保持警惕,努力确保利用这些技术造福于公共利益。
 
 

发表评论

0评论
发表评论 (0)

#buttons=(接受) #days=(20)

我们的网站使用 cookie 来增强您的体验。 了解更多
Accept !