首页 / 求职简历 / 停止空谈,开始行动:人工智能监管即将到来,您需要做好准备

停止空谈,开始行动:人工智能监管即将到来,您需要做好准备

Time:2023-12-09 19:05:00 Read:1000 作者:CEO

过去一年里,随着人们对生成式人工智能的兴趣激增,人工智能也越来越被炒作,世界各国政府正在制定监管该技术的计划也就不足为奇了。虽然企业和人工智能公司都知道监管即将到来,但他们怎么可能不知道呢? - 但许多人对未来的复杂性准备不足。随着世界各地司法管辖区即将出台法规,是时候停止谈论法规将会是什么样子并开始采取行动了。对于在欧洲运营的公司来说,拟议的欧盟人工智能法案是一个紧迫的问题。这一法律框架将显着增强欧盟当局监控人工智能发展的权力,并可能对违反规则的公司处以罚款。根据世界经济论坛的分析,该法案的核心是一个分类系统,用于评估人工智能的发展对“人类健康和安全或基本权利”构成的风险。尽管实施期限为两年,但欧盟人工智能法案包含了对违规行为的罚款,这对于尚未开始为新法规做准备的企业来说是一个真正的威胁。这些罚款总额最高可达3000 万欧元或上一财年全球年营业额的6%,以较高者为准。这些都是不容轻视的制裁,因此准备不足就更让人难以理解。没有做好准备,就准备失败为什么这么多公司没有为即将到来的法规做好充分准备?部分问题在于监管机构。虽然我们已经有了一些指导,并且就欧盟人工智能法案而言,其结构也很粗略,但仍有很多我们不知道的地方。这仍然是一个不断变化的目标,使得合规部门很难了解他们需要采取哪些步骤来确保遵守新规则。可以肯定的是,监管机构很难做到这一点,因为人工智能发展如此之快。这意味着很难制定出不阻碍创新的实用立法。还有其他问题,例如缺乏对人工智能有深入了解的政策专家,以及目前缺乏能够让企业在继续专注于核心业务的同时保持合规性的技术产品。这两个因素都可能会发生变化,但目前公司还没有遵守人工智能法规所需的工具。我们不要假装这一切都很容易。现有法规(例如GDPR)与特定行业法规(例如软件即医疗器械(SaMD) 要求)之间存在复杂的相互联系,所有这些都需要理解并纳入业务决策中,但没有任何单一法规可以让公司遵守轻松。随着法规的推出,不可避免地会出现违规和问题,无论是在人工智能特定法规方面,还是在现有行业特定指南如何适应人工智能方面。违规风险根据欧盟《人工智能法》,严重违规的公司可能会被处以最高3000 万欧元的罚款,尽管监管机构最初可能会采取宽松的态度来解决初期问题。尽管如此,这是企业不能忽视的风险。在较大的企业中,存在停滞的危险,认为不合规的风险太高并且不采取行动,因此什么也不做。停滞不前意味着竞争对手可以从个别公司那里获得市场份额,但如果法规阻止公司创新,整个生态系统将面临更广泛的风险。如果公司因担心数据泄露而无法合作,他们将无法获得构建有潜力改善世界的人工智能产品所需的数据。最后,如果企业没有为人工智能监管做好准备,将会出现更广泛的社会风险。

人工智能安全中心的研究人员最近发表了一篇关于人工智能灾难性风险的公开论文,确定了四类风险。第一个是“恶意使用”,即个人或团体故意使用人工智能造成伤害。第二类是“人工智能竞赛”,竞争环境迫使参与者部署不安全的人工智能或将控制权让给人工智能。第三个是“组织风险”,强调人为因素和复杂系统如何增加灾难性事件发生的机会。最后,还有“流氓人工智能”,它描述了控制比人类聪明得多的智能体的固有困难。这听起来可能很可怕,但它强调了加强对人工智能监管的原因,以及公司确保做好准备的紧迫性。人工智能公司能做什么?尽管前景令人畏惧,但仍有时间为人工智能监管做好准备。工程师、数据监护人和企业主必须确保他们了解即将发生的事情以及围绕人工智能安全和隐私的更广泛风险,并愿意推出使开发人员能够保持合规性的产品。虽然为即将到来的人工智能法规做准备似乎是一个令人畏惧的前景,但好消息是仍然有时间来组织和遵守。这一过程中的主要利益相关者——工程师、数据保管人和企业主——不仅需要了解即将出台的法规,还需要积极主动地实施有助于合规的解决方案。以下是企业可以遵循的基本步骤: 优先考虑数据隐私和知识产权:机器学习模型可能会无意中“记住”他们接受训练的数据,从而引发严重的隐私问题,特别是在涉及敏感个人信息的情况下。识别并减轻这种风险对于保护数据隐私和知识产权至关重要。实施安全的机器学习模型:机器学习模型无法免受可能损害数据安全的恶意攻击。采用人工智能的公司必须保持警惕,并且只使用安全、经过审计的模型。建立健全的数据治理:数据保管人应实施治理框架,以保持对模型训练中使用的数据集的控制。这包括制定在这些数据集上部署哪些算法的指南,确保与更广泛的合规性要求保持一致。构建人工智能产品的公司需要考虑降低安全性、偏见、安全性和鲁棒性等领域的产品风险。为此,他们必须确保模型接受具有代表性和细粒度的现实世界数据的训练,包括当前无法获得的敏感数据。同样重要的是,他们通过注册模型、提供版权信息摘要以及质量管理和文档来使自己的行为透明化。这样做可以支持问责制并提高人工智能模型开发的标准。归根结底,还是数据安全的问题。通过对数据进行有组织、私密且安全的计算访问,可以在不牺牲安全性或合规性的情况下构建创新的人工智能产品,最重要的是,不牺牲监管要求。无论你喜欢与否,监管都会到来。为了创新和打造安全的产品,我们需要引入允许公司遵守这些新规则的工具。这对每个人都有好处。文章来源:欧盟初创公司

停止空谈,开始行动:人工智能监管即将到来,您需要做好准备

Copyright © 2002-2024 人才培养专题网 版权所有 
备案号: 渝ICP备2023005964号-10

免责声明: 1、本站部分内容系互联网收集或编辑转载,并不代表本网赞同其观点和对其真实性负责。 2、本页面内容里面包含的图片、视频、音频等文件均为外部引用,本站一律不提供存储。 3、如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除或断开链接! 4、本站如遇以版权恶意诈骗,我们必奉陪到底,抵制恶意行为。 ※ 有关作品版权事宜请联系客服邮箱:478923*qq.com(*换成@)