推广 热搜: 免费网赚论坛  中国网赚  在家上网赚钱  如何网赚  网赚qq群  网赚任务平台  外国网赚  酷我网赚  福缘网赚  网赚博客 

报告警告称,英国在人工智能安全方面的做法缺乏可信度

   日期:2024-05-07 05:37:47     来源:http://www.900614.com/    作者:小编    浏览:99    

最近几周,英国政府一直在努力塑造自己在新兴的人工智能安全领域的国际影响者形象——上个月,英国政府放弃了一项研究,并承诺将投入资金进行“前沿”人工智能安全研究。

然而,由英国首相、硅谷超级粉丝里希•苏纳克(Rishi Sunak)领导的同一届政府,却回避了通过新的国内立法来监管人工智能应用的必要性——政府在有关这一主题的政策文件中称其为“支持创新”。

它也正处于通过的过程中,这可能不利于人工智能的安全。

后者是独立研究机构——纳菲尔德基金会(Nuffield Foundation)慈善信托基金的一部分——在一份新报告中得出的几个结论之一,该报告研究了英国监管人工智能的方法。这份报告听起来像外交辞令,但有时对部长们来说读起来相当尴尬。

该报告包含了18条建议,旨在提升政府在这一领域的政策/可信度——也就是说,如果英国希望在这一问题上得到认真对待。

该研究所主张给人工智能安全下一个“昂贵的”定义——“反映出随着人工智能系统变得更有能力并融入社会而产生的各种各样的危害”。因此,该报告关注的是如何监管“人工智能系统今天可能造成的后果”。可以称之为现实世界的人工智能危害。(不是科幻启发的理论未来可能存在的风险,似乎是为了引起政策制定者的注意。)

目前,公平地说,苏纳克政府监管(现实世界)人工智能安全的方法是矛盾的;大量华而不实的、由行业主导的公关声称,它希望捍卫安全,但对于制定实质性规则、防范我们知道不明智的自动化应用可能带来的各种风险和危害的政策建议却很少。

这是艾达·洛夫莱斯研究所抛出的首要真相炸弹:

该报告还列出了一系列建议,明确表明该研究所认为英国目前的人工智能方法还有很大的改进空间。

政府公布了其在国内监管人工智能的首选方法,称现阶段不需要新的立法或监管机构。相反,白皮书提供了一套灵活的原则,政府建议现有的特定行业(和/或跨领域)监管机构应“在其职权范围内解释和应用人工智能”。只是没有任何新的法律权力,也没有额外的资金来监督人工智能的新用途。

白皮书中提出的五大原则是:安全、可靠、稳健;适当的透明度和可解释性;公平;问责制和治理;可诉性和救济。所有这些在纸面上听起来都不错,但在监管人工智能安全方面,光靠纸面显然是不够的。

英国计划让现有监管机构制定应对人工智能的措施,只针对一些笼统的原则,没有新的资源,这与欧盟的计划形成了鲜明对比。欧盟的立法者正忙于敲定欧盟高管在2021年提出的协议。

英国预算微薄的做法是,让现有的、工作过度的监管机构承担新的责任,监督人工智能的发展,而没有任何权力对不良行为者强制执行结果,委婉地说,这在人工智能安全方面看起来并不可信。

如果你的目标是支持创新,这似乎也不是一个连贯的策略——因为它将要求人工智能开发者考虑一整套针对特定行业和跨领域的立法,这些立法早在最近的人工智能热潮之前就起草了。开发者可能还会发现自己受到许多不同监管机构的监督(考虑到缺乏资源和法律力量来执行上述原则,他们的注意力可能会很弱)。所以,真的,这看起来像是一个不确定的配方,现有的规则可能适用于人工智能应用程序。(而且,最有可能的是,监管解释的拼凑,取决于部门、用例和所涉及的监督机构等。因此,是混乱和成本,而不是清晰。)

正如Ada Lovelace研究所的报告所指出的那样,即使现有的英国监管机构确实迅速就如何处理人工智能制定了指导方针——部分或正在制定指导方针——仍将存在大量空白,因为覆盖空白是英国现有监管格局的一个特点。因此,进一步扩展这种方法的提议意味着,随着人工智能在所有领域的使用规模/爆炸式增长,监管不一致的情况将会出现,甚至会被放大。

这是研究所的情况:

“人工智能正在各个领域得到部署和使用,但英国针对人工智能的分散法律和监管网络目前存在重大差距。需要更明确的权利和新的制度,以确保保障措施延伸到整个经济领域。

政府声称的“人工智能领导”地位的另一个日益严重的矛盾是,它试图让该国成为全球人工智能安全中心的努力,正受到削弱国内对人们数据保护的努力的直接破坏——比如,当他们受到具有重大和/或法律影响的自动决策的影响时,通过放松监管,降低对他们的保护。

迄今为止,英国政府一直避免采纳脱欧派人士提出的最令人头疼的建议,即撕毁源自欧盟的数据保护规则手册——比如直接删除英国《通用数据保护条例》(General data protection Regulation)第22条(涉及自动决策保护)的全部内容尽管政府有了让英国成为全球人工智能安全中心的新雄心,但它仍在推进一项计划,以各种方式降低公民在现行数据保护法下享有的保护水平。

“英国GDPR——目前在英国生效的数据保护法律框架——为保护个人和社区免受潜在的人工智能伤害提供了至关重要的保护。数据保护和数字信息法案(第2号)于2023年3月以目前的形式提交,对这些保护进行了重大修改,”该研究所警告说,例如,该法案取消了对许多类型的自动化决策的禁令,而是要求数据控制者“采取适当的保障措施,例如使个人能够对决定提出异议的措施”。该研究所认为,这在实践中是一种较低水平的保护。

“政府提出的框架依赖于现有的立法和监管机构,这使得数据保护等基础监管适当地管理人工智能变得更加重要,”它继续说道。“由Ada Lovelace研究所委托的法律建议……表明,现有的自动化处理保障措施在实践中可能无法为与日常服务互动的人提供足够的保护,比如申请贷款。”

报告补充说:“总的来说,该法案的变化有可能进一步破坏政府对人工智能的监管建议。”

因此,该研究所的第一个建议是,让政府重新考虑数据保护改革法案中“可能破坏人工智能安全开发、部署和使用的要素,比如改变问责制框架”。它还建议政府扩大审查范围,审视英国法律中现有的权利和保护,以期填补任何其他立法空白,并在必要时为受人工智能决策影响的人引入新的权利和保护。

报告中的其他建议包括为监管机构引入法定责任,以考虑上述原则,包括“严格的透明度和问责义务”,并为他们提供更多的资金/资源,以解决与人工智能相关的危害;探索为监管机构引入一套共同的权力,包括事前、以开发者为中心的监管能力;政府应该考虑是否应该设立人工智能监察员,以支持受人工智能不利影响的人们。

该研究所还建议政府澄清有关人工智能和责任的法律。

在基础模型安全方面——由于OpenAI的ChatGPT等生成式人工智能工具的病毒式传播,这一领域最近引起了英国政府的特别兴趣和关注——该研究所还认为,政府需要走得更远,建议英国的基础模型开发者应该被赋予强制性报告要求,以便监管机构更容易掌握这一快速发展的技术。

它甚至建议,应该要求OpenAI、谷歌DeepMind和Anthropic等领先的基础模型开发者在他们(或他们正在使用的任何子处理器)开始大规模训练新模型时,向政府发出通知。

“这将为政府提供人工智能能力进步的早期预警,使政策制定者和监管机构能够为这些发展的影响做好准备,而不是措手不及,”报告建议,并补充说,报告要求还应包括诸如访问用于训练模型的数据的信息;内部审计的结果;还有供应链数据。

另一个建议是政府投资小型试点项目,以加强自己对人工智能研发趋势的理解。

Ada Lovelace研究所副主任Michael Birtwistle在一份声明中评论了该报告的发现,他说:

文章链接:http://900614.com/news/show-94587.html
 
 
更多>同类资讯

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  违规举报