虽然大多无法跟上人工智能发展的脚步,世界各国的监管机构还是在采取不同的办法来监管这一技术,结果导致对人工智能的全球监管格局高度分散且混乱,这种无国界技术必将颠覆就业市场,助长虚假信息的传播,甚至可能给人类存续带来风险。
针对人工智能的主要监管框架包括:
欧洲基于风险制定的法规:周三,欧盟的《人工智慧法案》正在进行协商,该法案将根据人工智能工具带来的风险水平实施相应的监管。其理念是设置一系列可变动的监管标准,旨在对风险最高的人工智能系统施加最严格的限制。该法案将根据四种情况对人工智能工具进行分类:不可接受的风险、高风险、有限风险和最低风险。
不可接受的风险包括对个人进行社会信用评分或在公共场所进行实时面部识别的人工智能系统。这类工具将被禁止。其他风险较小的工具,如生成篡改视频或“深伪”影像的软件,则必须披露这是人工智能生成的内容。违规者将被处以相当于其全球销售额6%的罚款。风险最低的系统包括垃圾邮件过滤器和人工智能生成的电子游戏。
美国的自愿行为准则:拜登政府为企业提供了自愿监管安全风险的余地。白宫在今年7月宣布,包括亚马逊、Anthropic、谷歌、Inflection、Meta、微软和OpenAI在内的多家人工智能研发企业都已同意对这些系统进行自我监管。
这些自愿监管承诺包括对工具进行第三方安全测试,即所谓的“红队检测”;对偏见及隐私问题进行研究;向政府和其他机构共享风险信息;开发能够应对气候变化等社会挑战、同时还包含识别人工智能生成素材的透明性措施的工具。各家企业已经在履行以上的许多承诺。
美国基于技术制定的法案:任何针对人工智能的实质性监管都必须来自国会。参议院多数党领袖、纽约州民主党人查克·舒默已承诺,一项全面的人工智能法案可能于明年出台。
但议员们目前已经提出了关注人工智能系统创造和部署的法案。这些提案包括设立一个类似于食品药物管理局的机构,来监管人工智能服务供应商,审核新系统的牌照,并制定各类标准。OpenAI首席执行官萨姆·奥尔特曼对此表示支持。不过,谷歌提议让国家标准暨技术研究院作为政府监管的核心机构,该研究院成立于一个多世纪以前,没有任何监管实权。
其他法案则重点关注了人工智能系统通过吸收知识产权来创建自身系统的版权侵犯行为。有提案还讨论了选举安全和限制使用“深伪”技术的问题。
全球合作:许多专家表示,有效的人工智能监管需要全球合作。到目前为止,在此问题上的外交努力几乎没有取得什么实质性成果。其中的一个想法是建立国际性机构,效仿为限制核武器扩张而创立的国际原子能机构。但难点在于要克服地缘政治不信任、经济竞争和民族主义浪潮,这些因素都已经与人工智能的发展紧密相连。
没有评论:
发表评论