当前位置:首页 > 未命名 > 正文

科技巨头的“算计”:AI行业需要“监管” 但规则自己定

  来源:华尔街见闻

  个月开始,OpenAI首席执行官Sam Altman多次在公开场合警告人工智能可能带来的危险,并呼吁加强监管——这一举动令所有人吃惊:难道向来对监管唯恐避之不及的科技公司们学乖了?

  不过,如果从另一个角度来看,不管OpenAI还是其他科技公司,最近疯狂鼓吹加强监管,其中含了它们自己的“算计”:获得更多政客的支持,为这一新兴行业的规则制定者,并且时刻维持其领先地位。

  欧美对监管立法态度相径庭

  去年年底以来,人工智能各类成果层出不穷。仅今年前四个月,该行业就筹集了超过10亿美元的风险投资资金,人工智能的概念已经扩展到了牙刷、无人机等各个领域。不过,这一技术发展的程度和速度将在很大程度上取决于监管是否介入。

  大型科技公司表示它们希望受到监管,但现实情况要复杂得多,欧美的科技监管规则差异就很大。

  在美国,谷歌、微软、IBM和OpenAI已要求立法者监督人工智能,它们认为这对于保证安全是必要的。但在欧盟,政客们最近投票批准了对生成式AI设置限制的立法草案。而这些公司的游说者则对这一立法草案表示反对,认为其将令欧洲在当前的全球人工智能竞争中居于落后地位。欧盟制定全的数据保护法已有五年多了,并且实施严格的竞争和内容审核准则。然而,在美国,二十多年来几乎没有任何监管。

  科技公司知道它们不能忽视欧盟,特别是在其社交媒体和数据保护规则已成为全球标准的情况下。欧盟的《人工智能法案》可能在未来两到三年内实施,这将是西市场监管人工智能的首次尝试,其中将包含严厉处罚的条款。如果公司违反该法案,欧盟可能会对其处以相当于公司年营业额6%的罚款,并禁止产品在欧盟运营。据估计,欧盟占全球人工智能市场的20%至25%,预计其价值在10年内将超过1.3万亿美元。

  这使该行业处于微妙的境地。智库Data Ethics联合创始人Gry Hasselbalch表示,如果该法案成为法律,最大的人工智能提供商“将需要从根本上改变它们的透明度、处理风险和部署模型的方式。”

  从欢迎到警惕:为什么科技巨头对欧盟AI监管的态度发生了变化?

  与人工智能技术的迅速发展相比,欧盟的相关立法进展缓慢。

  早在2021年,欧盟委员会就发布了人工智能法案初稿,启动了漫长的谈判进程。该提案采取了“基于风险”的方法,在极端情况下禁止人工智能。草案的大部分内容都集中在“高风险”事件的规则上。除此之外,草案还规定了深度造假和聊天机器人的透明度:人们在与人工智能系统交谈时必须得到通知与之聊天的是人工智能,并且需要标记生成或操纵的内容。

  大型科技公司在当时普遍欢迎这种基于风险的做法。

  IBM就曾表态,希望确保“通用人工智能”——一个更广泛的类别,包括图像和语音识别、音频和视频生成、模式检测、问答和翻译等——被排除在法规监管的范畴之外。IBM欧盟事务主管Jean-Marc Leclerc表示:

我们敦促继续采用基于风险的方法,而不是试图将技术作为一个整体来控制。

  但也有行业观察人士认为,如果是基于风险的监管,将会令一些最强大的人工智能系统排除在被监管的范畴之外。Future of Life是一家最初由马斯克部分资助的非营利组织,该组织总裁Max Tegmark认为:

未来的人工智能系统将需要明确监管。 监管法案不应该像欧盟的草案那样,按照一组有限的既定预期用途对它们进行分类,而且只监管其中的一部分

  在那个时候,看起来大型科技公司会得到它们想要的东西——欧盟甚至一度考虑将通用人工智能完全排除在这份法案的文本之外——直到2022年春天,政客们开始担心他们低估了它的风险。在法国的敦促下,欧盟成员国开始考虑监管所有通用人工智能,无论其用途如何。

  这时,此前一直置身于欧洲立法程序之外的OpenAI决定介入。2022年6月,该公司称“担心一些提案可能会无意中导致所有的通用人工智能系统被默认成为监管对象”。

  在ChatGPT问世之后,欧洲议会对聊天机器人的能力和前所未有的受欢迎程度感到震惊,议员们在下一份草案中采取了更强硬的态度。两周前批准的最新版本要求,OpenAI等“基础模型”的开发者必须总结用于训练大型语言模型的受版权保护的材料,以提高透明度。

  《人工智能法案》的两位主要作者之一Dragos Tudorache解释道:

最终,我们对生成式人工智能模型的要求是提高透明度。此外,如果存在“将算法暴露给坏人”的危险,那么开发人员就必须努力为此提供保障措施。

  虽然Meta、苹果和亚马逊对此基本上保持沉默,但其他主要科技公司则对此表示反对。谷歌表示,欧盟议会的控制措施将把通用人工智能视为高风险,而实际上并非如此。谷歌还抗议说,新规则可能会干扰现有规则,因为有几家公司表示它们已经实施了内部的管控措施。

  主动要求被监督,人工智能公司葫芦卖的什么药?

  随着公众发现生成式人工智能越来越多的缺陷,科技公司越来越直言不讳地要求监督——据一些官员称,它们更愿意就监管议题进行谈判。在与Altman和谷歌CEO Sundar Pichai从5月底开始接触后,欧盟的市场竞争主管Margrethe Vestager承认,大型科技公司正在接受欧盟对透明度和风险的要求。

  但一些批评者认为,这些大公司之所以在这个时间点积极寻求被监管,实际上是确保其市场主导地位的一种方式。柏林赫蒂学院伦理与技术教授Joanna Bryson说:

如果政府现在介入,那么这些大公司就可以巩固自己的领先地位,并找出那些正在接近它们的竞争者。

  此外,人们更担忧的是,关于如何监管,当前这些明星公司的介入,会导致它们成为规则制定者——最终令规则变得有利于它们。

  OpenAI首席执行官Sam Altman最近一直在鼓吹由政府来监管AI技术,甚至提到要建立一个类似国际原子能机构的政府间组织来监管AI,而且他认为,该机构应该专注于监管AI技术,以及为使用该技术的实体颁发许可。

  但谷歌则不希望AI监管一切都由政府统领,该公司更倾向于“多层次、多利益相关者的AI治理方法”。AI领域的其他人,包括研究人员,也表达了和谷歌类似的观点,称政府部门对AI进行监管可能是保护边缘化社区的更好方式——尽管OpenAI认为技术进步太快无法采用这种方法。

  有分析指出,OpenAI和谷歌在监管领域的这种争议,就凸显出双方都希望成为游戏规则的制定者,并且制定有利于自身的监管规则。

  风险提示及免责条款

  市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。