1996 年,互联网刚刚开始普及。一群技术先驱发表了《赛博空间独立宣言》(A Declaration of the Independence of Cyberspace),宣称各国政府无权干涉网络空间,“在我们这里,你们并不受欢迎。在我们聚集的地方,你们没有主权。”

全球各国的互联网监管确实远远慢于互联网的发展。第一部系统的数据监管法案 GDPR 要等到宣言刊发 20 年后才在欧盟通过。但有了互联网监管经验后,各国政府对人工智能的反应速度显著加快了。

2021 年,人工智能还被认为是一股过时的浪潮,欧盟已经提出监管人工智能的框架。ChatGPT 等生成式人工智能出现后,立法也加速了。ChatGPT 发布七个月后,世界上第一部监管人工智能的法规出现了。

6 月 14 日,欧盟的主要立法机构欧洲议会投票通过《人工智能法案》(A.I. Act)草案,严格限定了人工智能技术的使用场景和范围,并规定了人工智能模型开发者需要遵守的规定,违规者会被处以全球收入总额 6% 的罚款。今年底之前,欧洲议会、欧盟成员国和欧盟委员会的代表会确定最终条款。《人工智能法案》的部分要求是:

-生成式人工智能,如 ChatGPT,需要披露哪些内容是人工智能生成的,需要设计模型防止生成有害内容,需要披露训练模型时用了哪些有版权的数据。

-禁止在公共场所用面部识别等生物特征识别技术。

-使用人工智能技术的玩具、航空、汽车、医疗设备和电梯产品进入市场前需通过全方位评估,并持续监管。

呼吁监管最积极的是技术领先的 OpenAI。过去几个月,OpenAI 的 CEO 山姆·阿尔特曼(Sam Altman)在美国拜访上百名立法者和政要后,到南美洲、欧洲、非洲和亚洲与多个国家政要交流,谈论人工智能风险,寻求合作监管人工智能。

但欧盟的人工智能法规并不是阿尔特曼向往的监管。他希望建立一个类似国际原子能机构的跨国监管组织,负责审查、确定哪些公司有权开发、使用大模型。风投机构 a16z 合伙人马克·安德森认为,寻求这种监管的 CEO 与从禁酒令中获益的私酒贩子没什么区别,“形成监管壁垒,建立政府支持的人工智能供应商联盟,他们会免受创业公司和开源竞争的影响,就能赚更多钱”。

而欧盟的新法规,要求科技公司公布用了哪些受版权保护的数据训练模型,可能会削弱技术领先者的优势。

一方面,现在训练一个人工智能大模型的方法相对透明,大模型的质量主要靠训练用的数据集。今年发布 GPT-4 时,OpenAI 不再公布具体的训练数据,理由是竞争更激烈了。

另一方面,欧盟的法规要求 OpenAI 公开数据来源。而 AI 公司普遍私下采集数据训练模型,通常很难被发现。

The Information 今天报道称 OpenAI 正在采集 YouTube 的数据,训练下一代能处理文本、图像等多种数据的大模型。按照要求,YouTube 的内容属于 Google 和视频制作者,OpenAI 无权使用。

据媒体报道,阿尔特曼一度公开表示 OpenAI 可能难以遵守欧盟的规定,会考虑退出欧盟。今年以来,意大利等国家已经因为数据问题禁用了 ChatGPT。(贺乾明)