(资料图片)
ChatGPT等生成式人工智能服务打破了社会公众对人工智能技术应用的传统认知,其生成内容具有高度的智能化、仿真性特征,在特定情况下,甚至能够替代人工生成相关营销文案等信息内容。倘若不事前标注网络信息内容是通过人工智能技术所生成,一般人甚至无法直接区分是不是人工撰写内容。在新闻出版行业,部分新闻媒体已经在尝试开设专版,该版面主要呈现人工智能技术生成的新闻内容。可以说,一旦生成式人工智能技术得到广泛普及,社会生产方式和分工架构必然会发生颠覆性变化。
然而,技术双刃剑的魔咒同样存在于人工智能领域。生成式人工智能技术应用的最大优势在于能够在短时间内批量生成同质性的网络信息内容,一旦这种技术优势被应用于电信诈骗、网络造谣等违法犯罪活动,既会对网络舆论生态造成毁灭性破坏,也会对国家安全和社会稳定产生重大威胁。事实上,在我国已经出现了非法滥用生成式人工智能技术的案例:湖南省耒阳市公安局网安大队发现犯罪嫌疑人利用AI智能工具制作、传播虚假新闻;河南省郑州市公安局航空港分局发现犯罪嫌疑人利用AI软件渲染修改新闻报道;内蒙古自治区包头市公安局破获一起利用“AI换脸”进行电信诈骗的案件,等等。
面对日趋严峻的人工智能技术滥用风险,国家互联网信息办公室联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》),自2023年8月15日起施行。
《办法》囊括了监管机构、信息服务提供者、用户等主体的法律义务。尤其在第三章“服务规范”中,更是明确信息服务提供者应当采取显著标识、违法内容应急处置等措施,控制违法不良信息恶意生成的风险水平。《办法》与《网络信息内容生态治理规定》《互联网信息服务深度合成管理规定》等法律法规共同构成了网络信息内容生态治理体系,在传播网络谣言、网络暴力、虚假信息等传统网络信息内容治理路径之外,补全了机器批量生成违法不良信息的治理模式。更重要的是,《办法》不仅对用户终端层面所生成的信息内容类型作出了明确限定,更对相关产品或服务的研发设计阶段提出具体的监管要求。例如,《办法》要求相关服务提供者在进行预训练、优化训练等训练数据处理活动时,应当采取有效措施提高训练数据质量,以此提升生成内容的合法性与合理性。
具体而言,《办法》在规范信息内容生成层面提出了四个方面的监管要求:第一,继续延续《互联网信息服务深度合成管理规定》的既有规定,信息服务提供者应当对图片、视频等生成内容进行诸如“该图片由人工智能自动生成”等显著标识。之所以特别强调图片、视频等信息类型,是因为图片、视频无法轻易修改以及“有图有真相”的认知逻辑使得传统的辟谣难度和辟谣成本大大增加,社会公众也无法在足以以假乱真的图片、视频等信息内容中辨别真伪。
第二,信息服务提供者应当设置违法内容应急处置机制。一旦发现用户有意生成违法不良信息或者相关人工智能服务可能会自动生成违法不良信息时,提供者应当立即采取停止生成、停止传输、消除等处置措施,同时,也应当对算法模型进行优化训练。这些处置措施主要根据实际情况、整改成本以及技术可行性等要素予以确定,并不局限于前述措施。此外,提供者还需要及时就生成式人工智能服务可能生成违法不良信息以及准确采取的处置措施向主管部门报告。
第三,信息服务提供者应当对使用者的违法行为进行及时处置。从网络信息传播方式来看,从用户端限制违法不良信息传播的实际效果远远不如从服务端控制用户使用行为的效果。因此,《办法》明确要求信息服务提供者在发现用户利用生成式人工智能服务从事违法活动时,理应对其账号及其权限采取处置措施,包括但不限于警示、限制功能、暂停或者终止向其提供服务等。同时,信息服务提供者还应当对违法行为以及采取的措施如实记录并留存,向主管部门报告相关违法事实。
第四,信息服务提供者还应当设置运行有效的投诉、举报机制。投诉、举报的事项除了用户个体权益受损的侵权事实之外,还应当包括用户所发现的生成式人工智能服务被滥用的事实。并且,《办法》还强调信息服务提供者所设置的投诉、举报入口应当便于公众访问,且在合理期限内及时向公众反馈处理结果。
预防技术滥用风险不能简单等同于限制技术发展,规范网络信息内容生成的关键应当回归至多方治理主体共同参与的话语体系之中。在《办法》中,明确提及了立法目的是促进生成式人工智能健康发展和规范应用,而非以安全保障限制技术创新发展。《办法》体现了协同治理和系统治理的创新性治理理念,一方面,明确信息服务提供者在研发设计、技术应用和服务反馈等各个阶段的风险预防义务之外,形成全流程、全环节的治理机制;另一方面,明确监管机构、信息服务提供者、信息服务使用者各自的法律义务,形成协同式、系统性的治理架构。
(作者赵精武系北京航空航天大学法学院副教授)