时间:2020-01-02 | 栏目:业界 | 点击:次
近日,中国互联网协会在北京组织召开了多项团体标准(以下简称“团标”)草案评审会,由腾讯牵头的《基于AI的多媒体内容识别技术能力要求》、《面向网络信息内容的数据标注流程指南》和《网络运营者针对未成年人的有害信息防治体系建设框架》三项标准草案通过了评审,正式转为征求意见稿,会上就标准的内容形成了进一步的共识。来自中国标准化院、中国通信标准化协会、数据通信科学技术研究所、中国电子工业标准化协会、中国科学院信息工程研究所、中国互联网协会的专家领导参与评审,来自华为、爱奇艺、乐信、探探、易鑫、字节跳动、作业帮、恺英网络、映客、中国文学艺术基金会姜昆艺术公益基金等企业和机构代表参加了研讨。
推动内容安全标准,利用AI促进网络空间内容清朗
互联网的发展让内容丰富的多媒体信息得以快速传播,帮助广大用户实现了零距离的信息传递。但同时,由于多媒体内容监管不规范,被一些不法分子钻了空子,制作文本、图片、视频等从事违法犯罪行为,如非法获取个人信息,散播未经核实的虚假新闻,宣扬邪教或恐怖主义等不良信息,诋毁个人企业政府的名誉,侵害公民或企业财产安全。对此,《基于AI技术的多媒体内容识别技术能力要求》团标规范了面向内容安全的多媒体识别的基本技术要求,对各互联网运营商对其平台的信息内容监管给出了指导意见,目的在于预防并及时发现不良信息的传播。
《基于AI的多媒体内容识别技术能力要求》等面向信息内容安全的AI技术标准制定工作,能让互联网运营者高效而精准地筛查传播在其平台的黄、赌、毒、恐怖主义等各类恶意违规和违法的有害信息。该标准在多媒体内容安全技术的框架上搭建筛选模型,帮助互联网运营商明确了内容识别的范围和标准,并在图片、文本、音频和数据安全四个大方向的检索识别能力上给出了指导意见。当系统有效识别到恶意信息后,可以采取消除等措施防止信息的进一步扩散,达到维护网络信息安全的目的。为用户净化有害信息,建造安全的互联网环境。该标准凝聚了腾讯在多媒体内容和网络安全等标准制定上丰富的实践和落地经验,对规范互联网多媒体信息安全具有重要的意义,能够有效帮助会员单位提升内容安全意识和技术水平。
关注未成年人上网安全,践行科技向善
在互联网的使用者当中,未成年人群体颇受关注。近年来,加强未成年人网络保护、减少网络有害信息对未成年人的不良影响已成为社会共识。在法律法规层面,我国《未成年人保护法》、《预防未成年人犯罪法》等法律修订草案中明确提出了网络保护要求。在实践层面,许多互联网公司一直在为未成年人营造良好的网络生态环境而努力,不断提升自身产品和服务安全能力的同时也用实际行动践行企业社会责任。
一直以来,腾讯公司积极跟踪研究并参与未成年人保护相关工作,在网络安全保护方面,打造了“守护者计划”公益平台,清理有害信息、打击网络犯罪,并连续三年联合全国“扫黄打非”工作小组办公室开展以“护苗网络安全进课堂”为代表的未成年人网络安全教育系列活动,帮助未成年人提高自我保护意识。在内部,腾讯发起未成年人网络保护安全专项——“繁星计划”,积极推动利用AI等技术守护未成年人上网安全,免受网络有害信息的侵害;同时对涉及侵犯未成年人权益的举报实现快速优先复核,并严格处置。
腾讯从自身实践出发,广泛联合同业企业进一步提炼经验形成《网络运营者针对未成年人的有害信息防治体系建设框架》标准,该标准确立了针对未成年人的有害信息防治体系框架,为互联网企业研发未成年人专属产品/模式,提升信息内容安全技术防护和治理能力,开展未成年人网络素养教育等工作提供参考。
在标准草案转为征求意见稿后,腾讯牵头的上述团标将于明年正式送审,预计明年年内正式发布并推广应用。