UGC内容场景多、变化快、更新频繁,时刻都有产生监管风险的可能。
普通用户有意或无意的行为,都有可能导致敏感内容流出,从而给平台方带来较大的监管压力。
· 基石目标:保证底线问题事故率可控;
· 在满足基石目标的基础上,尽量减少人力和机器的成本投入;
· 与此同时,保证内容生产者的体验,不影响投稿积极性;
· 另外,同样需要保证消费者可以消费到足够有价值的内容。
明确哪些是问题:
由专门的policy团队制定相关规则并负责长期维护迭代。
主要目的是:明确哪些内容存在问题,相关问题需要处理到什么程度。制定依据一般包括:
· 法律法规和监管规则
· 指令
· 社区氛围要求
· 内部用户负反馈。
审核
每条创作者发出的内容,均会经过兜底策略(业务策略、反作弊策略等)+机审模型,判断出该内容该给到什么状态(先发、先审、自见、删除等)。
审核形式
1.初审
a.解决问题:内容安全问题,通常用来解决涉敏、涉黄、暴恐等底线问题。内容进到审核流程中的必备部分。
2.复审
a.解决问题:内容生态问题,通常用来解决标题党、低俗擦边、虚假、旧闻新发等画风问题。
审核框架。
深耕业务治理场景,拥有未成年保护专项,抑郁症专项,防网暴专项,恶意导流专项等近10多种专项运营经验积累,成果同步在企业服务矩阵之中。
除模型的常态化迭代外,紧急运营机制可在1小时-3天内,响应突发问题,完成从数据标注到模型上线的全过程。
再完备的线上防控体系,在与各类风险的持续对抗中,依然离不开专业团队的支持和兜底。