当前位置:首页 > 站长资讯 > 色情主播的天敌:AI 大牛为你解密人工智能鉴黄的那些事

色情主播的天敌:AI 大牛为你解密人工智能鉴黄的那些事

2016-11-10 15:45  浏览:   标签:

  • 正文
  • 点这评论:(0人参与)

色情主播的天敌:AI 大牛为你解密人工智能鉴黄的那些事

目前多家人工智能公司已开始布局鉴黄业务,阿里巴巴和腾讯分别拥有阿里绿网、万象优图两大鉴黄系统。而在创业公司方面,较为知名的有图普科技、飞搜科技、深图智服等公司。

近期在线直播火爆,因此有些公司开始切入直播鉴黄这个细分领域。为此,雷锋网(公众号:雷锋网)就以下问题请教了来自专攻色情识别的图普科技和在计算机视觉公司云从科技的技术专家进行解读。

直播(如花椒、映客)、在线视频(如优酷、爱奇艺)、图片鉴黄的区别在哪儿?直播的鉴黄难度是否最大?要解决哪些技术问题?

云从科技高级算法工程师周翔:

其实这三项(直播,在线视频,图片鉴黄)差异不大,三者都可归类为实时视频处理和海量图片处理。

视频/直播是动态的,图片是静态的。鉴别视频和直播时,可以把动态内容解码变成图片帧来判断,这样就与静态图片鉴别没差了。

至于技术问题,其实鉴黄在算法层面难度并不高,利用深度学习算法训练后,就能达到不错的鉴黄效果。

图普科技工程师则在计算能力和算法要求上做了一些小补充:

目前主要是通过间隔截图、关键帧截图之类的对直播和在线视频进行识别处理,所以最终也是对单张图片的处理。

但是,由于直播的实时性,所以直播相对于另外在线视频和图片,对于机器的图片识别的处理速度要求较高,这主要是对于计算能力和算法的要求加大。

至于是屏蔽、删除或者禁播等方面的处理,主要是看业务方,可以选择由机器自动处理或者人工介入。

既然算法门槛不是很高,为什么一些 CV 公司不增一项视频/直播鉴黄业务捞点油水?

云从科技高级算法工程师周翔:

一方面是他们不太愿意做。

另一方面虽然 CV 公司可能有现成的鉴黄算法训练系统平台,但是他们缺数据。鉴黄需要大量的数据来进行训练。黄色图片和视频帧最好达到十万的量级深度学习才能跑起来。至于如何收集这些数据,一般情况下很多视频直播都已经有现成的,包括鉴黄中心等都有非常大量的此类图片。

刚提到大批量数据用深度学习来训练,而训练小批量数据一般采用传统的特征分析加分类器算法来做,但效果和精度没有目前的深度学习高。

直播鉴黄是不是要识别里面的每一帧图像,这样计算量岂不是很大?

图普科技工程师:

这与算法能力关系不大,在算法和工程能力都已经达到最优的情况下,这个是属于企业的成本预算问题。

直播是视频流,企业如果对直播的每一帧的图片都进行识别,这是非常巨大的数据量,企业的运营成本自然较高。所以我们一般建议企业按自己的需求,对于视频先进行抽帧处理,例如一分钟视频的视频可以按照时间段抽 6-15 帧左右的图片进行识别处理之类的来控制成本。

鉴黄存在哪些难点?

云从科技高级算法工程师周翔:

实时视频影像分析大致通过三大方面进行鉴定:

是否有人物(有:色情概率增加)

人形轮廓的肤色比例(大:色情概率增加)

姿态分析(性行为姿势:色情概率增加)

人类对于色情的定义较为广泛,多种情况下对于色情的鉴定标准也会有不同。在这基础上其实对于黄色和非黄色图片的区分,有时候不是特别明显,很难判断。举个通俗的例子,赤裸上身的男子照片(属于肤色比例大),这种图片本质上属于非黄色图片,但很多时候,因为训练数据里有类似图片被判定为黄色图像,存在判错的问题。因此需要利用大量样本去不断地训练它,让机器不断纠正,学习更多特征避免这种“低级错误”。

这也正是上面提到部分 CV 公司不涉入鉴黄业务的原因,因为一直需要大量样本去不断训练、纠正,工程量挺大。

鉴黄的数据训练过程是什么样的?

图普科技工程师:

通俗讲,可以把深度学习理解为一个空白的大脑,海量数据就是灌输进来的经验。当我们把大量的色情、性感、正常的样本的属性告诉深度学习的引擎, 让引擎不断学习,然后把他们做对的进行奖励,做错的就惩罚,当然这些奖励和惩罚都是数学上的,最后空白的脑袋就会学成了一种连接的模型,这种模型就是为了鉴别色情与非色情而生的。

综合上述内容,AI 科技评论把人工智能鉴黄总结为以下几点:

实时视频影像分析大致要从三个方向鉴定:是否有人物、人形轮廓的肤色比例、姿态分析。

直播/视频和图片鉴黄区别不大,把动态视频解码为图片帧就与图片没差了。视频鉴黄不会对每一帧进行识别,一般是从固定时间段里抽取几帧进行识别。

黄色的图片和视频帧最好达到十万的量级,深度学习才能跑起来。而训练小批量数据一般采用传统的特征分析加分类器算法来做,但效果和精度不如深度学习。

屏蔽、删除或者禁播等方面的处理,主要是看业务方,可以选择由机器自动处理或者人工介入。

最后,鉴黄的棘手之处主要是难以掌握色情和非色情的临界点,机器容易把正常图片(如男生上身半裸图片)误判为色情图片,因此需要大量的数据不断去训练和纠正,是个慢熬的苦差事,这也是部分 CV 公司不涉入鉴黄业务的一大原因。