编程技术文章分享与教程

网站首页 > 技术文章 正文

鉴黄师的福星——AI识别黄暴图片哪家强

hmc789 2024-11-26 03:32:19 技术文章 2 ℃

要想年底不吃土,Q4就要肯吃苦!

国庆长假一过,社畜的生活就又开始辽。就在马可君紧张码字的时候接到朋友小H的电话,这位朋友一直是朋友圈独特的存在,因为他职业的特殊性,他是一名鉴黄师


惊奇的接起电话,小H的声音充满了疲惫,在一番你来我往后得知,因为每天都要面对大量的大尺度涉黄图片,现在已经在崩溃晕片的边缘,职业生涯家庭生活都受到了冲击,听到这里马克君放开紧握的鼠标,嘴角露出微笑。这恰好是俺平平无奇马可君了解的领域。


其实各大公有云厂商都有推出自己的安全图片检测的功能,马克君曾经有缘实测过GoogleVision ,今天就跟大家聊聊GoogleVision关于黄暴图片的检测。



Google Vision 调用Unsafe Detecting API都是非常简单的,本次测试数据集为100张实际场景中因为Unsafe被下架的图片,内容涵盖有人类明显暴露,暗示,动物暗示,卡通暗示等多个纬度的素材。


我们先用1张不会被和谐的图片简单测试一下:

Google Vision在官网上有可视化的试用拖拽窗口


Google Vision Explicit 的标签分为adult、spoof、medical、violence、racy

程度分为very_unlikely、unlikely、possible、likely、very_likely

从反馈上看racy very_likely是比较理想的,但medical likely是有一些迷惑。


下面简单介绍一下Google Vision 的操作步骤:

检测图片存储在Google Cloud Storage中

请求 JSON 正文:


{
  "requests": [
    {
      "image": {
        "source": {
          "imageUri": "cloud-storage-image-uri"
        }
      },
      "features": [
        {
          "type": "SAFE_SEARCH_DETECTION"
        }
      ]
    }
  ]



在Cloud Shell中执行如下命令:其中imageUri替换为图片的GCS的存放路径


curl -X POST \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token) \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
https://vision.googleapis.com/v1/images:annotate


下面就是图片的检测结果惹



目前很多内容平台、社交平台等已经在使用Google Vision来进行内容审核,这对于帮助鉴黄师高效工作快乐生活有很大的作用。但是在机器识别之下总会有一些漏网之鱼,这个时候鉴黄师又要开始发光发热了!


今天的内容就到这里啦,通过收集这些图片进行检测,马可君已经体会到了鉴黄师的辛苦,不说了,马可君需要缓一缓,我们下期再见咯!

先别划走~下期内容大家有什么期待不?有的话,可以在评论区留言哦!


标签列表
最新留言