微信
手机版
网站地图

铜陵,算法正告!该图片涉嫌违规不予显现,再见

2019-04-14 14:48:34 投稿人 : admin 围观 : 266 次 0 评论


作者 | 逐个

出品 | AI科技大本营(ID:rgznai100)


一般看到头图,“老司机”立马心照不宣,就会猜到这篇文章的主题大致与什么相关。


没错,今日的内容就跟“不行描绘”的图片有关,但请别激动,或许没有福利:)


要介绍的项目名称叫 NSF铜陵,算法警告!该图片涉嫌违规不予闪现,再会W.JS,英文全称是 Not Sa心胸介弟fe/Suitable For Work,也便是说不适合作业场参益散所运用。


这其实是一个依据 Tens铜陵,算法警告!该图片涉嫌违规不予闪现,再会orFlow.js 的色情图片辨认项目,说白了便是“检查”色情图片,它的优点是在本地即仓本可辨认,即使是那些你无法控王为念和现任妻子相片制的网络不雅观内容,也能够提早协助进行防护,特别在维护未成年人健水树奈奈子康上网这一点上很有好处。


比方有的网站、或许 App 上,有用户总想测验上传色情图片,而经过运用 NSFW.JS 则能够提早警告用户制止上传,假如强行上传,则需求再经过人工审阅。


又比方像微博、微信等 App 上卖片的僵尸账号比较众多,NSFW.JS 则能够对即将收到该信息的人宣布警告,奉告他们要检查的内容或许不合适,需求弄清一点,这并不需求服务器处理即可完结操作。


默许情况下,该 JS 库对图画进行分为了以下 5 类:


  • Drawing - 无害的艺术图画,包括动漫

  • Hentai - 色情艺术图,不适合大多数作业环境

  • Neutral - 安全、中性图片

  • Porn - 色情图片,性行为,一般触及生殖器

  • Sexy - 性感图片,而非色情图片,包括乳头


    以下是 Demo 展现,假如默许敞开含糊维护,只有当 NSFW.JS 辨认图片为 Drawing 和 Neutral 时的份额尤浩然在哪个大学更高时,意味着能够经过审阅进行展现,而将图片辨认成其它三类图片的份额更高,图片则主动屏蔽。



    当然大理翁正才,这是抱负状态下的呈现成果,实际上,项目创建者也坦陈,NSFW.JS 现铜陵,算法警告!该图片涉嫌违规不予闪现,再会在并不完美,假如你进行测验就会发现,有一些清楚明晰的误识图片。


    用于练习 NSFW 图画分类器的图画数据脚本调集,现在铜陵,算法警告!该图片涉嫌违规不予闪现,再会已在 GitHub 取得 8397 个 Star。


    喏,数据集地址你:https://github.com/alexkimxyz/nsfw_data_scraper,还请善加利用:)


    项目创建者以为,尽管现在的辨认成果中会呈现少数误差,但一般仍是很风趣。关于像 NSFW 这样的项目,他觉得现在召回率比精确度更重要,”误识率高一点也比让更风险的东西漏掉要好”。


    话虽如此,但仍是有粉饰辨认准确度不高的嫌疑。创建者此前测验 15,000 个图画集的准确率大约 90%,不过,依据 AI科技大本营亲身测验,全体感觉是误识率较高。关于清楚明晰的色情图片,该项目辨认时十分明晰,不过介于“性感”和“色情”的黑色地带,就不太靠谱了,金卡戴珊老公很简略误伤。


    其间,以 AI科技大本营测验的二十多张 Monica Bellucci 图片为例,有许多显着不触及色情的图片都被过错分类,将“性感照”乃至是一般相片分到了“色情”档。



    相较而言,第一张图片显着漏胸面积更大,第二张显着是很一般的图片,却被分类为“P罗悠真orn”了。



    这两张图怎样便是“Porn”了......



    更令人难以承受的瑾年春或许是这样的图片被辨以为“Porn”,脸私摄都不能漏了?铜陵,算法警告!该图片涉嫌违规不予闪现,再会


    现在来看,该项意图分类器模型还有很大的提高空间,特别跟着 data scraper 的改善,假如未来辨认率有大幅提高,它应该会成为很有潜力的运用项目。这是一个缓慢但却是值得等待的进程。


    怎么运用 NSFW.JS


    最终附上 NSFW.JS 的操作过程,简略来说只需三步:

    1、获取代码到位

    2、在客户端上加载模型

    3、对图画进行分类


    项目创建者也在 GitHub 中给出了具体阐明:


    import * as nsfwjs from 'nsfwj重生之袁三令郎s'

    const img = document.getElementBy铜陵,算法警告!该图片涉嫌违规不予闪现,再会Id('img')

    // Load model from德川喜喜 my S3.
    // See the section 宝贵雄子文;hosting the model files on your site.
    const model = await nsfwjs.loseducedad()

    // Classify the image
    const predictions = await model.classify(img)
    con上海裸拍sole.log('Predictions: ', predictions)

           

    API


    加载模型。出于多种原因,你应该运用可选参数并从你的网站加载模型。


    const model = nsfwjs.load('/path/to/model/directory/')


    参数

    • 可选的 URL model.json


    回来

    • 预备运用 NSFWJS 模型目标


    对图画进行分类


    此函数能够运用任何依据浏览器的图画元素(,),并回来最或许的猜测数组及其置信度。


    // Return top 3 guesses 铜陵,算法警告!该图片涉嫌违规不予闪现,再会;(instead of all 5)
    const predictions = await model.classify(img, 3)

           

    参数

    • 要检查的张量(Tensor)、图画数据、图画元素、视频元素或画布元素

    • 要回来的成果数(默许全部都是 5)


      回来

      • 目标数组包括 className 和 probability。数组巨细由 classify 函数中的第二个参数确认。

      装置


      NSFWJS 由 Tensorflow.JS 供给支撑,作为peer dependency(同级依靠)。假如你的项目还没有 TFJS,则需求进行增加。


      # peer dependency
      $ yarn add @tensorflow/tfjs
      # install NSFWJS
      $ yarn add nsfwjs


      你也能够进行下载和保管项目:

      https://s3.amazonaws.com/nsfwdetector/min_nsfwjs.zip


      相关链接:

      github 链接:https://github.com/infinitered/nsf侧组词wjs

      demo 测验地址: https://nsfwj花景生s.com/ 


      假如你对该项目感兴趣,能够装置试用,欢迎在谈论区沟通运用体会。


      (本文为AI科技大本营原创文章,转载请微信联络 1092722531)


      群招募


      扫码增加小帮手微信,回复:公司+研讨方向(校园+研讨方向),邀你参加技术沟通群。技术群审阅较严,敬请体谅。


      引荐阅览:

                               

      点击“阅览原文”,检查前史精彩文章。

      相关文章

      标签列表