您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. NSFWetector:使用CoreML的NSFW(又名色情)检测器-源码

  2. NSFWDetector是一个小的( 17 kB )CoreML模型,用于扫描图像是否裸露。 使用CreateML对它进行了训练,以区分色情/裸露图像和适当的图片。 主要侧重于区分图片和色情等instagram模型。 用法 guard #available ( iOS 12.0 , * ), let detector = NSFWDetector. shared else { return } detector. check ( image : image, completion : {
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:178176
    • 提供者:weixin_42174176