开源AI内容检测工具,支持识别图像、PDF、视频文件!
文章标签:
开源内容管理系统
NSFW Detector( Not Safe For Work,简称 NSFW)是开源的检测不适宜内容工具,NSFW Detector能识别图像、PDF、视频文件中的不适宜内容。工具基于Google的
vit-base-patch16-224-in21k 模型,支持仅CPU推理,无需GPU,可在多数服务器上运行。NSFW Detector基于API提供服务,易于集成到其他应用,支持Docker部署,适合分布式部署。NSFW Detector自动用多CPU加速推理,完全本地运行保护数据安全,支持多种文件类型检测。
主要功能:
内容检测:检测图像、PDF文件、视频和压缩包中的文件是否包含不适宜工作场合(NSFW)的内容
CPU推理:支持用CPU进行推理,无需GPU支持,降低硬件要求
多CPU加速:自动用多个CPU核心加速推理过程,提高处理速度。
简单分类:将内容分为“nsfw"和“normal"两个类别,简化分类流程
API服务:提供API接口,方便与其他应用程序集成,实现自动化的内容检测。
GitHub地址:
https://github.com/tmplink/nsfw_detector