nsfw(?Not Suitable for Work)直接翻譯就是 工作的時候不適合看,真文雅
nsfw效果,注意底部的分數
?
大體流程,輸入圖片/視頻,輸出0-1之間的數字,一般情況下,Scores < 0.2 認為是非常安全的,Scores > 0.8 就非常可能是xx圖片
roop開源項目里采用的是 0.85
opennsfw2? 和?opennsfw 相比,就是模型用了TensorFlow
參考
GitHub - yahoo/open_nsfw: Not Suitable for Work (NSFW) classification using deep neural network Caffe models.
GitHub - bhky/opennsfw2: Keras Core implementation of the Yahoo Open-NSFW model