AI BIẾT TUỐT:
Stable Diffusion là bộ lọc hình ảnh máy học nguồn mở được thiết kế để xác định nhanh chóng và chính xác xem hình ảnh có chứa nội dung không an toàn cho công việc (NSFW) hay không.
Nó được hỗ trợ bởi các mô hình nguồn mở và có thể được sử dụng với bất kỳ hình ảnh nào, không chỉ những hình ảnh do AI tạo ra. Công cụ này cung cấp giao diện người dùng đơn giản, cho phép người dùng tải lên hoặc kéo và thả hình ảnh PNG hoặc JPG có kích thước lên tới 50MB.
Trình kiểm tra an toàn không được ghi chép đầy đủ nhưng có thể được sửa đổi với một vài thay đổi. Công cụ này được xây dựng bởi @m1guelpf, một nhà phát triển phần mềm có kinh nghiệm. Stable Diffusion là một công cụ mạnh mẽ có thể nhanh chóng xác định nội dung NSFW trong hình ảnh để có thể tránh hoặc loại bỏ.
Đánh giá
Chưa có đánh giá nào.