Công nghệ / Kỹ thuật để ngăn chặn hình ảnh gây khó chịu trên một trang web


8

Tôi đang lên kế hoạch xây dựng một trang web mà một trong những tính năng chính của nó là việc sử dụng hình ảnh. Tôi đã tự hỏi những kỹ thuật hiện có được sử dụng để ngăn chặn hình ảnh gây khó chịu (tức là nội dung khiêu dâm) để được tải bởi người dùng. tức là Facebook hay Pinterest sử dụng cái gì?

Ngoài ra, tôi cũng muốn biết các đề xuất của bạn là gì để kiểm soát các hình ảnh gây khó chịu để được tải lên trang web (công cụ OpenSource có thể ..) Cân nhắc đây là một dự án cá nhân và sẽ được phát triển với ngân sách rất nhỏ.

Cảm ơn bạn


1
Nhận xét hay từ một câu hỏi hiện có : 'Tạo một tập lệnh đăng tất cả hình ảnh mà nó tìm thấy trên 4chan; nếu các thành viên khác trả lời "MOAR!", bạn biết đó là khiêu dâm. Nếu kịch bản bị cấm, có lẽ đó là CP. ' - user281377
Corbin ngày

Bạn có thể phát triển CAPTCHA trong đó người dùng được thử thách chọn ra hình ảnh không có nội dung khiêu dâm từ thư viện (hoặc ngược lại).
emory

Câu trả lời:


14

Không có giải pháp công nghệ nào sẽ cho bạn biết rằng một hình ảnh là "xúc phạm".

Bạn cần xem xét rằng "tấn công" phụ thuộc vào văn hóa (cũng như một điều cá nhân) - đó là, những gì bạn có thể thấy khó chịu và những gì tôi có thể rất khác nhau.

Đây là một vấn đề xã hội và chỉ có thể được giải quyết bằng các giải pháp xã hội - điều này có thể có nghĩa là kiểm duyệt (hoặc kiểm duyệt cộng đồng).

Vì vậy - hãy yêu cầu người kiểm duyệt phê duyệt / từ chối từng hình ảnh hoặc đặt một hệ thống cho phép người dùng của bạn gắn cờ hình ảnh gây khó chịu và sẽ xóa những hình ảnh đó khi đạt đến một ngưỡng nhất định. Bạn có thể muốn theo dõi những người dùng tải lên những hình ảnh đó để kiểm duyệt / cấm chúng.


1
Khá nhiều thứ này, mặc dù tôi nghĩ rằng có những công cụ có thể cho biết bao nhiêu% hình ảnh là da có thể giúp lọc nội dung khiêu dâm, v.v., nhưng bản thân tôi chưa bao giờ có kinh nghiệm.
Ẩn danh

5
+1. Đây thực sự là câu trả lời duy nhất. Những gì bạn cần là một cơ chế cờ / "báo cáo nội dung tấn công", không phải là một thuật toán lọc.
Mason Wheeler

1
@ Ẩn danh- Kiểm tra tất cả các kết quả khiêu dâm hoàn toàn tôi tìm thấy trên tìm kiếm hình ảnh google! google.com/search?&q=face
octern

5
@superM Tôi tin rằng bạn đánh giá thấp khả năng của mọi người bị xúc phạm.
Philip

1
@Anonymous Cách tiếp cận đó đã được thử en.wikipedia.org/wiki/Green_Dam_Youth_Escort#Feftal_defects . PRC đang làm việc về điều này.
emory

3

Có Bộ lọc nội dung hình ảnh ngoài kia có thể ngăn chặn loại điều này. Họ bật hình ảnh tương phản lên và theo dõi các cạnh và so sánh với hình ảnh người lớn "đã biết" .. Có rất nhiều nghiên cứu về chủ đề này .. và tôi biết rằng có ít nhất 1 dịch vụ ngoài đó, nó thoát khỏi tôi bây giờ .. nhưng họ ở ngoài đó


2
Còn hình ảnh bạo lực thì sao?
Oded

1
Tôi không chắc chắn giới hạn của các máy phát hiện hình ảnh ở đâu .. tuy nhiên, nếu nó khớp một cách lỏng lẻo với các hình ảnh bạo lực đã biết .. thì có lẽ nó cũng có thể nhận được hầu hết những điều đó .. vấn đề sẽ nằm ở "sai - tích cực"
hanzolo

2

Một số nỗ lực ở đây tồn tại như một khái niệm chống lại các loại tấn công cụ thể dựa trên phát hiện cạnh. Tôi đã thấy các tài liệu nghiên cứu về nó, nhưng như một vấn đề thực tế, bất cứ điều gì bạn sẽ "phát hiện" sẽ dễ dàng bị đánh cắp bằng cách pha màu hoặc bất cứ điều gì phá vỡ các phác thảo rõ ràng của các đối tượng.

Ngay cả khi bạn có thể thực hiện công việc này, internet sẽ chỉ tải lên cho bạn một chút xấu xa với màu sơn chói mắt của phong cách hải quân WWII trên người biểu diễn hoặc người biểu diễn trong bộ đồ ghillie chỉ là khó khăn.

Nếu bạn không có ý xúc phạm như smut nhưng bạo lực hoặc không màu sắc, tôi thậm chí không nghĩ rằng bạn có thể đưa ra một cách tự động để đánh giá nó ngay cả khi bạn có một quy trình phát hiện hình ảnh hoàn hảo chỉ vì vấn đề không ai đồng ý khi nó vượt qua dòng


1

Tất cả trở lại để nhận dạng mẫu. Lý do chúng ta có phần mềm nhận dạng khuôn mặt là phần lớn khuôn mặt có những đặc điểm tương tự và hầu hết các hình ảnh chúng ta chụp về những người có chúng đối diện với máy ảnh. Nhưng điều đó vẫn rất khó phát triển. Chúng ta hãy xem xét một khoảnh khắc hình ảnh quả bom tấn công mục tiêu dân cư. Làm thế nào bạn sẽ tạo ra một mô hình cho điều đó? Bức tranh sẽ có một vụ nổ, khá đơn giản để con người tìm ra, nhưng khá khó để lập trình. Một vụ nổ có thể có nhiều kích cỡ, hình dạng và màu sắc. Giả sử bạn tạo một số loại hệ thống dựa trên quy tắc. Điều gì xảy ra nếu bức tranh là một vụ nổ để kiểm soát tuyết lở trên núi? Điều đó không bạo lực hoặc gây khó chịu, nhưng nó sẽ chứa rất nhiều đặc điểm giống nhau.

Như nhiều người khác đã chỉ ra, rất khó để định nghĩa tục tĩu. Tòa án Tối cao Hoa Kỳ đã cố gắng trong trường hợp Miller so với California, và kết quả là chúng ta có cái gọi là Thử nghiệm Miller bao gồm ba phần:

  • Cho dù "người bình thường, áp dụng các tiêu chuẩn cộng đồng đương đại", sẽ thấy rằng công việc, nói chung, sẽ thu hút sự quan tâm của người chơi,
  • Cho dù tác phẩm mô tả / mô tả, theo cách xúc phạm một cách rõ ràng, hành vi tình dục được xác định cụ thể theo luật nhà nước hiện hành,
  • Cho dù tác phẩm, nói chung, thiếu giá trị văn học, nghệ thuật, chính trị hoặc khoa học nghiêm trọng

Đẹp và mơ hồ, làm cho mọi thứ hơi khó để lập trình cho. Hầu hết các trang web cho phép bạn tải lên hình ảnh có một số loại kiểm duyệt của con người. Ví dụ: tất cả các hình ảnh được đăng lên các trang web hẹn hò trực tuyến phải tuân theo một bộ quy tắc và phải được phê duyệt thủ công.


1

Như những người khác đã chỉ ra rằng có một số giải pháp công nghệ nhưng chúng chỉ đưa bạn đến nay. Bài viết này từ NY Times thảo luận về cách các trang web lớn (như Facebook) lọc nội dung.

Để trả lời câu hỏi của bạn: "Facebook hoặc Pinterest sử dụng cái gì?"

Mọi người.


0

Đừng quên rằng một khi bạn đã phát sóng rằng bạn lọc ra những bức ảnh "gây khó chịu", bạn sẽ tự mình mở các vụ kiện nếu bạn bỏ lỡ một bức ảnh. Bạn có thể thêm nút cờ vào mỗi trang và sẵn sàng xóa ảnh vi phạm sau khi xem lại.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.