Cũng giống như Microsoft và Google, Facebook đang tích cực phân loại các hình ảnh mang tính bạo lực trẻ em để kịp thời giúp các cơ quan chức năng vào cuộc xử lý.
Facebook sẽ quét bức ảnh khi bạn tải lên Facebook hoặc Instagram, bằng cách sử dụng một công cụ được phát minh bởi Microsoft mà cả Microsoft và Google đang sử dụng, một phát ngôn viên của Facebook khẳng định với Business Insider.
Phát ngôn viên nói: "Không có chỗ cho nội dung bạo lực trên Facebook. Chúng tôi sử dụng công nghệ PhotoDNA để kiểm tra xem mỗi hình ảnh được tải lên trang web có phải là một hình ảnh lạm dụng trẻ em hay không. Nếu bức ảnh có nội dung như vậy được tìm thấy trên Facebook, chúng tôi sẽ vô hiệu hóa tài khoản và ghi chú lại để NCMEC điều tra".
Facebook sẽ giúp phát hiện các vụ bạo lực trẻ em.
Mặc dù chưa có bất kỳ một vụ bắt giữ trẻ em nào đến từ Facebook, nhưng điều này hoàn toàn có thể xảy ra. Như Facebook đã báo cáo trước đây, nếu một nhà cung cấp dịch vụ trực tuyến phát hiện ra tài liệu này trên dịch vụ của họ, họ có trách nhiệm phải báo cáo với Trung tâm quốc gia về trẻ em mất tích và bị bóc lột (NCMEC).
Cùng với sự vào cuộc của NCMEC.
Công nghệ được phát minh bởi Microsoft cho phép phân loại các hình ảnh bằng cách tìm kiếm những gì được gọi là hashtag, dấu vân tay kỹ thuật số đặc biệt mà có thể chỉ ra hình ảnh đã được dán nhãn bất hợp pháp.
Nếu bạn chia sẻ một hình ảnh ngây thơ dễ thương, như em bé khỏa thân đang vui đùa, bắn nước tung tóe xung quanh bồn tắm thì nó sẽ không có vấn đề gì, nó cũng sẽ không có một hashtag vi phạm và bạn sẽ không bị báo cáo cho cơ quan chức năng.
Các điều khoản của Facebook không giải thích rõ cách nó quét hình ảnh, nhưng có lời cảnh báo với mọi người rằng: "Bạn không được đăng tải nội dung là lời nói căm thù, đe dọa, hoặc khiêu dâm, kích động bạo lực, hoặc chứa ảnh khoả thân".
No comments:
Post a Comment