Facebook đầu tư 'khủng' vào AI nhằm phát hiện nội dung cấm

Giám đốc điều hành Facebook Mark Zuckerberg cho biết tập đoàn có hơn 35.000 người làm việc trong lĩnh vực an toàn - bảo mật và mỗi năm Facebook chi hàng tỷ USD cho bộ phận này.
Ảnh minh họa. (Nguồn: medium)

Trong bối cảnh Facebook đang đầu tư “khủng” vào trí tuệ nhân tạo (AI) nhằm tự động phát hiện nội dung cấm, tập đoàn công nghệ này ngày 13/11 khẳng định phần mềm của Facebook đang ngày càng thành thạo hơn trong việc kiểm soát nội dung bị cấm trên mạng xã hội.

Giám đốc điều hành Facebook Mark Zuckerberg cho biết tập đoàn có hơn 35.000 người làm việc trong lĩnh vực an toàn - bảo mật và mỗi năm Facebook chi hàng tỷ USD cho bộ phận này.

Ông Zuckerberg cho rằng những nỗ lực của Facebook đang được đền đáp, khi hệ thống được xây dựng để giải quyết những vấn đề về an toàn và bảo mật đạt được tiến triển tích cực.

[Facebook bị cáo buộc lợi dụng dữ liệu người dùng để thao túng đối thủ]

Hiện phần mềm Facebook tự động phát hiện khoảng 80% nội dung cần xóa. Đây là bước tiến lớn so với cách đây hai năm, thời điểm gần như tất cả nội dung không được xử lý cho đến khi nhận được báo cáo từ người dùng.

Mới đây, Facebook tuyên bố họ đã gỡ hàng triệu bài đăng trong ba tháng qua vì vi phạm chính sách trong việc sử dụng ngôn từ kích động và bóc lột trẻ em.

Trong nhiều năm, Facebook đã phải hứng chịu nhiều chỉ trích về một số nội dung liên quan đến việc gây rối và đôi khi bạo lực tràn lan trên nền tảng, ngay cả khi công ty tiếp tục thắt chặt các chính sách kiểm duyệt nội dung.

Cùng ngày 13/11, Facebook cho biết đã xóa khoảng 5,4 tỷ tài khoản giả mạo trong năm nay. Trong thông báo, Facebook cũng khẳng định đã tăng cường các biện pháp bảo vệ và thường kiểm tra để xóa những tài khoản giả mạo chỉ vài phút sau khi được lập./.

(TTXVN/Vietnam+)

Tin cùng chuyên mục