Các nhóm tin tặc và truyền giáo đang lợi dụng trí tuệ nhân tạo (AI) để tạo ra những phần mềm độc hại, soạn thảo nội dung thư điện tử lừa đảo tinh vi và lan truyền thông tin giả mạo trên không gian trực tuyến.
Đây là cảnh báo mới được một chuyên gia về an ninh mạng của Canada đưa ra và là những bằng chứng đầu tiên cho thấy các nhóm tội phạm mạng cũng không bỏ lỡ cuộc cách mạng công nghệ đang lan rộng ở thung lũng Silicon.
Trong cuộc trả lời phỏng vấn diễn ra trong tuần, Giám đốc Trung tâm An ninh Mạng Canada Sami Khoury cho biết cơ quan này đã phát hiện những vụ việc có vai trò của AI trong các thư điện tử lừa đảo, trong các tài liệu độc hại và trong các thông tin sai lệch.
Dù không cung cấp thông tin chi tiết hay bằng chứng nhưng ông Khoury nhận định việc các nhóm tội phạm mạng đã sử dụng AI càng làm tăng thêm những quan ngại chồng chất về việc sử dụng công nghệ mới nổi này.
Trong vài tháng gần đây, một số tổ chức giám sát an ninh mạng đã công bố các báo cáo, trong đó cảnh báo về những rủi ro giả định từ các ứng dụng AI - đặc biệt là các chương trình xử lý ngôn ngữ đang được cải tiến nhanh chóng, hay còn gọi là các mô hình ngôn ngữ lớn (LLMs), với khả năng tập hợp một lượng lớn dữ liệu văn bản đầu vào để tạo ra những câu thoại, tài liệu ngôn ngữ rất thuyết phục.
Hồi tháng 3, Cơ quan Cảnh sát Liên minh châu Âu (Europol) công bố báo cáo cho thấy các mô hình như ChatGPT của OpenAI có thể được dùng để giả mạo một cá nhân hay tổ chức một cách sát thực dù chỉ cần được cung cấp một lượng cơ bản vốn tiếng Anh.
Cùng tháng này, Trung tâm an ninh mạng quốc gia Anh cho biết có nguy cơ các nhóm tội phạm sử dụng LLMs trợ giúp thực hiện các cuộc tấn công mạng vượt ngoài khả năng vốn có của các nhóm này.
[Meta cảnh báo tin tặc lợi dụng "cơn sốt" AI để gia tăng tấn công mạng]
Giới nghiên cứu an ninh mạng đã chỉ ra nhiều tình huống mà AI có thể bị lợi dụng và đến nay, một số nhà nghiên cứu cho biết đã nhận thấy có những nội dung do AI tạo ra được lan truyền trên mạng.
Tuần trước, một cựu tin tặc cho biết đã phát hiện một LLM có thể được đào tạo để sản xuất ra dữ liệu độc hại và yêu cầu mô hình này soạn thảo một văn bản có tính thuyết phục để lừa một người chuyển tiền.
Ông Khoury cho rằng dù tình trạng lợi dụng AI để tạo ra mã độc hiện vẫn ở những giai đoạn sơ khai và cần có thêm thời gian để trở nên tinh vi hơn, nhưng mối lo ngại đặt ra là những mô hình AI này đang nở rộ nhanh chóng và khó để kiểm soát hết nguy cơ các mô hình được sử dụng với mục đích xấu và ngăn chặn việc lan truyền những thông tin xấu độc do AI sản xuất từ trước khi chúng được phát tán lên mạng./.