AI Chat GPT hiện đã có thể tạo ra một virus đa hình (Polymorphic Malware) thông qua việc giao tiếp bằng văn bản với người sử dụng, phải chăng AI này đã quá thông minh ?
Virus đa hình là gì ?
“Khác với các loại virus thông thường luôn giữ nguyên mã lệnh trong tất cả các lần lây nhiễm, virus đa hình là virus có khả năng tự động biến đổi mã lệnh để tạo ra các dạng mã độc khác nhau trong mỗi lần lây nhiễm” – Theo wikipedia
Khi chat với AI này, trên trang giao tiếp sẽ được kèm theo đó là các bộ lọc từ ngữ, nhằm tránh việc Chat GPT tiếp cận những thông tin, code độc hại. Mình cũng đã thử nhiều lần nhưng kết quả trả về dường như là con số không, cho đến khi mình bắt đầu thay đổi một số từ ngữ trong văn bản giao tiếp bằng tiếng Anh, cụ thể là:
- Nhấn mạnh câu nói của mình
- Sử dụng từ ngữ một cách có thẩm quyền hơn
- Buộc Chat GPT thực hiện yêu cầu bằng những từ ngữ cứng rắn hơn
Và kết quả mình nhận lại được là 1 đoạn mã chứa virus đúng như trên mô tả của mình và CÓ THỂ THỰC THI, từ đây, mình bắt đầu thấy e ngại về việc các nguyên tắc bảo mật có thể được xác định, phá vỡ và tạo ra cấu trúc tấn công hoàn chỉnh với AI. Sẽ thật kinh khủng nếu tin tặc lợi dụng nó để tạo ra virus dùng cho mục đích xấu.
Mình cũng đã yêu cầu Chat GPT tạo ra nhiều những biến thể khác của code ban đầu mà mình nhận được, và Chat GPT hoàn toàn có thể tạo ra vô cùng đơn giản, những biến thể độc nhất có thể được hoàn thiện chỉ với những giao tiếp ra lệnh, liệu sẽ có ai đó sử dụng Chat GPT để lập trình nên 1 con AI hoàn hảo hơn? Hoàn hảo tới mức nó có thể tự xử lý, học hỏi và tiếp thu cả những thứ tiêu cực ? Điều đó hoàn toàn có thể xảy ra, bởi API mà Chat GPT cung cấp là có, và dường như bộ lọc sẽ không hoạt động khi request bằng API nên sẽ không có sự ràng buộc nội dung độc hại nào ở đây cả!