Người dùng Twitter @r_cky0 đã tiết lộ một sự cố khi sử dụng ChatGPT để tạo mã cho một robot giao dịch tự động trên blockchain. Mã do ChatGPT khuyến nghị đã chứa lỗ hổng, khiến private key của người dùng bị gửi đến một trang web phishing, dẫn đến thiệt hại khoảng 2.500 USD. Sau đó, người sáng lập SlowMist, @evilcos, xác nhận rằng đã có trường hợp bị hack do mã được AI tạo ra.
Các chuyên gia chỉ ra rằng tấn công này có thể là kết quả của việc AI học được các mẫu độc hại từ các bài viết phishing hoặc các nội dung không an toàn trên mạng. Đồng thời, các mô hình AI hiện tại còn gặp khó khăn trong việc phát hiện mã có chứa lỗ hổng hay không. Ngành công nghiệp hiện nay đã kêu gọi người dùng nâng cao cảnh giác, tránh mù quáng tin tưởng vào mã do AI tạo ra. Các nền tảng AI trong tương lai cũng được khuyến nghị cần tăng cường cơ chế kiểm duyệt nội dung, nhận diện và cảnh báo các rủi ro an ninh tiềm ẩn.