Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng trở nên phổ biến, những khả năng thú vị mà các trợ lý AI mang lại đi kèm với không ít rủi ro tiềm ẩn. Một ví dụ điển hình là lỗ hổng lý thuyết cho phép ChatGPT thực hiện tấn công DDoS (từ chối dịch vụ phân tán) vào một trang web được chọn, dù đây chưa phải là mối đe dọa “thực sự” ở thời điểm hiện tại nhưng vẫn cực kỳ đáng lưu tâm.
Phát Hiện Lỗ Hổng: ChatGPT Có Thể Tạo Hàng Ngàn Kết Nối Hyperlink Trong Một Yêu Cầu
Theo báo cáo từ Silicon Angle, nhà nghiên cứu Benjamin Flesch đã phát hiện ra rằng ChatGPT không hề có giới hạn về số lượng liên kết mà nó truy cập khi tạo phản hồi. Không chỉ vậy, dịch vụ này còn không kiểm tra xem các URL được truy cập có phải là bản sao của những trang web đã được kiểm tra trước đó hay không. Kết quả là một cuộc tấn công DDoS AI lý thuyết, trong đó kẻ xấu có thể buộc ChatGPT kết nối với cùng một trang web hàng nghìn lần chỉ trong một truy vấn duy nhất.
Lỗ hổng này có thể bị khai thác để làm quá tải bất kỳ trang web nào mà người dùng độc hại muốn nhắm mục tiêu. Bằng cách chèn hàng nghìn siêu liên kết vào một yêu cầu duy nhất, kẻ tấn công có thể khiến máy chủ OpenAI tạo ra một lượng lớn yêu cầu HTTP đến trang web nạn nhân. Các kết nối đồng thời này có thể gây căng thẳng hoặc thậm chí vô hiệu hóa cơ sở hạ tầng của trang web mục tiêu, thực hiện một cuộc tấn công từ chối dịch vụ hiệu quả.
Hình ảnh minh họa các chatbot AI trên điện thoại, liên quan đến lỗ hổng bảo mật ChatGPT
Benjamin Flesch tin rằng lỗi này phát sinh do “thực hành lập trình kém” và nếu OpenAI thêm một số hạn chế về cách ChatGPT thu thập dữ liệu trên internet, nó sẽ không có khả năng thực hiện một cuộc tấn công DDoS “ngẫu nhiên” vào các máy chủ.
Rủi Ro Tài Chính và Các Mối Đe Dọa Khác Từ AI
Elad Schulman, người sáng lập và CEO của công ty bảo mật AI tạo sinh Lasso Security Inc., đồng ý với kết luận của Benjamin Flesch và bổ sung thêm một khía cạnh khai thác tiềm năng khác cho các cuộc tấn công này. Elad tin rằng nếu một hacker quản lý để xâm nhập tài khoản OpenAI của ai đó, họ có thể “dễ dàng tiêu hết ngân sách hàng tháng của một chatbot dựa trên mô hình ngôn ngữ lớn chỉ trong một ngày”, điều này sẽ gây ra thiệt hại tài chính nếu không có các hàng rào bảo vệ chống lại những hành vi như vậy.
Trong tương lai, hy vọng rằng khi AI tiếp tục phát triển, các công ty sẽ bổ sung thêm các hạn chế để ngăn chặn kẻ xấu lạm dụng dịch vụ của họ. Thực tế đã có rất nhiều cách mà tin tặc sử dụng AI tạo sinh trong các cuộc tấn công của mình, và cũng có sự gia tăng đáng kể các cuộc gọi lừa đảo video AI khi công nghệ này ngày càng cải thiện về chất lượng.
ChatGPT, với những ưu điểm vượt trội, vẫn cần được giám sát và bảo vệ chặt chẽ để tránh trở thành công cụ cho các cuộc tấn công mạng. Hãy luôn cập nhật thông tin về các mối đe dọa bảo mật AI và chia sẻ kiến thức này để cùng xây dựng một môi trường số an toàn hơn.