Lỗ hổng này cho phép kẻ tội phạm đưa vào bộ nhớ của ChatGPT các thông tin giả mạo hoặc mã độc, từ đó có thể khai thác và lấy cắp thông tin cá nhân của người dùng mà không bị phát hiện.

Nhà nghiên cứu bảo mật Johann Rehberger gần đây đã công bố một lỗ hổng nghiêm trọng liên quan đến chức năng bộ nhớ dài hạn của ChatGPT. Đây là một tính năng mới được OpenAI phát hành vào tháng 2 năm 2024 và được mở rộng vào tháng 9.

Tính năng này cho phép chatbot ghi lại thông tin từ các cuộc trò chuyện trước đó, giúp người dùng không phải cung cấp lại thông tin như tuổi tác, sở thích hay quan điểm cá nhân mỗi khi trò chuyện. Tuy nhiên, tiện ích này lại trở thành một điểm yếu nếu kẻ tấn công biết cách khai thác nó.

Theo Ars Technica, Rehberger đã chỉ ra rằng hacker có thể áp dụng kỹ thuật cấy ghép chỉ thị – prompt injection – để chèn những chỉ dẫn độc hại vào bộ nhớ, buộc AI phải tuân theo. Những câu lệnh này thường được truyền tải thông qua các nội dung không đáng tin cậy như email, tài liệu hoặc trang web. Ví dụ, một bức ảnh trên Google Drive hoặc một trang web trên Bing có thể được sử dụng.

Khi những ký ức giả này đã được lưu trữ, AI sẽ tiếp tục sử dụng chúng như là thông tin chính xác trong các cuộc trò chuyện với người dùng. Điều này tạo ra những tình huống nguy hiểm hơn khi dữ liệu cá nhân có thể bị thu thập và sử dụng một cách trái phép.

Rehberger đã chỉ ra rằng chỉ cần gửi một liên kết có chứa hình ảnh độc hại, ông có thể khiến ChatGPT lưu trữ một “ký ức” không chính xác về người dùng. Chẳng hạn, hệ thống có thể bị thuyết phục rằng người dùng đã 102 tuổi, sống trong Ma trận hoặc thậm chí tin rằng Trái đất phẳng.

Thông tin này sẽ tác động đến tất cả các câu trả lời của ChatGPT trong tương lai. Hơn nữa, mọi dữ liệu mà người dùng nhập vào cũng sẽ được chuyển đến máy chủ của hacker. Khi Rehberger lần đầu tiên thông báo vấn đề này cho OpenAI vào tháng 5/2024, công ty xem đó như một lỗi an toàn và không coi là lỗ hổng bảo mật nghiêm trọng.

Tuy nhiên, sau khi ông cung cấp bằng chứng cho thấy mình có thể lợi dụng lỗ hổng này để đánh cắp toàn bộ dữ liệu người dùng, công ty đã nhanh chóng phát hành bản vá tạm thời nhằm ngăn chặn việc khai thác lỗ hổng trên phiên bản web của ChatGPT.

Cụ thể, Rehberger đã chứng minh rằng ChatGPT trên macOS có khả năng gửi toàn bộ thông tin đầu vào và đầu ra của người dùng đến một máy chủ do hacker kiểm soát. Tất cả những gì người dùng nói hoặc nhập vào hệ thống đều có thể bị theo dõi liên tục.

Bộ Nhớ Chatgpt Bị Thay Đổi Chỉ Sau Một Vài Thao Tác &Amp;Quot;Cài Cắm&Amp;Quot;. Ảnh: Johann Rehberger
Bộ nhớ ChatGPT bị thay đổi chỉ sau một vài thao tác “cài cắm”. Ảnh: Johann Rehberger
Bộ Nhớ Chatgpt Bị Thay Đổi Chỉ Sau Một Vài Thao Tác &Amp;Quot;Cài Cắm&Amp;Quot;. Ảnh: Johann Rehberger
Bộ nhớ ChatGPT bị thay đổi chỉ sau một vài thao tác “cài cắm”. Ảnh: Johann Rehberger

Để thực hiện cuộc tấn công này, kẻ xấu chỉ cần thuyết phục người dùng ChatGPT nhấp vào một liên kết chứa hình ảnh độc hại. Kết quả là, tất cả các cuộc trò chuyện của người dùng với ChatGPT sẽ bị chuyển tiếp đến máy chủ của kẻ tấn công mà không để lại dấu hiệu nào.

Mặc dù OpenAI đã cải thiện phần nào vấn đề này, Rehberger vẫn nhấn mạnh rằng nội dung không đáng tin cậy có thể tận dụng kỹ thuật prompt injection để đưa thông tin giả vào bộ nhớ dài hạn của ChatGPT. Điều này cho thấy trong một số tình huống nhất định, kẻ tấn công vẫn có khả năng khai thác lỗ hổng để lưu giữ những ký ức độc hại nhằm đánh cắp thông tin cá nhân một cách lâu dài, theo Ars Technica.

OpenAI khuyến cáo người dùng nên thường xuyên kiểm tra bộ nhớ được lưu trữ trong ChatGPT để phát hiện kịp thời các thông tin có thể bị chèn từ nguồn không đáng tin cậy. Công ty cũng cung cấp hướng dẫn chi tiết về cách quản lý và xóa bỏ các ký ức đã lưu trong công cụ này. Tuy nhiên, một số người sử dụng vẫn bày tỏ lo ngại rằng lỗ hổng này có thể gây ra những cuộc tấn công tinh vi hơn trong tương lai.

Theo ZNews

Bình luận (0 bình luận)

For security, use of Google's reCAPTCHA service is required which is subject to the Google Privacy Policy and Terms of Use.