Mục lục
Trong kỷ nguyên AI phát triển mạnh mẽ, việc một công nghệ mới bị lạm dụng cho những mục đích không chính đáng không còn là điều xa lạ. ChatGPT của OpenAI cũng không ngoại lệ khi bị một nhóm người dùng tại Trung Quốc khai thác để phát triển công cụ giám sát mạng xã hội, vi phạm chính sách của OpenAI và cả các quy định về quyền riêng tư.
Gần đây, OpenAI đã công bố một báo cáo nêu chi tiết các trường hợp lạm dụng ChatGPT, trong đó đáng chú ý là nỗ lực của một nhóm người dùng Trung Quốc nhằm phát triển phần mềm theo dõi hoạt động trên mạng xã hội. Nhóm này đã sử dụng ChatGPT để tư vấn về chiến lược kinh doanh và kiểm tra mã nguồn cho công cụ giám sát của họ.
Lạm dụng ChatGPT để phát triển công cụ Giám sát
Theo OpenAI, một số tài khoản tại Trung Quốc đã tận dụng khả năng “lý luận” của ChatGPT để xây dựng một công cụ theo dõi nội dung trên mạng xã hội. Những tài khoản này đã sử dụng AI để tạo ra bản mô tả chi tiết và bài thuyết trình bán hàng cho phần mềm giám sát.
Công cụ này không sử dụng mô hình AI của OpenAI mà được tích hợp với các mô hình khác, như Llama của Meta, để thu thập và phân tích dữ liệu về các cuộc biểu tình ở phương Tây. Kết quả thu được sau đó được gửi về cho các cơ quan an ninh Trung Quốc. Hơn nữa, nhóm này còn sử dụng ChatGPT để sửa lỗi mã nguồn, giúp phần mềm hoạt động hiệu quả hơn.
Tuy nhiên, chính sách của OpenAI nghiêm cấm việc sử dụng AI cho các hoạt động giám sát trái phép, đặc biệt là phục vụ các chính phủ độc tài hoặc tổ chức vi phạm quyền riêng tư. Khi phát hiện hành vi này, OpenAI đã ngay lập tức cấm vĩnh viễn các tài khoản liên quan.
Che giấu Dấu vết và các Hành vi Lạm dụng khác
Để tránh bị phát hiện, nhóm người dùng Trung Quốc đã sử dụng VPN, AnyDesk, VoIP và nhiều công cụ truy cập từ xa khác để giả mạo vị trí làm việc tại Mỹ. Tuy nhiên, OpenAI nhận thấy mô hình hoạt động của nhóm này trùng khớp với giờ làm việc tại Trung Quốc. Hơn nữa, họ cũng thường xuyên yêu cầu ChatGPT trả lời bằng tiếng Trung Quốc, khiến OpenAI có đủ bằng chứng để xác định nguồn gốc của các tài khoản này.
Ngoài công cụ giám sát mạng xã hội, một số người dùng Trung Quốc còn sử dụng ChatGPT để tạo báo cáo đánh giá hiệu quả của các chiến dịch lừa đảo qua email (phishing) vào cuối năm. OpenAI cũng đã xử lý một tài khoản sử dụng mô hình ngôn ngữ lớn (LLM) để thực hiện chiến dịch thông tin sai lệch nhắm vào Cai Xia, một nhà bất đồng chính kiến Trung Quốc hiện đang sống tại Mỹ.
Theo Ben Nimmo, chuyên gia điều tra mối đe dọa của OpenAI, đây là lần đầu tiên công ty phát hiện trường hợp lạm dụng ChatGPT để tạo ra công cụ giám sát AI. Tuy nhiên, OpenAI khẳng định rằng phần lớn người dùng sử dụng AI một cách hợp pháp, và các hoạt động tội phạm vẫn chỉ là thiểu số.
Sự việc này cho thấy mối lo ngại về việc AI bị lạm dụng vẫn đang tiếp diễn, đặc biệt là trong lĩnh vực giám sát và kiểm soát thông tin. OpenAI cam kết sẽ tiếp tục giám sát chặt chẽ và hành động mạnh mẽ để đảm bảo công nghệ AI phát triển theo hướng có lợi cho tất cả mọi người, thay vì bị khai thác cho các mục đích xấu.