OpenAI ngăn AI phát tán tin giả

Công ty OpenAI sở hữu ứng dụng ChatGPT mới đây thông báo đã ngăn chặn một số hành vi tìm cách sử dụng các mô hình trí tuệ nhân tạo (AI) của công ty này để thực hiện "hoạt động lừa gạt" trên không gian mạng.

Theo AP, trong 3 tháng qua, các mô hình AI của OpenAI đã bị lạm dụng để tạo các bình luận ngắn, các bài báo bằng nhiều ngôn ngữ khác nhau cũng như tạo tên và tiểu sử giả cho các tài khoản truyền thông xã hội. Các chiến dịch này nhắm vào một số vấn đề địa-chính trị, trong đó có các cuộc xung đột tại Ukraine và Dải Gaza, bầu cử Ấn Độ, các vấn đề chính trị ở châu Âu và Mỹ. OpenAI cho rằng các chiến dịch này "tìm cách thao túng dư luận hoặc gây ảnh hưởng các kết quả chính trị". Theo OpenAI, các chiến dịch phát tán tin sai, tin giả này không thu hút được sự tương tác của khán giả cũng như không mở rộng được phạm vi tiếp cận.

OpenAI công bố đã thành lập Ủy ban An toàn và bảo mật AI nhằm giám sát các vấn đề an toàn của AI, trong bối cảnh công ty bắt đầu đào tạo một mô hình AI mới sau thành công của GPT-4, công nghệ cốt lõi của ChatGPT.