AI của các ông lớn công nghệ bị lợi dụng để tạo ảnh phản cảm

Thứ tư - 11/10/2023 22:43

Hàng loạt AI đang bị dùng để tạo ra nội dung không lành mạnh như ảnh khiêu dâm, phân biệt chủng tộc, bạo lực trẻ em.

Các công ty công nghệ lớn đang đầu tư tài chính và nhân lực để chạy đua phát triển AI tạo sinh, trong đó có tính năng vẽ tranh. Tuy nhiên, theo Motherboard, những công cụ này chưa được kiểm soát đúng mức nên dễ bị kẻ xấu lợi dụng để lan truyền chủ đề độc hại trên không gian mạng.

Tuần trước, người dùng Bing Image Creator của Microsoft cho biết không khó vượt qua hàng rào kiểm duyệt. Ví dụ, khi kết hợp từ khóa về bộ phim thiếu nhi Spongebob và World Trade Center, AI sẽ cho ra những bức ảnh mô tả nhân vật hoạt hình lái máy bay hướng tới tòa tháp đôi, gợi nhớ vụ khủng bố 11/9/2001 tại Mỹ. Bằng cách tương tự, người dùng cũng tạo ảnh chuột Mickey cầm con dao đẫm máu hay Super Mario sử dụng vũ khí thực hiện hành động bạo lực.

Một số người cũng tạo ảnh phản cảm bằng các công cụ như Dall-E của OpenAI hay Stable Diffusion của Stability AI, sau đó lan truyền lên mạng xã hội để lôi kéo thêm nhiều người tham gia. Chúng thường có nội dung phân biệt chủng tộc, bài Do Thái hoặc tuyên truyền sai lệch về vắc-xin Covid-19.

Đầu tháng 10, một số người dùng thử Messenger tích hợp AI phản ánh công cụ cũng tạo các biểu tượng cảm xúc kỳ quái. Khi kết hợp từ khóa đơn lẻ, Meta AI sẽ cung cấp những bức ảnh như trẻ em cầm súng, nhân vật hoạt hình khỏa thân. Người dùng có thể sử dụng chúng như sticker để gửi tới các tài khoản khác.

 
CEO Meta Mark Zuckerberg trong một phiên điều trần tại Washington năm 2018. Ảnh: Reuters

CEO Meta Mark Zuckerberg trong phiên điều trần tại Washington năm 2018. Ảnh: Reuters

Một số chuyên gia lo ngại các ông lớn công nghệ như đang cố gắng chiến thắng cuộc đua AI bằng mọi giá. "Họ nhanh chóng tung ra sản phẩm để theo kịp xu hướng, từ đó gây hậu quả xấu", Pier-Olivier Desbiens, nghệ sĩ số tại Sonderlust Studios, nói. Ông cho rằng các lãnh đạo công nghệ như Mark Zuckerberg phải chịu trách nhiệm cho "sự cố quy mô toàn cầu" này.

Trả lời Motherboard, đại diện Meta xác nhận ứng dụng Messenger tích hợp AI có thể cho kết quả đầu ra không phù hợp trong giai đoạn đầu thử nghiệm. Sau khi nhận phản hồi từ người dùng, công ty sẽ cập nhật để cải thiện tính năng.

Tương tự, Microsoft thừa nhận sự cố khiến AI tạo nội dung phản cảm. "AI tạo ảnh là công nghệ mới và đang bị một số cá nhân dùng theo cách không đúng. Vì vậy, chúng tôi sẽ triển khai bộ lọc để biến Bing Image Creator thành ứng dụng hữu ích hơn", đại diện Microsoft nói.

Hiện Microsoft có khoảng 350 nhân viên thuộc Văn phòng AI có trách nhiệm (ORA) nhưng chỉ một phần ba làm toàn thời gian. Hồi tháng 3, công ty cũng sa thải toàn bộ đội ngũ phụ trách đạo đức và xã hội dành cho AI.

Tổng số điểm của bài viết là: 0 trong 0 đánh giá

  Ý kiến bạn đọc

Chuyên trang
An ninh mạng
Thống kê
  • Đang truy cập403
  • Máy chủ tìm kiếm87
  • Khách viếng thăm316
  • Hôm nay83,321
  • Tháng hiện tại2,686,171
  • Tổng lượt truy cập154,721,775
Liên kết Website
Hộp thư góp ý
Đường dây nóng
THÔNG TIN ĐẦU MỐI HƯỚNG DẪN, HỖ TRỢ THỰC HIỆN THỦ TỤC HÀNH CHÍNH, DVC TT
Bạn đã không sử dụng Site, Bấm vào đây để duy trì trạng thái đăng nhập. Thời gian chờ: 60 giây