Bị 'lột trần' khi biến ảnh selfie thành tranh vẽ

Hoạt động dựa trên dữ liệu hình ảnh từ Internet, ứng dụng gây sốt Lensa có xu hướng tình dục hóa ảnh selfie của người dùng nữ.

Các ứng dụng AI biến ảnh kỹ thuật số thành tranh vẽ đã có từ năm 2018, nhưng gần đây, một ứng dụng có tên Lensa lại thu hút sự chú ý khi tập trung vào tính năng chuyển đổi ảnh selfie hoặc ảnh chân dung của người dùng.

Ứng dụng Lensa thường xuyên tạo hình "thiếu vải" cho người dùng là phụ nữ, trong khi người dùng nam giới không gặp tình trạng tương tự. Ảnh: Technology Review.

"Khi dùng thử tính năng, tôi đã hy vọng nhận được kết quả tương tự như một số đồng nghiệp, chẳng hạn như tranh vẽ phi hành gia, chiến binh hay DJ nhạc điện tử. Thay vào đó tôi nhận về rất nhiều ảnh khỏa thân", Melissa Heikkilä, cây viết của MIT Technology Review, cho biết.

Heikkilä là người gốc Á và cho biết trong số 100 hình mà Lensa tạo ra cho mình, có 16 hình để ngực trần và 14 hình khác mặc những bộ quần áo thiếu vải và tạo những tư thế gợi dục.

"Hình ảnh tôi nhận về là khuôn mặt phụ nữ châu Á chung chung theo kiểu được mô phỏng từ các nhân vật hoạt hình hoặc trò chơi điện tử", Heikkilä cho biết. Một đồng nghiệp gốc Trung của Heikkilä cũng nhận về kết quả tương tự, hàng loạt hình đại diện thiếu vải hoặc phản cảm.

Trong khi các đồng nghiệp là người da trắng của nữ blogger, thực hiện thử nghiệm tương tự, thì kết quả trả về ít hình ảnh phản cảm hơn, chỉ một vài tấm và mức độ cũng không nghiêm trọng bằng. Nam giới thì thường xuyên được Lensa đặt trong các bộ đồ phi hành gia hoặc quần áo thể hiện nghề nghiệp chuyên môn.

Không có gì ngạc nhiên khi hình ảnh của phụ nữ và người châu Á bị các hệ thống AI cường điệu hóa quá mức, theo Aylin Caliskan, nhà nghiên cứu các hệ thống AI tại Đại học Washington.

Nền tảng của Lensa là Stable Diffusion, mô hình máy học nguồn mở tạo ra hình ảnh từ văn bản. Stable Diffusion được xây dựng bằng LAION-5B, bộ dữ liệu nguồn mở gồm vô số hình ảnh trên Internet.

Bởi vì Internet tràn ngập hình ảnh phụ nữ khỏa thân hoặc mặc thiếu vải, hay những bức ảnh phản ánh định kiến phân biệt giới tính, phân biệt chủng tộc, bộ dữ liệu cũng sẽ mang những thiên kiến như vậy.

"Nguồn dữ liệu này dẫn đến các mô hình AI tạo hình ảnh có xu hướng tình dục hóa phụ nữ bất kể họ có muốn được mô tả theo cách đó hay không", Caliskan nói.

Phân tích hệ thống làm nhiệm vụ khớp hình ảnh với mô tả văn bản trong Stable Diffusion, Caliskan cho biết hệ thống này thường xuyên "khớp nối" dựa trên những thành kiến ​​về giới tính và chủng tộc.

Cụ thể, phụ nữ thường được gắn với các nội dung tình dục, trong khi nam giới có liên quan đến nội dung chuyên nghiệp, liên quan đến nghề nghiệp trong các lĩnh vực y học, khoa học, kinh doanh.

Khi cố tình cho ảnh selfie và chân dung đi qua bộ lọc nội dung nam giới của Lensa, Heikkilä nhận về các tranh vẽ mặc đầy đủ quần áo và ở các tư thế bình thường, có hình ảnh mặc áo blouse có vẻ như của bác sĩ.

Người phát ngôn của Prisma Labs, công ty phát triển Lensa, nói rằng việc ứng dụng tình dục hóa các bức ảnh xảy ra với mọi người thuộc mọi giới tính, nhưng theo những cách khác nhau.

Công ty nói rằng nguyên nhân nằm ở việc Stable Diffusion được đào tạo dựa trên dữ liệu từ Internet và cả họ và Stability.AI, công ty phát triển Stable Diffusion, đều không thể tự tạo ra các xu hướng hoặc thiên kiến thể hiện trong hình ảnh.

"Dữ liệu trực tuyến, do con người tạo ra, đã đưa vào mô hình này những thành kiến ​​hiện có của loài người", người phát ngôn Prisma Labs cho biết.