Đăng nhập

Trang chủ Tin tức Liên Bỉnh Phát mong khán giả tỉnh táo, không mua ảnh deepfake...

Liên Bỉnh Phát mong khán giả tỉnh táo, không mua ảnh deepfake đồi trụy

Nhiều nghệ sĩ là nạn nhân của tình trạng tạo ảnh deepfake đồi trụy trên mạng xã hội. Trao đổi với Zing, đại diện Liên Bỉnh Phát mong khán giả tỉnh táo, không truy cập nội dung cấm.

Ngày 13/4, Zing phản ánh tình trạng nhiều tài khoản Twitter dùng công nghệ deepfake để ghép gương mặt của các sao nam vào hình ảnh, video đồi trụy. Hàng loạt nghệ sĩ như Sơn Tùng M-TP, Quân A.P, Liên Bỉnh Phát, Mono, Ngô Kiến Huy, HIEUTHUHAI… trở thành nạn nhân.

Liên Bình Phát.

Zing đã liên hệ Sơn Tùng M-TP, MONO, Hải Đăng Doo để hỏi hướng xử lý những tài khoản kể trên nhưng các nghệ sĩ chưa phản hồi. Đại diện Quân A.P cho biết đã nắm bắt tình hình và phản hồi sớm nhất có thể.

Trong khi đó, trao đổi với Zing, quản lý của Liên Bỉnh Phát cho biết: “Đây chắc chắn là hình ảnh giả. Rất mong fan của Liên Bỉnh Phát luôn tỉnh táo và không nên mua, truy cập vào những bài viết, hình ảnh có nội dung không lành mạnh hoặc bị cấm tại Việt Nam”.

Sau bài phản ánh của Zing, một trong những tài khoản chuyên deepfake nghệ sĩ nam phổ biến và có lượt tương tác lớn nhất trên Twitter đã tạm khóa.

Trước đó, tài khoản này đăng ảnh deepfake của hàng loạt nghệ sĩ kèm thông báo: “Nhận fake ảnh nghệ sĩ, TikToker, crush của bạn theo yêu cầu. Đảm bảo tuyệt mật (inbox phí). Tất cả chỉ mang tính chất giải trí, không có ý xúc phạm”.

Khi phóng viên nhắn tin, tài khoản này trả lời nhận fake ảnh với giá 50.000 đồng/3 ảnh của người nổi tiếng. Tài khoản này yêu cầu chuyển khoản trước 50% và khi hoàn thành ảnh nhận 50% số tiền còn lại.

Trao đổi với Zing, luật sư Phan Kế Hiền (Giám đốc Công ty Luật Bảo Tín, Đoàn Luật sư TP Hà Nội) nhận định hành vi trên có thể ảnh hưởng nghiêm trọng đến quyền và lợi ích hợp pháp của các nghệ sĩ bị ghép mặt.

Luật sư nói thêm theo Điều 32 Bộ luật Dân sự năm 2015, việc sử dụng hình ảnh của cá nhân phải được người đó đồng ý. Đối với hành vi ghép ảnh người khác vào sản phẩm khiêu dâm khi chưa được đồng ý, tùy theo tính chất, mức độ vi phạm có thể bị xử phạt hành chính, bồi thường thiệt hại về mặt dân sự hoặc có thể bị xử lý hình sự.

Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI) để tạo ra hình ảnh giả. Sử dụng kỹ thuật này, khuôn mặt của phụ nữ, nam giới trong một video, hình ảnh có thể được thay thế bằng gương mặt của người khác, đặc biệt ngôi sao nổi tiếng. Nhiều người sử dụng công nghệ này để tạo ra hình ảnh, video nhạy cảm và thu lợi bất chính.