Bất an vì công nghệ giả dạng Deepfake

 21:29 | Thứ năm, 18/06/2020  0
Khi thế giới trải qua những ngày thảm họa, từ chuỗi động đất ảnh hưởng đến nhiều nước tới cháy rừng tàn phá nước Úc, và nay nạn dịch corona mới gọi là COVID-19 hoành hành ở Trung Quốc đã lan nhanh ra cả thế giới, thì trên không gian mạng một cơn bão công nghệ gọi là deepfake hay giả nhân dạng đang tạo bất an cho mọi người. Con người thật, văn hóa thật đang bị giả mạo bởi đủ thứ công nghệ mà không ai dám chắc rằng mình sẽ không phải là nạn nhân.

Những hình ảnh động trong deepfake được tạo ra bởi phần mềm trí khôn nhân tạo.

Mỗi thành quả nghiên cứu luôn có hai mặt: tốt và xấu. Nhưng chúng ta đang sống trong thời đại mà mọi thứ đều có thể biến thành vũ khi, từ ý tưởng, hình ảnh, thậm chí nhân dạng. Công nghệ đang cung cấp các công cụ để làm điều đó dễ dàng hơn, nhanh hơn, với ít tốn kém và sức lực hơn. Các mối đe dọa cũ như đầu đạn hạt nhân vẫn rất nghiêm trọng, nhưng chúng khó có thể phát triển, mất nhiều thời giờ và tiền bạc. Ngược lại, việc cung cấp hình ảnh hay phần mềm độc hại nhắm vào hàng tỷ người lại trở nên dễ dàng hơn rất nhiều.

Công nghệ DeepFake, DeepNude thật kinh khủng!

Chúng ta đang nói đến công nghệ giả nhân dạng, được gọi là “deepfake” lấy từ “deep learning” và “fake”, là một kỹ thuật tổng hợp hình ảnh dựa trên trí khôn nhân tạo. Nó được sử dụng để chồng các hình ảnh của đối tượng lên hình ảnh hoặc video nguồn bằng cách sử dụng một kỹ thuật máy học gọi tắt là GAN (generative adversarial network).

Sự kết hợp giữa các video hiện có và nguồn dẫn đến một video giả cho thấy một người hoặc những người thực hiện một hành động tại một sự kiện chưa bao giờ thực sự xảy ra. Bạn thử tưởng tượng tổng thống một nước nào đó lên tuyên bố chiến tranh với một quốc gia láng giềng, hay chính bạn xuất hiện trong những video khiêu dâm bằng công nghệ deepfake- Thật kinh khủng!

Chỉ trong vài năm xuất hiện, công nghệ deepfake mà đặc biệt là loại ứng dụng deepnude, đã tạo nên vô vàn câu chuyện tai ác. Lần đầu tiên ứng dụng deepnude được tờ Vice đề cập như một công cụ để lột trần thân thể và hoán đổi quần áo của bất cứ hình ảnh người phụ nữ nào xuất hiện trên mạng, và đây thực sự là cơn ác mộng.

Phần lớn tác phẩm deepfake hiện nay thuộc vào nhóm deepnude.

Bài báo nhanh chóng truyền cảm hứng cho một loạt những phản ứng dữ dội và người tạo ứng dụng này đã tắt nó. Nhưng còn hàng ngàn bản offline và sẽ có bao nhiêu ứng dụng khác? Mutale Nkonde, một thành viên của Viện Nghiên cứu dữ liệu và xã hội nói “ứng dụng deepnude đã chứng minh nỗi sợ hãi tồi tệ nhất của chúng ta về cách thức vũ khí hóa độc đáo chống lại phụ nữ”.

Mặc dầu các tác phẩm deepnude mô tả cơ thể thực tế của phụ nữ, chúng hoàn toàn được tổng hợp bằng thuật toán dựa trên khuôn mặt, nhân dạng, điệu bộ và cả giọng nói của đối tượng mục tiêu, và có thể gây ra những thiệt hại đáng kể về mặt cảm xúc và uy tín cho đối tượng.

Trong nhiều trường hợp nó được sử dụng như một cách trả thù khiêu dâm hoặc như một công cụ mạnh mẽ bịt miệng phụ nữ. Điều này đã xảy ra: một nữ nhà báo Ấn Độ đã được ghép vào một video khiêu dâm khi cô bắt đầu phát hiện ra vụ tham nhũng. Nó ngay lập tức lan truyền khiến cô bị đe dọa, quấy rối và cưỡng hiếp. Cuối cùng, cô đã phải đóng trang mạng trong nhiều tháng.

Nhắm đến mục tiêu hay chỉ để kiếm tiền quảng cáo

Trong những phóng sự vào giữa năm 2019, Associated Press cho biết một tài khoản LinkedIn có tên là Katie Jones được dùng để kết nối với các thành viên nổi tiếng trong giới chính trị tại Washington D.C. Nhưng người ta nhận ra nhân dạng mang tên Jones đó là giả, do máy tính tạo ra từ những hình ảnh của một con người thật, và nay thì người ta biết rằng công nghệ deepfake đã sinh ra một nhân vật gián điệp tầm cỡ.

May mắn ở đây là máy tính có thể ghép và tạo khuôn mặt hoạt động, nhưng nó không được học để giả mạo cặp bông tai của nữ nhân vật thật. AP cho biết một số người đã sẵn lòng trao đổi với nhân vật giả này vì không phân biệt được với Jones thật, nhưng một số khác hoài nghi và rồi phát hiện.

FakeApp là một ứng dụng mạnh, ở đây diễn viên Sophie Turner của Game of Thrones trở thành mục tiêu.

Tháng 10.2019, công ty an ninh mạng DeepTrace công bố bản báo cáo The State of Deepfakes theo sau cuộc điều tra 14.678 video deepfake mà họ tìm được trên mạng, và nhận ra có đến 96% trong đó là những tác phẩm khiêu dâm, chủ yếu được thực hiện bằng hoán đổi khuôn mặt của những diễn viên hay người nổi tiếng vào thân hình và hành động của các tài tử khiêu dâm. Các tác giả của bản báo cáo phát hiện ra rằng deepfake khiêu dâm đang tạo ra một môi trường quảng cáo mới, ăn khách, và nhiều người tạo ra loại tác phẩm độc hại bất chấp uy tín và nhân phẩm của người khác chỉ với mục đích được trả tiền quảng cáo.

Sự phối hợp giữa giải trí và kiếm tiền làm cho thứ công nghệ tai ác này lan nhanh, tạo thành một trận dịch. Vào tháng 11.2017, một tài khoản Reddit có tên DeepFakes đã đăng tải các đoạn phim khiêu dâm được làm bằng phần mềm dán khuôn mặt của các nữ diễn viên Hollywood vào thân hình những người biểu diễn thực sự.

Gần hai năm sau, deepfake là một danh từ chung cho video được chế tác hoặc chế tạo bằng phần mềm trí khôn nhân tạo. Kỹ thuật này đã thu hút tiếng cười trên YouTube, cùng với sự lo lắng từ các nhà lập pháp và các chính trị gia. Và hơn hết, là cơn ác mộng và sự bất hạnh của nhiều phụ nữ bởi họ có thể trở thành nạn nhân vào bất cứ lúc nào.

Trận đại dịch công nghệ từ Trung Quốc

Cũng như đại dịch SARS năm 2003 và COVID-19 hiện nay, đại dịch công nghệ deepfake cũng bùng phát từ Trung Quốc. Từ Đại học Nam California, Giáo sư Hao Li, người đi tiên phong trong công nghệ deepfake nói nhân cuộc hội thảo công nghệ tại MIT trong tháng 9.2019, rằng trước đây ông nghĩ phải mất từ hai đến ba năm công nghệ deepfake mới hoàn hảo, nhưng nay thời gian rút lại còn sáu tháng, và bất cứ ai cũng có thể sử dụng công nghệ đó.

Theo ông, đó là nhờ vào việc phổ biến Zao, một ứng dụng hoán đổi khuôn mặt cho phép người dùng chụp một bức ảnh duy nhất và đưa mình vào các chương trình truyền hình và phim nổi tiếng. Zao trở thành một ứng dụng phổ biến nhất tại Trung Quốc, bất chấp những lo ngại về quyền riêng tư.

Việc sử dụng rộng rãi trí khôn nhân tạo để tạo ra các video khiêu dâm nổi tiếng cho người dùng Internet Trung Quốc đã đặt ra những câu hỏi mới về sử dụng và lạm dụng công nghệ. Bất chấp sự kiểm soát Internet nghiêm ngặt, một cuộc điều tra gần đây của tờ Beijing News cho thấy nhiều nền tảng đã bán công nghệ hoán đổi khuôn mặt ra công chúng để gắn hình ảnh vào ngôi sao khiêu dâm, với giá chưa tới 1 đô la. Nơi một diễn đàn xuất hiện trên Baidu Tieba, người ta đề nghị bán phim khiêu dâm đổi mặt với giá 4 nhân dân tệ nghĩa là chưa tới 60 xu Mỹ mỗi video, trong khi một gói 700 video loại này có giá chỉ 158 nhân dân tệ.

Việc sử dụng công nghệ hoán đổi khuôn mặt để tạo ra các video với mục đích làm mất uy tín hoặc làm xấu hổ các nhân vật công chúng có địa vị cao đã khiến mối quan tâm ngày càng tăng ở Hoa Kỳ, và báo cáo đã gây ra một cuộc tranh luận mới về đạo đức sử dụng nó theo cách này ở Trung Quốc. Trong những nạn nhân của công nghệ này có thể kể đến Michelle Obama, Nancy Pelosi, và cả Mark Zuckerberg.

Tìm kiếm nhanh trên mạng Internet Trung Quốc người ta có thể thấy tràn lan những hướng dẫn mô tả cách hoán đổi khuôn mặt bằng những phần mềm mạnh như FakeApp. Zhang Baichuan, một chuyên gia về an ninh mạng nói với Beijing News rằng phần mềm hoán đổi khuôn mặt chuyên dụng đã giúp những người bình thường dễ dàng thực hiện các tác phẩm deepfake – tất cả những gì họ phải làm là tải ảnh lên ứng dụng.

Hoàng Quân

Nguồn Doanh Nhân Plus
bài viết liên quan
Loading...
để lại bình luận của bạn
có thể bạn quan tâm

Đọc tin nhanh

*Chỉ được phép sử dụng thông tin từ website này khi có chấp thuận bằng văn bản của Người Đô Thị.