Không chỉ khiến nhiều người hoang mang, hàng loạt chính phủ và tổ chức còn lo ngại rằng, video hay giọng nói giả mạo có thể kích động hay làm trầm trọng thêm các vấn đề đang diễn ra trên toàn thế giới |
Để tạo ra deepfake, các thuật toán đằng sau nó sẽ được cung cấp một lượng lớn dữ liệu đầu vào, như hình ảnh khuôn mặt của một người, các mẫu âm thanh, giọng nói của người đó. Từ dữ liệu này, thuật toán có thể cho ra giọng nói hoặc video giả với độ giống rất cao.
Theo đó, chính trị gia và người nổi tiếng - những cá nhân sở hữu lượng dữ liệu đầu vào về hình ảnh, âm thanh dồi dào, dễ thu thập từ Internet, là các đối tượng thường được deepfake nhắm đến. Song giờ đây, nạn nhân của nó cũng trở nên đa dạng hơn.
Chia sẻ trên trang Huffington Post vào năm ngoái, nữ nhà báo người Ấn Độ Rana Ayyub cho biết, cô từng là nạn nhân của deepfake. Để hủy hoại uy tín của Rana, kẻ xấu ban đầu làm giả hình ảnh tài khoản Twitter của cô và đăng những đoạn tweet như “Tôi ghét Ấn Độ, tôi ghét người Ấn Độ”.
Chưa hết, một video khiêu dâm ghép mặt của Rana còn được chia sẻ hơn 40.000 lần khi đoạn clip này xuất hiện trên một trang fanpage. Nhưng đến 6 tháng sau, cảnh sát vẫn không có động thái gì.
“Tôi đã sụp đổ hoàn toàn. Tôi thậm chí còn không dám để ai thấy mặt. Dù bạn có thể xem mình là một nhà báo hay một người đấu tranh vì nhân quyền cho phụ nữ đi nữa thì trong khoảnh khắc đó, tất cả những gì mà tôi thấy chỉ là sự sỉ nhục mà thôi”, Rana chia sẻ.
Có thể nói, deepfake từ khi xuất hiện đã nhận vô số chỉ trích từ phần lớn phương tiện truyền thông. Không chỉ khiến nhiều người hoang mang, hàng loạt chính phủ và tổ chức còn lo ngại rằng, video hay giọng nói giả mạo có thể kích động hay làm trầm trọng thêm các vấn đề đang diễn ra trên toàn thế giới.
Link bài viết
Trong một báo cáo gần đây, Tổ chức xếp hạng tín nhiệm quốc tế Moody's cho biết, những tiến bộ trong công nghệ AI có thể khiến các chiến dịch tung tin sai sự thật nhắm vào doanh nghiệp trở nên nguy hiểm hơn bao giờ hết, qua đó hạ thấp uy tín, hủy hoại danh tiếng và gây thiệt hại cho việc kinh doanh.
“Bạn cứ thử tưởng tượng xem một video giả mạo quay lại phát ngôn kỳ thị sắc tộc hay khoe khoang về hành vi tham nhũng của một CEO có thể gây ra tác hại như thế nào. Những tiến bộ của AI sẽ giúp bọn xấu dễ dàng tạo ra những nội dung giả mạo như thế, trong khi người xem ngày càng khó để phân biệt thật - giả”, chuyên viên phân tích rủi ro an ninh của Moody’s - Leroy Terrelonge cho biết.
Thế nên, nỗi lo về nội dung sai sự thật, tin giả bị phát tán với mục đích tấn công doanh nghiệp là hoàn toàn có cơ sở. Theo một báo cáo của công ty sản xuất phần mềm bảo mật Symantec vào tháng 7/2019, đã có ít nhất ba vụ lừa đảo thành công nhắm vào các công ty tư nhân bằng giọng nói giả.
Trong cả ba trường hợp, vị “CEO giả” do AI tạo ra nhờ dữ liệu thu thập được từ các cuộc gọi và mạng Internet đã gọi điện cho kế toán để yêu cầu chuyển tiền khẩn cấp. Thiệt hại từ ba vụ lừa đảo này lên đến hàng triệu USD cho mỗi công ty.