Giả sử các tạo tác và các yếu tố không tự nhiên không tồn tại trên phương tiện truyền thông đang được đề cập và phương tiện truyền thông không thể phân biệt được với mắt người, cách duy nhất để có thể làm điều này là truy ngược lại nguồn gốc của hình ảnh.
Một sự tương tự có thể được rút ra từ cuộc tấn công DoS (Từ chối dịch vụ), trong đó một số lượng yêu cầu vô lý được gửi từ một IP đến một máy chủ duy nhất khiến nó bị sập - Một giải pháp phổ biến là honeypot, trong đó số lượng yêu cầu cao từ một IP được chuyển hướng đến một máy chủ giải mã trong đó, ngay cả khi nó gặp sự cố, thời gian hoạt động không bị xâm phạm. Một số nghiên cứu đã được thực hiện trên những dòng này , trong đó bài báo này nói về việc xác minh chữ ký số của hình ảnh hoặc cái này trong đó họ đề xuất phát hiện hình ảnh giả mạo và nhận dạng máy ảnh nguồn.
Sau khi được truy trở lại một nguồn, nếu một số lượng vô lý các hình ảnh có khả năng giả mạo đến từ một nguồn số ít, thì nó sẽ bị nghi ngờ.
Nỗi sợ chung xuất hiện khi chúng ta đang xử lý một vấn đề nào đó, trên cơ sở tương tự, như một cuộc tấn công DDoS (Phân phối từ chối dịch vụ) trong đó mỗi yêu cầu giả mạo đến từ một nguồn phân tán - An ninh mạng đã tìm ra cách để giải quyết vấn đề này, nhưng bảo mật và phát hiện gian lận trong điều khoản của AI không được thiết lập.
Về cơ bản, đối với một phương tiện nhân tạo được cân nhắc kỹ lưỡng cho một mục đích độc hại cụ thể, ngày nay, khá khó để bị bắt - Nhưng công việc hiện đang được thực hiện về bảo mật trong AI. Nếu bạn đang dự định sử dụng phương tiện nhân tạo cho mục đích độc hại, tôi có thể nói bây giờ là thời điểm tốt nhất có lẽ.
Bảo mật này đã là một mối quan tâm từ một chút bây giờ. Một bài báo được viết bởi một nhà khoa học dữ liệu trích dẫn
Deepfakes đã được sử dụng để cố gắng quấy rối và làm nhục phụ nữ thông qua các video khiêu dâm giả mạo. Thuật ngữ này thực sự xuất phát từ tên người dùng của một người dùng Reddit, người đã tạo ra các video này bằng cách xây dựng các mạng đối nghịch chung (GAN) bằng cách sử dụng TensorFlow. Giờ đây, các quan chức tình báo đang nói về khả năng Vladimir Putin sử dụng các video giả để gây ảnh hưởng đến cuộc bầu cử tổng thống năm 2020. Nhiều nghiên cứu đang được thực hiện trên các hố sâu như một mối đe dọa đối với dân chủ và an ninh quốc gia, cũng như làm thế nào để phát hiện ra chúng.
Lưu ý - Tôi khá mù mờ về bảo mật mạng, tất cả kiến thức của tôi đều xuất phát từ một cuộc trò chuyện với một người bạn và nghĩ rằng đây sẽ là một sự tương tự tốt để sử dụng ở đây. Tha thứ cho bất kỳ lỗi nào trong tương tự và xin vui lòng sửa nếu có thể!