Một số chiến thuật để nhận ra phương tiện truyền thông nhân tạo là gì?


12

Với khả năng ngày càng tăng để tạo ra hình ảnh giả mạo, âm thanh giả và video giả mạo ngày càng trở thành một vấn đề ngày càng tăng với việc nhận ra đâu là thật và đâu là không. Ngay cả bây giờ chúng ta cũng thấy một số ví dụ về các ứng dụng tạo phương tiện giả mạo với chi phí thấp (xem Deepfake , FaceApp , v.v.).

Rõ ràng, nếu các ứng dụng này được sử dụng sai cách, chúng có thể được sử dụng để làm mờ hình ảnh của người khác. Deepfake có thể được sử dụng để làm cho một người trông không chung thủy với đối tác của họ. Một ứng dụng khác có thể được sử dụng để làm cho nó có vẻ như một chính trị gia nói điều gì đó gây tranh cãi.

Một số kỹ thuật có thể được sử dụng để nhận biết và bảo vệ chống lại phương tiện truyền thông nhân tạo là gì?

Câu trả lời:


2

Trường Forensics Digital Media Forensics (DMF) nhằm phát triển các công nghệ để đánh giá tự động tính toàn vẹn của hình ảnh hoặc video, vì vậy DMF là lĩnh vực bạn đang tìm kiếm. Có một số cách tiếp cận trong DMF: ví dụ, những phương pháp dựa trên các kỹ thuật máy học (ML), đặc biệt là các mạng thần kinh tích chập (CNNs).

Ví dụ, trong bài báo Phát hiện video Deepfake bằng cách sử dụng Mạng thần kinh tái phát (2018), David Güera và Edward J. Delp đề xuất phân tích hai giai đoạn bao gồm một CNN để trích xuất các tính năng ở cấp độ khung hình theo sau là RNN nhận biết theo thời gian để nắm bắt sự không nhất quán theo thời gian giữa các khung được giới thiệu bởi công cụ deepfake. Cụ thể hơn, họ sử dụng kiến ​​trúc LSTM tích chập (CNN kết hợp với LSTM), được đào tạo từ đầu đến cuối, để CNN tìm hiểu các tính năng trong video, được chuyển đến RNN, cố gắng dự đoán khả năng những tính năng đó có thuộc về video giả hay không. Phần 3 giải thích việc tạo video deepfake, dẫn đến sự không thống nhất giữa các khung hình video (được khai thác trong phương pháp đề xuất) vì sử dụng hình ảnh với các điều kiện xem và chiếu sáng khác nhau.

Các công trình tương tự khác đã được đề xuất. Xem danh sách giám tuyển này https://github.com/aerophile/awclaw-deepfakes để biết thêm các giấy tờ liên quan.


1

Tôi nghĩ bối cảnh là quan trọng ở đây. Sử dụng các chiến thuật như những gì được Scotland Yard sử dụng trong hơn một thế kỷ có lẽ là cách tốt nhất. Thiết lập alibis, dòng thời gian thực tế, động cơ. Đối với cài đặt hợp pháp, có thể chứng minh những hình ảnh này là giả bằng các phương pháp như thế này. Từ góc độ CNTT, có thể xác định nguồn gốc của những hình ảnh này. Nếu hàng ngàn hình ảnh trùng lặp đến từ một nguồn gốc duy nhất, thì bất kỳ hình ảnh nào từ nguồn gốc này đều bị nghi ngờ.

Tôi nghĩ, nói chung, chúng ta nên kiềm chế bản thân để không tin tất cả mọi thứ chúng ta thấy. Có rất nhiều phương pháp để giả mạo hình ảnh, rằng nhiếp ảnh không còn có thể được coi là bằng chứng tốt nhất về một sự kiện xảy ra. Chúng ta không nên bỏ qua tất cả các hình ảnh, mà thay vào đó tìm kiếm sự đồng tình bên ngoài của sự thật trước khi đi đến kết luận. Nếu tất cả sự thật chỉ ra một sự kiện xảy ra, thì bức ảnh đó có khả năng là thật.


0

Giả sử các tạo tác và các yếu tố không tự nhiên không tồn tại trên phương tiện truyền thông đang được đề cập và phương tiện truyền thông không thể phân biệt được với mắt người, cách duy nhất để có thể làm điều này là truy ngược lại nguồn gốc của hình ảnh.

Một sự tương tự có thể được rút ra từ cuộc tấn công DoS (Từ chối dịch vụ), trong đó một số lượng yêu cầu vô lý được gửi từ một IP đến một máy chủ duy nhất khiến nó bị sập - Một giải pháp phổ biến là honeypot, trong đó số lượng yêu cầu cao từ một IP được chuyển hướng đến một máy chủ giải mã trong đó, ngay cả khi nó gặp sự cố, thời gian hoạt động không bị xâm phạm. Một số nghiên cứu đã được thực hiện trên những dòng này , trong đó bài báo này nói về việc xác minh chữ ký số của hình ảnh hoặc cái này trong đó họ đề xuất phát hiện hình ảnh giả mạo và nhận dạng máy ảnh nguồn.

Sau khi được truy trở lại một nguồn, nếu một số lượng vô lý các hình ảnh có khả năng giả mạo đến từ một nguồn số ít, thì nó sẽ bị nghi ngờ.

Nỗi sợ chung xuất hiện khi chúng ta đang xử lý một vấn đề nào đó, trên cơ sở tương tự, như một cuộc tấn công DDoS (Phân phối từ chối dịch vụ) trong đó mỗi yêu cầu giả mạo đến từ một nguồn phân tán - An ninh mạng đã tìm ra cách để giải quyết vấn đề này, nhưng bảo mật và phát hiện gian lận trong điều khoản của AI không được thiết lập.

Về cơ bản, đối với một phương tiện nhân tạo được cân nhắc kỹ lưỡng cho một mục đích độc hại cụ thể, ngày nay, khá khó để bị bắt - Nhưng công việc hiện đang được thực hiện về bảo mật trong AI. Nếu bạn đang dự định sử dụng phương tiện nhân tạo cho mục đích độc hại, tôi có thể nói bây giờ là thời điểm tốt nhất có lẽ.

Bảo mật này đã là một mối quan tâm từ một chút bây giờ. Một bài báo được viết bởi một nhà khoa học dữ liệu trích dẫn

Deepfakes đã được sử dụng để cố gắng quấy rối và làm nhục phụ nữ thông qua các video khiêu dâm giả mạo. Thuật ngữ này thực sự xuất phát từ tên người dùng của một người dùng Reddit, người đã tạo ra các video này bằng cách xây dựng các mạng đối nghịch chung (GAN) bằng cách sử dụng TensorFlow. Giờ đây, các quan chức tình báo đang nói về khả năng Vladimir Putin sử dụng các video giả để gây ảnh hưởng đến cuộc bầu cử tổng thống năm 2020. Nhiều nghiên cứu đang được thực hiện trên các hố sâu như một mối đe dọa đối với dân chủ và an ninh quốc gia, cũng như làm thế nào để phát hiện ra chúng.

Lưu ý - Tôi khá mù mờ về bảo mật mạng, tất cả kiến ​​thức của tôi đều xuất phát từ một cuộc trò chuyện với một người bạn và nghĩ rằng đây sẽ là một sự tương tự tốt để sử dụng ở đây. Tha thứ cho bất kỳ lỗi nào trong tương tự và xin vui lòng sửa nếu có thể!


Sẽ thật tuyệt nếu bạn có thể thực hiện một số nghiên cứu và cung cấp một liên kết đến ít nhất 1 công việc / bài nghiên cứu dựa trên một cái gì đó dọc theo những dòng đó (nghĩa là khai thác nguồn của các video có khả năng giả mạo).
nbro

Ngoài các bài báo nói về tác hại tiềm ẩn và những bài viết thường cố gắng phát hiện cổ vật, còn ít bài báo làm những gì được nêu trong câu trả lời như bài này hay bài này - Như đã nói, nghiên cứu sâu rộng chưa được thực hiện trên những dòng này, nhưng nó là đang được khám phá Hy vọng những liên kết này đã giúp!
ashenoy

-1

Các kỹ thuật bạn đề cập sử dụng GAN. Ý tưởng chính của GAN là bạn có một trình tạo và phân biệt đối xử. Trình tạo tạo nội dung mới, bộ phân biệt phải cho biết nội dung đó là từ dữ liệu thực hay nếu nó được tạo.

Người phân biệt đối xử là cách mạnh mẽ hơn. Không quá khó để đào tạo một người phân biệt đối xử để phát hiện hàng giả. Đào tạo một mô hình có thể xác định chính xác các thao tác và hiểu về điều này là một bằng chứng về thao tác khó hơn. Không thể có được một bằng chứng rằng một cái gì đó không bị thao túng.

Về câu hỏi làm thế nào bạn đối phó với hình ảnh được photoshop: bạn nhìn vào sự khác biệt về mức độ nén trong hình ảnh. Từ khóa cần tìm là pháp y hình ảnh: http://fotoforensics.com/tutorial-estq.php

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.