Dung lượng của kênh AWGN


9

Tôi bối rối khi hiểu các khái niệm cơ bản về giao tiếp qua các kênh AWGN. Tôi biết dung lượng của kênh AWGN thời gian rời rạc là: và nó đạt được khi tín hiệu đầu vào có Gaussian phân phối. Nhưng, điều đó có nghĩa là tín hiệu đầu vào là Gaussian? Điều đó có nghĩa là biên độ của mỗi ký hiệu của một từ mã phải được lấy từ một nhóm Gaussian? Sự khác biệt giữa việc sử dụng một cuốn sách mã đặc biệt (trong trường hợp này là Gaussian) và điều chế tín hiệu bằng tín hiệu M-ary, nói MPSK là gì?

C= =12đăng nhập2(1+SN)

Câu trả lời:


11

Giả sử một kênh có đầu vào mỗi lần là biến ngẫu nhiên liên tục và đầu ra của nó là , trong đó và độc lập với , thì là dung lượng của kênh đầu vào liên tục dưới ràng buộc nguồn Thông tin lẫn nhau được tối đa hóa (và bằng ) khi .XY=X+ZZN(0,N)ZX

CCI-AWGN= =12đăng nhập2(1+PN)
EX2P
Tôi(X;Y)CCI-AWGNX~N(0,P)

Điều này có nghĩa là nếu là biến ngẫu nhiên Gaussian liên tục với phương sai đã cho, thì đầu ra có thông tin lẫn nhau cao nhất có thể với đầu vào. Đó là nó!X

Khi biến đầu vào bị rời rạc (lượng tử hóa), một công thức mới được yêu cầu. Thật vậy, mọi thứ có thể dễ dàng trở nên khó khăn. Để nhìn thấy nó một chút, người ta có thể xem xét trường hợp đơn giản của sự phân biệt rất thô của khi nó chỉ có thể có hai giá trị. Vì vậy, giả sử rằng được chọn từ bảng chữ cái nhị phân, ví dụ, hãy để (hoặc phiên bản thu nhỏ để đáp ứng hạn chế về năng lượng). Về mặt điều chế, nó giống hệt với BPSK.XXXX{±1}

Nó chỉ ra rằng công suất (ngay cả trong trường hợp đơn giản này) không có dạng đóng. Tôi báo cáo từ "Lý thuyết mã hóa hiện đại" của Richardson và Urbanke:

CBI-AWGN= =1+1ln(2)((2N-1)Q(1N)-2πNe-12N+ΣTôi= =1(-1)TôiTôi(Tôi+1)e2Tôi(Tôi+1)NQ(1+2TôiN))
Có thể thấy sự so sánh giữa hai trường hợp trong hình dưới đây:

nhập mô tả hình ảnh ở đây


Bạn sẽ làm gì nếu bạn muốn đến gần hơn với năng lực? sử dụng sơ đồ PSK bậc cao hơn?
Mah

@msm Tôi luôn tin rằng FEC là một khái niệm chung bao gồm H-ARQ hoặc H-ARQ là một mẹo đơn giản để giảm độ dài từ mã cho mỗi lần truyền, tức là giảm độ phức tạp của việc giải mã, với chi phí tổng thời gian truyền dài hơn, phải không
AlexTP

@msm Hãy ngừng xóa bài viết cũ, có giá trị của bạn!
Peter K.

@msm Khi bạn đăng ký SP.SE, bạn đã cấp cho trang web một giấy phép không thể hủy ngang để sử dụng nội dung. Hãy ngừng xóa nội dung có giá trị của bạn.
Peter K.

7

Công thức năng lực

(1)C= =0,5đăng nhập(1+SN)
dành cho kênh thời gian rời rạc.

Giả sử bạn có một chuỗi dữ liệu {mộtn} để gửi đi, bạn cần một bộ dạng sóng trực giao {φn(t)}để điều chế. Trong điều chế tuyến tính, điều chế M-ary thuộc về,ϕn(t)=ϕ(t-nT) Ở đâu T là thời lượng biểu tượng và φ(t) là dạng sóng nguyên mẫu để tín hiệu TX liên tục theo thời gian cơ sở trở thành

(2)x(t)= =Σnmộtnφ(t-nT)

Điều chế điển hình sử dụng trường hợp đặc biệt {φn(t)}đáp ứng tiêu chí Nyquist ISI với bộ lọc phù hợp để phục hồimộtn. Một người nổi tiếngφ(t)rễ cosin nâng lên .

Kênh AWGN liên tục là một mô hình

(3)y(t)= =x(t)+n(t)

Ở đâu n(t) là một quá trình ngẫu nhiên trắng Gaussian.

Từ (2), chúng ta có thể thấy rằng mộtn là hình chiếu của x(t) trên {φn(t)}. Làm điều tương tự vớin(t), các dự đoán của n(t) trên tập trực giao là một chuỗi các biến ngẫu nhiên Gidian của iid wn=n(t),ϕn(t) (Tôi thực sự nghĩ rằng n(t)được định nghĩa từ các dự đoán của nó); và gọiyn=y(t),ϕn(t). Voilà, chúng ta có một mô hình thời gian rời rạc tương đương

(4)yn=an+wn

Công thức (1) được nêu cho SN là năng lượng (phương sai nếu anwn là không có nghĩa) của anwn, tương ứng. Nếuanwn là Gaussian, cũng vậy ynvà công suất được tối đa hóa. (Tôi có thể thêm một bằng chứng đơn giản nếu bạn muốn).

Điều đó có nghĩa là tín hiệu đầu vào là Gaussian? Điều đó có nghĩa là biên độ của mỗi ký hiệu của một từ mã phải được lấy từ một nhóm Gaussian?

Nó có nghĩa là các biến ngẫu nhiên an là Gaussian.

Sự khác biệt giữa việc sử dụng một cuốn sách mã đặc biệt (trong trường hợp này là Gaussian) và điều chế tín hiệu bằng tín hiệu M-ary, nói MPSK là gì?

Dạng sóng ϕn(t) thiết lập cần phải là trực giao, điều này đúng với M-PSK, do đó wn là i Gaussian.

Cập nhật tuy nhiênanđược lượng tử hóa nên nói chung, nó không còn là Gaussian nữa. Có một số nghiên cứu về chủ đề này, chẳng hạn như việc sử dụng Mã hóa Lattice Gaussian (liên kết) .


@msm Ý tôi là kênh "thời gian rời rạc". Vâng, các biến ngẫu nhiên này là liên tục, hỗ trợ của họ là liên tục. Tôi đã nói về thời gian liên tục và thời gian rời rạc vì tác giả đã hỏi về điều chế.
AlexTP

@msm my (3) là liên tục và (4) là rời rạc tương đương. Vật lý ở quy mô không lượng tử, chúng tôi đang ở (3). Để phân tích, chúng tôi sử dụng (4). Chúng tôi chỉ nói về hai thứ khác nhau, tôi cho là vậy. Tôi đã chỉnh sửa câu trả lời của mình để sử dụng thuật ngữ chính xác.
AlexTP

1
@msm thấy câu trả lời của bạn và phát hiện ra rằng tôi đã hiểu nhầm những gì tác giả của câu hỏi muốn hỏi về điều chế và những gì bạn đang nói với tôi. Tôi đã cập nhật câu trả lời của tôi để tránh phần gây hiểu lầm. Cảm ơn.
AlexTP

"Tôi thực sự nghĩ rằng n (t) được xác định từ các hình chiếu của nó" - Vấn đề là nhiễu trắng có kích thước vô hạn. Điều thú vị là, đối với vấn đề phục hồian, chỉ chiếu trên ϕn(t)là có liên quan - tất cả các dự đoán vô hạn có thể khác không giúp đỡ. Xem "định lý không liên quan".
MBaz

@MBaz vâng tôi đồng ý. Định lý về sự không liên quan và định lý lấy mẫu là cặp vợ chồng để thiết lập mô hình kênh thời gian rời rạc cơ bản. Phần trực giao không tương quan do đó độc lập theo giả định Gaussian. Tuy nhiên tôi nghĩ rằng tôi sẽ không sửa đổi câu trả lời của mình vì nội dung trình chiếu này không liên quan trực tiếp đến câu hỏi. Cảm ơn đã làm cho nó rõ ràng.
AlexTP

3

Để nói rằng tín hiệu đầu vào có phân phối Gaussian có nghĩa là nó được phân phối dưới dạng biến ngẫu nhiên Gaussian. Trong thực tế, người ta dựa vào mã hóa qua nhiều phiên bản của kênh (theo thời gian) thay vì dựa vào phân phối đầu vào Gaussian. Có một lý thuyết đẹp với đầy đủ các bằng chứng nằm ngoài phạm vi của câu trả lời này (Lý thuyết thông tin). Mã kiểm soát lỗi (hoặc mã kênh) thường dựa vào việc sử dụng các điều chế QAM / PSK quen thuộc, nhưng thông qua việc dự phòng mã và sử dụng nhiều kênh, họ có thể tiếp cận (mặc dù không đạt được) dung lượng kênh. Một bản phác thảo lý luận (không có chi tiết đầy đủ) được cung cấp tiếp theo.

Định nghĩa về dung lượng kênh

C=suppX(x)I(X;Y)
Ở đâu X có thể được gọi một cách lỏng lẻo là biến ngẫu nhiên đầu vào của bạn và Y có thể được gọi một cách lỏng lẻo là biến ngẫu nhiên đầu ra của bạn và I(,)thông tin lẫn nhau củaXY. Định nghĩa này yêu cầu chúng tôi tìm kiếm trên tất cả các phân phối có thể có của đầu vàopX(x)cho các bản phân phối tối đa hóa Thông tin lẫn nhau. Kênh AWGN rời rạc có mối quan hệ đầu vào / đầu ra được xác định là
Y=X+Z
Ở đâu Z là một Gaussian có nghĩa là không có phương sai σZ2 (thông báo rằng σZ2=NσX2=Strong ký hiệu của bạn). Tôi không có thời gian để cung cấp tất cả các chi tiết ngay bây giờ. Tuy nhiên, bất kỳ cuốn sách về lý thuyết thông tin có thể đưa bạn qua bằng chứng cho thấy rằng nếuX được phân phối dưới dạng Gaussian Tôi(X;Y) (thông tin lẫn nhau của XY) được tối đa hóa. Ví dụ, xem Các yếu tố của lý thuyết thông tin của Thomas Cover. Nếu bạn chưa đọc nó, chuyên luận ban đầu của Shannon Một lý thuyết toán học về giao tiếp là một cuốn sách đáng đọc với lý luận rõ ràng xuyên suốt.

Không có lý do cho bỏ phiếu xuống?
nhảy vào
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.