Tại sao các pixel hiệu quả lớn hơn độ phân giải thực tế?


16

Trang này so sánh các máy ảnh và đề cập của Canon EOS 550D và Canon EOS 500D

18,7 triệu pixel hiệu quả

cho 550D. Tuy nhiên độ phân giải tốt nhất có thể sử dụng máy ảnh này là

5184 * 3456 = 17915904 ~ 17.9 million pixels

Các pixel hiệu quả là gì và tại sao con số đó lớn hơn 17,9 triệu trong trường hợp này?


1
Cũng cần lưu ý rằng "độ phân giải" có hai nghĩa. Trong máy tính, chúng tôi sử dụng nó để chỉ kích thước pixel của màn hình hoặc hình ảnh. Và trong một bản vẽ máy tính hoặc hình ảnh được tạo ra, điều đó thường không tương ứng với độ phân giải "thực" - lượng chi tiết thực sự được phân giải trong hình ảnh. Nhưng trong một bức ảnh, nó không nhất thiết phải như vậy.
mattdm

1
Đó không phải là những gì đang xảy ra ở đây - chỉ là một nguồn gây nhầm lẫn bổ sung .
mattdm

Câu trả lời:


9

Một phần của những gì chúng ta đang thấy ở đây là (tôi chắc chắn hợp lý) không gì khác hơn là một lỗi đánh máy đơn giản (hoặc một cái gì đó theo thứ tự đó) trên một phần của DPReview.com. Theo Canon , [PDF, trang 225] số lượng giếng trên cảm biến là "Khoảng 18,00 megapixel".

Những thứ đó sau đó được giảm xuống còn khoảng 17,9 megapixel khi các đầu vào mẫu của Bayer được biến thành thứ mà hầu hết chúng ta sẽ nghĩ là pixel. Sự khác biệt khá đơn giản: mỗi giếng trên cảm biến chỉ cảm nhận được một màu ánh sáng, nhưng một pixel như bạn thường mong đợi ở đầu ra (ví dụ: tệp JPEG hoặc TIFF) có ba màu cho mỗi pixel. Thoạt nhìn, có vẻ như điều đó có nghĩa là một tệp sẽ chỉ có khoảng một phần ba số pixel như có các giếng cảm biến trong đầu vào. Rõ ràng, đó không phải là trường hợp. Đây là (một cái nhìn đơn giản về) cách mọi thứ hoạt động:

mô hình đơn giản hóa của Bayer

Mỗi chữ cái đại diện cho một tốt trên cảm biến. Mỗi hộp đại diện cho một pixel ba màu như nó sẽ đi trong tệp đầu ra.

Trong phần "bên trong" của cảm biến, mỗi pixel đầu ra phụ thuộc vào đầu vào từ bốn giếng cảm biến, nhưng mỗi giếng cảm biến được sử dụng làm đầu vào cho bốn pixel đầu ra khác nhau, do đó số lượng đầu vào và số lượng đầu ra vẫn như nhau.

Tuy nhiên, xung quanh các cạnh, chúng ta có các giếng cảm biến chỉ đóng góp vào hai pixel thay vì bốn. Ở các góc, mỗi cảm biến chỉ đóng góp vào một pixel đầu ra.

Điều đó có nghĩa là tổng số pixel đầu ra nhỏ hơn số lượng giếng cảm biến. Cụ thể, kết quả nhỏ hơn một hàng và một cột so với đầu vào (ví dụ: trong ví dụ, chúng tôi có cảm biến 8x3, nhưng pixel đầu ra 7x2).


+1 đặc biệt cho sơ đồ. Nhưng tôi vẫn còn bối rối, bởi vì điều này sẽ giải thích sự vắng mặt của 2 (5184-1 + 3456-1) = khoảng 17K pixel, sẽ bị mất khi làm tròn trong tính toán 18,0 - 17,9 = 0,1M pixel. Dường như ít nhất ba lần số pixel phải bị tước khỏi ranh giới (vì bất kỳ thứ gì nhỏ hơn 50K nên làm tròn xuống 0,0M). Có lẽ việc khử màu đang sử dụng một vùng lân cận lớn hơn so với 2 x 2 được hiển thị ở đây: có thể đó là sử dụng khoảng 7 x 7 vùng lân cận?
whuber

1
@whuber: Chính thức, tôi không chắc tôi có thể trực tiếp chiếm phần còn lại. Chắc chắn có thể sử dụng nhiều cảm biến hơn để tạo ra một pixel đầu ra duy nhất, nhưng tôi không có cách nào thực sự để biết rằng đó là những gì Canon đang làm trong trường hợp này. Một tệp thô từ máy ảnh sẽ cung cấp số lượng giếng cảm biến chính xác, nhưng vẫn không cho biết chính xác cách Canon chuyển từ đầu vào X sang đầu ra Y.
Jerry Coffin

3
Trong các thuật toán khử màu tốt (ví dụ: hướng đồng nhất thích ứng), mỗi cảm biến đóng góp tốt hơn bốn pixel đầu ra, do đó, nó không chỉ là một hàng hoặc cột bị mất. Thật dễ dàng để lấy đầu ra không bị ảnh hưởng từ dcraw và so sánh kích thước hình ảnh với đầu ra DPP của Canon để có câu trả lời dứt khoát, tôi sẽ thử ngay khi có thời gian.
Matt Grum

@Matt Grum: Phải - nhìn lại, nhận xét trước đây của tôi khá kém chữ. Những gì tôi đã cố gắng nhận được là có một số thuật toán có thể (và sẽ) mất / loại bỏ ~ 3 hàng / cột pixel, nhưng riêng số pixel sẽ không cho bạn biết chúng đang sử dụng loại nào. Mặc dù vậy, sử dụng thuật toán tinh vi hơn, sử dụng nhiều cảm biến hơn trên mỗi pixel đầu ra gần như là một điều được đưa ra.
Jerry Coffin

5

Tôi không biết tại sao thuật ngữ "hiệu quả" được DPReview sử dụng, nhưng có một số lý do cho sự khác biệt giữa số lượng hình ảnh (pixel) trên chip và kích thước tính bằng pixel của hình ảnh thu được.

Một số cảm biến máy ảnh có một dải các pixel bị che xuống mỗi bên. Các pixel này giống hệt với số lượng pixel trên cảm biến trừ khi chúng không nhận được ánh sáng. Chúng được sử dụng để phát hiện nhiễu và trừ nó khỏi tín hiệu được tạo bởi các pixel nhạy sáng.

Thứ hai, các thuật toán khử màu sử dụng rất nhiều "hoạt động lân cận", điều này có nghĩa là giá trị của một pixel phụ thuộc phần nào vào giá trị của các pixel lân cận. Các pixel ở rìa cực của hình ảnh không có hàng xóm nên đóng góp vào các pixel khác nhưng không thêm vào kích thước hình ảnh.

Cũng có thể máy ảnh cắt cảm biến vì những lý do khác (ví dụ: vòng tròn hình ảnh ống kính không che khuất cảm biến) mặc dù tôi nghi ngờ đây là trường hợp của 550D.


Là các pixel viền được sử dụng để loại bỏ nhiễu, hoặc chỉ để đặt điểm đen?
mattdm

1
Cả hai tôi đoán, nếu không có bất kỳ sự can thiệp nào (bao gồm cả phản ứng nhiệt) thì điểm đen sẽ là 0
Matt Grum

Mô tả của DPReview . Dường như đối với tôi như thể nó qua lại giữa hai khái niệm trái ngược nhau và tôi không thấy nó thực sự định nghĩa thuật ngữ này, ngoại trừ ngầm. Câu trả lời của bạn tôi nghĩ sẽ giúp một chút, nhưng vẫn khiến tôi tự hỏi tại sao các pixel "hiệu quả" sẽ nhiều hơn các trang ảnh thật, mặc dù trang dpreview có một số khả năng. Hiệu quả: được sử dụng để hiệu ứng dữ liệu hình ảnh? Hoặc ngày hình ảnh cuối cùng có hiệu lực? (lưu ý: hiệu ứng động từ với một e: tạo sự tồn tại.) Tôi vẫn đang tự hỏi ý nghĩa của chúng.
buộc

5

Có hai lý do tại sao các pixel hiệu quả nhỏ hơn số pixel cảm biến thực tế (các yếu tố cảm biến hoặc cảm biến.) Đầu tiên, các cảm biến của Bayer bao gồm các "pixel" cảm nhận một màu ánh sáng. Thông thường, có các giác quan màu đỏ, xanh lá cây và xanh dương, được sắp xếp theo cặp hàng theo hình thức:

RGRGRGRG
GBGBGBGB

Một "pixel" duy nhất như hầu hết chúng ta đều quen thuộc với nó, pixel kiểu RGB của màn hình máy tính, được tạo ra từ cảm biến của Bayer bằng cách kết hợp bốn giác quan, một bộ tứ RGBG:

          R G 
(sensor)       -->  RGB (computer)
          G B

Do lưới 2x2 gồm bốn cảm biến RGBG được sử dụng để tạo một pixel máy tính RGB duy nhất, không phải lúc nào cũng có đủ pixel dọc theo cạnh của cảm biến để tạo một pixel đầy đủ. Đường viền pixel "phụ" thường xuất hiện trên các cảm biến của Bayer để phù hợp với điều này. Một viền pixel bổ sung cũng có thể xuất hiện đơn giản để bù cho thiết kế đầy đủ của cảm biến, đóng vai trò là pixel hiệu chuẩn và chứa các thành phần cảm biến phụ thường bao gồm bộ lọc IR và UV, bộ lọc khử răng cưa, v.v. có thể gây cản trở lượng ánh sáng đầy đủ từ việc đi đến ngoại vi bên ngoài của cảm biến.

Cuối cùng, các cảm biến của Bayer phải được "khử màu" để tạo ra hình ảnh RGB bình thường của các pixel máy tính. Có nhiều cách khác nhau để làm mất cảm biến của Bayer, tuy nhiên hầu hết các thuật toán đều cố gắng tối đa hóa lượng pixel RGB có thể được trích xuất bằng cách trộn các pixel RGB từ mọi bộ tứ 2x2 RGBG có thể chồng chéo:

Làm sạch da

Đối với một cảm biến có tổng cộng 36 cảm biến màu đơn, có thể trích xuất tổng cộng 24 pixel RGB. Lưu ý tính chất chồng chéo của thuật toán khử màu bằng cách xem GIF hoạt hình ở trên. Cũng lưu ý làm thế nào trong các lần thứ ba và thứ tư, hàng trên cùng và dưới cùng không được sử dụng. Điều này cho thấy các pixel biên của cảm biến có thể không luôn luôn được sử dụng khi làm mất màu một mảng cảm biến của Bayer.

Đối với trang DPReview, tôi tin rằng họ có thể có thông tin sai. Tôi tin rằng tổng số cảm biến (pixel) trên cảm biến Canon 550D của Bayer là 18.0mp, trong khi các pixel hiệu quả hoặc số pixel máy tính RGB có thể được tạo từ cơ sở 18mp đó là 5184x3456 hoặc 17.915.904 (17.9mp). Sự khác biệt sẽ làm giảm các pixel viền không thể tạo thành một bộ tứ đầy đủ và có thể một số pixel viền bổ sung để bù cho thiết kế của các bộ lọc và phần cứng gắn phía trước cảm biến.


Tôi chỉ nhận thấy rằng tôi đã đếm các giác quan sai trong hình ảnh hoạt hình của tôi. Trong hai bước đầu tiên, nó không kết hợp 8 giác quan ... nó kết hợp 28 giác quan thành 8 pixel. Trong hai bước cuối cùng, nó kết hợp 14 giác quan thành 4 pixel. Xin lỗi vì sự khác biệt. Tôi sẽ cố gắng khắc phục sớm.
jrista

-3

Xin lỗi để thất vọng, nhưng không có lời giải thích nào là đúng. Trên mỗi cảm biến có một khu vực bên ngoài khu vực hình ảnh cũng chứa hình ảnh. Một số trong số này bị tắt, một số được bật hoàn toàn và một số được sử dụng cho các mục đích giám sát khác. Chúng được sử dụng để đặt mức amp và cân bằng trắng, như một "bộ điều khiển" chống lại những người thực hiện hình ảnh thực tế.

Nếu bạn lấy dữ liệu cảm biến RAW từ bất kỳ máy ảnh Powershot tương thích CHDK nào và sử dụng dcraw để chuyển đổi chúng, bạn có thể có được hình ảnh cảm biến đầy đủ bao gồm các vùng 100% đen và trắng 100% này.

Tuy nhiên, điều thú vị là độ phân giải kích thước hình ảnh RAW trong máy ảnh luôn lớn hơn kết quả JPG trong máy ảnh. Lý do là, các phương pháp nội suy đơn giản hơn và nhanh hơn được sử dụng trong máy ảnh để chuyển từ RAW sang JPG yêu cầu các ảnh chụp RGB xung quanh để xác định màu sắc cuối cùng của từng pixel. Hình ảnh cạnh và góc không có các tham chiếu màu xung quanh trên tất cả các mặt để làm như vậy. Thực hiện quy trình sau mặc dù trên máy tính có phần mềm nội suy RAW tốt hơn, sẽ cho phép bạn lấy lại độ phân giải hình ảnh lớn hơn một chút so với những gì có thể thu được từ JPG trong máy ảnh.

Những người đánh giá ps DPReview và tác giả bài viết không bao giờ nên được coi là phúc âm bởi bất cứ ai. Tôi đã tìm thấy rất nhiều lỗ hổng trong các thử nghiệm của họ và các ví dụ trắng trợn trong đó những người thử nghiệm thậm chí không biết cách sử dụng máy ảnh, mà tôi đã giảm giá lời khuyên của họ nhiều năm trước.


5
Mặc dù nhận xét của bạn rằng "không có lời giải thích nào là đúng", những câu trả lời khác thực sự đã bao hàm điều này rồi.
mattdm
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.