Tại sao các cảm biến máy ảnh kỹ thuật số không thể phơi sáng từng photosite riêng lẻ?


14

Tại sao cảm biến máy ảnh không thể hoạt động theo cách mà mắt người có thể? Ý tôi là, tại sao một phần nhất định của hình ảnh phải bị quá / thiếu sáng nếu chúng ta bù cho các vùng tối và sáng tương ứng khi chụp ảnh và quyết định cài đặt khẩu độ và tốc độ màn trập.

Tôi hiểu rằng ánh sáng đi vào phụ thuộc vào khẩu độ và tốc độ màn trập nhưng vì máy ảnh DSLR là kỹ thuật số, không thể có một công nghệ cho phép mỗi tế bào cảm biến sử dụng đo sáng của chính nó và do đó chúng sẽ không phải chịu cùng một lượng về ánh sáng nhưng tùy thuộc vào đo sáng, CPU của máy ảnh sẽ tắt một số tế bào nhất định để không làm quá mức chúng.

Tôi hy vọng tôi không nói những điều vô nghĩa. Nó chắc chắn với tôi như một ý tưởng hợp lý.


Có vẻ như bạn đang hỏi tại sao một cảm biến không thể có phạm vi động không giới hạn? Hoặc có thể một con đường khác sẽ là "cảm biến camera hoạt động như thế nào". Câu hỏi thú vị bất kể.
dpollitt

Vâng, bạn sẽ nói rằng câu hỏi là về phạm vi động không giới hạn nhưng thực sự nó có vẻ khá kỳ lạ với tôi vì mỗi tế bào cảm biến có khả năng "ghi lại" hoặc người đánh bóng nói rằng thu được bất kỳ lượng ánh sáng nào (bỏ qua việc cắt trắng / đen) , tại sao nó không thể làm điều đó trên cơ sở một tế bào mà chỉ thu được cùng một lượng trong toàn bộ cảm biến? Có lẽ nó sẽ đòi hỏi nhiều năng lượng CPU hơn một chút và tôi không quan tâm liệu nó có được xem xét bởi bất kỳ nhà sản xuất DSLR nào không ...

2
Quá nhiều dây là phỏng đoán của tôi . Bạn sẽ cần mạch bổ sung không tầm thường cho mỗi photosite. Gần nhất cho đến nay là các máy ảnh đọc một nửa pixel giữa chừng khi phơi sáng.
Itai

Bạn có một liên kết đến bài viết? Vì vậy, câu trả lời duy nhất cho câu hỏi ban đầu của tôi là trên thực tế, có quá phức tạp vào thời điểm này trong lịch sử công nghệ DSLR không?

1
Đó là loại câu hỏi hơi ngoài hộp. Nó rất hợp lý để hỏi nó. Tôi chắc chắn rằng một ngày nào đó máy ảnh sẽ hoạt động theo cách rất giống với đề xuất của bạn. ... Mặc dù cá nhân, tôi thấy rằng những hạn chế kỹ thuật nuôi dưỡng nghệ thuật.
AJ Finch

Câu trả lời:


19

Ai quyết định pixel nào nhận được bao nhiêu? Phần lớn những gì diễn ra trong hệ thống thị giác của con người xảy ra ở vỏ não, chứ không phải mắt và phụ thuộc vào những gì chúng ta nghĩ là quan trọng để xem dựa trên sự kết hợp giữa quyết định trí tuệ và ổ đĩa theo bản năng (có khả năng ghi đè) để tự bảo vệ . Mặc dù nó đúng theo một nghĩa mà chúng ta thấy những gì ở đó, nhưng nó cũng đúng như vậy theo một nghĩa khác mà chúng ta thấy những gì chúng ta muốn (hoặc cần) nhìn thấy.

Nó sẽ gần nhưtầm thường để tạo ra một cảm biến mật độ pixel tương đối thấp với các ảnh lớn cho phép phạm vi động cực lớn và (giả sử công nghệ loại CCD, vì công nghệ cảm biến CMOS hiện tại không thể hoạt động theo cách này) ngoài màn trập điện tử mỗi pixel màn trập cơ. Vì vậy, những gì sẽ có được bạn? Một hình ảnh phẳng có nhiều độ sâu bit và độ tương phản cục bộ rất thấp (nếu toàn bộ độ sâu bit được chuyển đổi như là để hiển thị hoặc in) cùng với một số pixel gần như, nhưng không hoàn toàn, được cắt bằng độ bão hòa cảm biến ( mặc dù trên thực tế, chúng bị cắt xén bởi hành động giới hạn của màn trập điện tử ngay trước điểm bão hòa). Tuy nhiên, hãy nói rằng để tranh luận rằng cảm biến này và máy tính liên quan của nó có thể ghi lại dữ liệu cắt (lý do tại sao nó dừng ghi ở cảm biến đó, có thể đơn giản như ghi lại thời lượng phơi sáng thực tế tại trang web đó). Điều đó sẽ cho phép các thiết bị điện tử của máy ảnh tái tạo lại những con số sẽ có nếu photosite có thể ở lại trong trò chơi cho đến khi tiếng còi cuối cùng. Vì vậy, bây giờ chúng ta có một hình ảnh phẳng hơn với độ sâu bit lớn hơn. Và bạn vẽ đường này ở đâu? 32 bit? 64?

Bây giờ đến phần khó khăn - biến dữ liệu hình ảnh phẳng, động cao này thành một bức ảnh hấp dẫn. Cách tiếp cận đơn giản nhất là lấy tám bit (hoặc bất kể độ sâu bit đầu ra sẽ là gì) đại diện cho hình ảnh đo sáng chính và loại bỏ phần còn lại. Có lẽ sẽ không khó khăn hơn nhiều khi điều chỉnh dữ liệu theo đường cong S, nén các bóng tối và / hoặc các điểm nổi bật - ít nhiều là những gì các thiết lập phạm vi động mở rộng trên các máy ảnh mới hơn đã làm. Nhưng chỉ có rất nhiều bit đầu ra có sẵn trên mỗi pixel và hầu hết các giá trị nổi bật mở rộng sẽ được làm tròn thành màu trắng (hoặc ít nhất là hỗn hợp 254 và 255). Vì vậy, bạn đã đạt được rất ít bằng cách làm phức tạp hệ thống.

Nhưng vẫn còn một tùy chọn mở - ánh xạ vùng chọn lọc. Tại sao không mang bầu trời, nói, hoặc chỉ những đám mây trên bầu trời đó, giảm giá trị để nó có thể giữ lại chi tiết, trong khi vẫn giữ được độ tương phản mong muốn ở phía trước? Đây là nơi vấn đề khó khăn sống. Điều gì quan trọng? Máy ảnh có nên quyết định cho bạn? Nếu máy ảnh quyết định, thì chúng ta sẽ có một bước tiến lớn về tầm nhìn máy móc và trí tuệ nhân tạo để đi đầu tiên. Nếu không, thì bạn có thực sự muốn đưa ra mức độ quyết định hậu kỳ này cho mỗi bức ảnh bạn chụp không? Vâng, tôi biết sẽ có một số chuyên gia công nghệ hình ảnh thực sự muốn trở thành người thực hành đó, nhưng chúng tôi có thể chấp nhận rằng đó là một tình trạng bệnh lý và các chuyên gia quan tâm đến thời gian quay vòng và đại đa số người tiêu dùng phát sinh Bạn có thích điều đó không?

Vì vậy, bạn cần một cảm biến mới, các thiết bị điện tử phức tạp hơn rất nhiều xung quanh cảm biến, một tệp hình ảnh khổng lồ cho dữ liệu thô được chiếu (cần thẻ lớn hơn và thời gian ghi dài hơn / tốc độ khung hình chậm hơn), tất cả để thu thập dữ liệu sẽ bị loại bỏ nhiều nhất đôi khi bạn có thể thỉnh thoảng chụp ảnh HDR một lần cần nhiều sự can thiệp của con người vào bài đăng (hoặc bước nhảy vọt lớn trong MV / AI). Bạn có thể có thể bán một vài trong số này, nhưng tôi hy vọng thị trường sẽ trông rất giống thị trường định dạng trung bình hơn so với thị trường 35mm / APS-C hiện tại. Đó là, bạn sẽ bán cho một nhóm các nhiếp ảnh gia giỏi, những người thực sự cần khả năng vì lý do nghề nghiệp hoặc để thực hiện tầm nhìn mỹ thuật của họ, và một vài người chỉ cần một cú hích đủ lớn để xử lý hậu kỳ để trả tiền thuế công nghệ.


1
Đây là một phân tích tuyệt vời (và tôi đang bỏ phiếu như vậy). Nhưng cuối cùng tôi thấy kết luận không thuyết phục. Rốt cuộc, sẽ không khó để tạo ra một ma trận cảm giác "ngu ngốc", một số trong đó được che dấu bằng, ví dụ, bộ lọc ND sáu điểm. (Chẳng hạn, sử dụng một trong các G trong bộ lọc của Bayer cho việc này.) Không cần thay đổi đáng kể trong thiết bị điện tử; không có gì về máy ảnh, ống kính, vv, sẽ thay đổi; nhưng bù lại, có một sự mất mát nhỏ về độ nhạy, bạn sẽ có được khả năng phân biệt các màu (thô) trong các pixel bị thổi ra. Điều đó gần với những gì OP yêu cầu.
whuber

2
Một cách tiếp cận đơn giản tốt hơn đã tồn tại trong cảm biến EXR của Fuji. Nó có các giác quan có kích thước khác nhau; một giác quan nhỏ và một cái lớn được ghép nối tại mỗi vị trí pixel nguồn trên cảm biến. Mặc dù điều đó có thể cung cấp cho phạm vi chụp rộng hơn, nhưng nó vẫn bị giới hạn trong những gì nó có thể làm - bạn vẫn có thể thổi ra những điểm nổi bật nếu bạn muốn có được tất cả các bóng. (Và việc triển khai hiện tại của Fuji sử dụng quá nhiều pixel trên một cảm biến quá nhỏ.) Giả sử một triển khai hoàn hảo với nhiều kích thước cảm biến - vẫn còn vấn đề xử lý, và đó, không phải là chụp, là vấn đề thực sự.

Cảm ơn đã tham khảo EXR. Nó cho thấy đề nghị của tôi không chỉ hợp lý, mà còn thực tế. Bây giờ phần mềm HDR không giải quyết được vấn đề xử lý? Nếu bạn đã quản lý để chụp phạm vi động rộng bằng cảm biến tích hợp, thì thực tế bạn đã có một ngăn xếp HDR được đăng ký hoàn hảo. Những hạn chế của công nghệ này sẽ là những hạn chế của HDR, chắc chắn.
whuber

Một lần nữa, xử lý thẳng sẽ cho hình ảnh nhảm nhí nếu nguồn là HDR. Hạn chế không nằm ở khả năng chụp, nhưng trong quá trình xử lý, bạn cần xem bao nhiêu hình ảnh quầng sáng trước khi đưa ra kết luận rằng xử lý HDR không đơn giản? Những người có ý nghĩa tốt sẽ vặn nó lên một cách tuyệt vời, và họ biết những gì họ muốn hình ảnh "nói". Sau đó, vấn đề lưu trữ và ghi tốc độ vẫn còn đó, và có một thỏa hiệp sử dụng khác. Một chiếc máy ảnh có thể là tất cả mọi thứ cho tất cả mọi người, nhưng với giá nào cả về giá cả và công thái học? Chụp 14 bit và nén DR hiện đang ở đây; 16-bit sẽ không bị bỏ lại phía sau.

1
... Và cả hai vẫn nhận được những điểm nổi bật. Bạn cần phải mở rộng hơn nữa để tránh vấn đề hoàn toàn, và đến một lúc nào đó tính thực tiễn bị phá vỡ, ít nhất là ở cấp độ thị trường đại chúng. Studio bắn súng không cần nó; hầu hết người tiêu dùng không cần nó. Tôi chủ yếu làm chân dung môi trường và tôi không thể nghĩ quá nhiều lần tôi cần nó (phơi sáng quá mức đã tạo ra nhiều hình ảnh của tôi). Chi phí chung sẽ không đáng với hầu hết mọi người, vì vậy điều đó sẽ tạo ra một sản phẩm thích hợp đắt tiền.

3

Có một điều mà chỉ một vài người đề cập đến, và đó là một cảnh sẽ không giống nhau nếu các khu vực khác nhau được tiếp xúc khác nhau với các khu vực khác. Một cảnh trông giống như vậy bởi vì có sự thay đổi. Đúng, đó có thể là một cách để lưu các điểm nổi bật và tăng bóng, nhưng cuối cùng, điều bạn thực sự muốn là một dải động lớn hơn có thể chụp được dải động trong cảnh bằng một cài đặt phơi sáng.

Đôi mắt của chúng tôi là tuyệt vời trong việc cung cấp cho chúng tôi một phạm vi năng động lớn hơn nhiều so với công nghệ máy ảnh tiêu dùng hiện tại. Tôi có thể nhìn xung quanh một cách nhanh chóng và nhận biết chi tiết chính xác trong các khu vực bị bóng và các khu vực có ánh sáng mặt trời cùng một lúc.

Một trong những cách mà các nhà sản xuất máy ảnh đang khắc phục vấn đề này là sử dụng cả pixel có độ nhạy cao và thấp trong một cảm biến sau đó kết hợp kết quả trên mỗi pixel. Các máy quay phim kỹ thuật số mới hơn của RED có một ma trận các pixel cảm biến độ nhạy bình thường và độ nhạy thấp gọi là HDRx. Các pixel cảm biến nhỏ, độ nhạy thấp được kết hợp thành các điểm sáng của các pixel sáng để tăng phạm vi động.


Bạn đã đúng, nó sẽ dẫn đến một bức ảnh nhạt nhẽo nhưng rõ ràng nó sẽ phải có một số hạn chế. Tôi tin rằng để máy ảnh quyết định khu vực nào sáng hơn và tối hơn sẽ là quá nhiều. Tôi đã không nghĩ đúng ...

3

Đầu tiên, phạm vi năng động của mắt người không phải là tuyệt vời. Nó chỉ có vẻ tốt hơn các máy ảnh cao cấp hiện tại của chúng tôi, bởi vì bộ não của chúng tôi liên tục hợp nhất các "ảnh chụp nhanh" được thực hiện bằng các cài đặt phơi sáng khác nhau. Mắt chúng ta không thể đăng ký đồng thời các vật cực sáng và cực tối (mặc dù não có thể). Thực sự kỳ diệu của xử lý hình ảnh, nhưng chỉ có thiết bị quang học / hình ảnh tầm thường.

Có một số đề xuất / nguyên mẫu cho thấy phạm vi động của cảm biến hình ảnh có thể được cải thiện đáng kể như thế nào:


2

Bạn đang thiếu một số vật lý cơ bản ở đây. Vấn đề chính là cảnh thực có tỷ lệ tương phản lớn. Đôi mắt của chúng ta đã tiến hóa để đối phó với điều đó bằng cách cảm nhận các mức độ ánh sáng theo logarit thay vì tuyến tính. Thật không may, công nghệ cảm biến hiện tại vốn đã đo ánh sáng tuyến tính. Hay nói chính xác hơn, nhiễu được cố định trên thang ánh sáng tuyến tính.

Với công nghệ hiện tại, giới hạn tương phản tối đa về cơ bản là một chức năng của mức độ nhiễu. Để tranh luận, chúng ta hãy sử dụng thang ánh sáng 0-1000, nghĩa là một cảm biến có thể cho bạn biết mức độ ánh sáng từ 0 đến 1000. Do đó, tỷ lệ cao nhất mà nó có thể đo được là bao nhiêu? Nó phụ thuộc vào mức độ tiếng ồn. Mức độ tiếng ồn về cơ bản là những gì bạn nhận được thay vì màu đen thực sự, sẽ là 0 trong ví dụ này. Một cách thô bạo, nếu độ ồn là 2, thì bạn sẽ có được tỷ lệ độ sáng khoảng 1000: 2 = 500: 1. Miễn là cảnh không vượt quá điều đó (hầu như tất cả sẽ như vậy, trong thực tế 500: 1 không nhiều như vậy), bạn có thể thực hiện bất kỳ ánh xạ logarit nào bạn muốn sau này.

Vì vậy, chiến lược hiện tại, cho rằng các cảm biến hiện tại vốn đã tuyến tính, là cố gắng tăng tỷ lệ tín hiệu thành nhiễu và cung cấp đủ bit để nhiễu lượng tử hóa nằm dưới mức nhiễu ngẫu nhiên vốn có. Cảm biến có độ nhiễu càng thấp, các cảnh phạm vi động rộng hơn mà bạn có thể chụp mà không cần cắt các điểm sáng hoặc làm mờ bóng tối.

Có một công nghệ cảm biến hoàn toàn khác vốn đã đo được nhật ký độ sáng. Đôi khi chúng được gọi là cảm biến "CMOS", vì chúng rất giống với RAM động CMOS với nắp được tháo ra (tôi quá đơn giản, nhưng thử nghiệm đầu tiên trong phòng thí nghiệm đã thực sự được thực hiện theo cách này). Bạn nhận được một điện áp tỷ lệ thuận với nhật ký của ánh sáng, nhưng hiện tại chúng có tín hiệu thấp hơn nhiều so với tỷ lệ nhiễu. Mitsubishi là người đầu tiên thương mại hóa các cảm biến này, nhưng chúng chưa đủ tốt cho các máy ảnh cao cấp.

Không có nghi ngờ gì sẽ là những tiến bộ trên nhiều mặt trận, và tôi chắc chắn rằng chúng ta sẽ thấy tiến bộ ổn định trong nhiều năm tới. Tuy nhiên, có những lý do chính đáng tại sao mọi thứ vẫn như hiện tại, không chỉ vì không ai có thể tưởng tượng điều gì tốt hơn. Nếu ai đó có một công nghệ có thể đo lường một phạm vi động rộng một cách chính xác và với mức giá mà mọi người sẵn sàng trả tiền, họ sẽ trở nên giàu có.


1

Tôi tin rằng nó quá phức tạp.

Về cơ bản sẽ có hai cách tiếp cận có thể; mỗi bộ cảm biến có thể theo dõi thời gian và tự tắt hoặc CPU có thể theo dõi dữ liệu từ bộ cảm biến và tắt chúng đi.

Đối với cách tiếp cận đầu tiên, điều đó có nghĩa là mỗi bộ cảm biến sẽ cần tín hiệu đồng hồ và bộ đếm, để nó có thể theo dõi thời gian cần thiết cho đến khi nó tự tắt. Đó là rất nhiều mạch để phù hợp với chip, và cần nhiều điện hơn để chạy nó, làm tăng nhiễu tín hiệu. Có lẽ nhiều đến mức phạm vi động tăng lên sẽ là vô nghĩa.

Đối với cách tiếp cận thứ hai, CPU sẽ cần phải đọc tất cả dữ liệu từ cảm biến khoảng 1/10000 giây. Đó là nhanh hơn khoảng 1000 lần so với công nghệ hiện tại có thể đạt được, vì vậy đó là thập kỷ trong tương lai, nếu có thể.

Ngoài ra, có một số biến chứng khác với giải pháp như vậy, như vậy mỗi pixel sẽ có thời gian phơi sáng khác nhau. Bạn sẽ nhận được những cổ vật khá kỳ lạ nếu bạn chụp bất cứ thứ gì di chuyển.


1
Tôi không tin rằng "mờ chuyển động chọn lọc" sẽ là một vấn đề lớn như vậy. Khi chụp một đối tượng chuyển động, các pixel sẽ phơi sáng lâu nhất sẽ là các pixel ở trong bóng tối suốt thời gian. Đây sẽ là bên trong các khu vực tối chủ yếu thống nhất, trong đó một số mờ sẽ không đáng chú ý. Điểm ảnh ở các cạnh giữa vùng tối và vùng sáng, trong trường hợp đối tượng đang di chuyển, sẽ có độ phơi sáng cao hơn và sẽ tắt nhanh hơn, dẫn đến độ mờ ít hơn.
Jan Hlavacek

0

Mặc dù đúng là máy ảnh DSLR là kỹ thuật số, nhưng ống kính thì không. Tất cả các cảm biến tế bào sẽ phải chịu cùng một khẩu độ cho dù thân máy DSLR có thông minh đến mức nào, bởi vì khẩu độ được đặt ở ống kính. Vì vậy, tôi nghĩ rằng việc thay đổi khẩu độ cho mỗi tế bào cảm biến là hết, ít nhất là với công nghệ ống kính hiện tại.

Theo tốc độ màn trập, được điều khiển bởi máy ảnh, nhưng nếu chúng ta tưởng tượng một máy ảnh có thể thay đổi tốc độ màn trập trên các phần khác nhau của hình ảnh để kiểm soát phơi sáng trên / dưới thì bạn sẽ bị mờ chuyển động không đều. Các phần tối hơn của cảnh sẽ phải được phơi sáng lâu hơn và sẽ mờ hơn so với các phần sáng hơn. Tôi nghĩ rằng một giải pháp thay đổi tốc độ màn trập sẽ không hoạt động vì lý do này.

Vì vậy, điều duy nhất còn lại là ISO. Thay đổi ISO có nghĩa là mức độ nhiễu khác nhau trong các phần khác nhau của hình ảnh. Điều này không có vẻ quá tệ, vì bạn sẽ nhận được một dải động tăng lên nhiều. Tôi không biết nhiều về cách các cảm biến hoạt động, nhưng tôi sẽ tưởng tượng rằng cài đặt ISO được triển khai trong các cảm biến như một loại "điều chỉnh" theo một tập hợp con cụ thể của thang độ sáng. Đối với tôi nghe có vẻ rất tốn kém khi có đo sáng độc lập và điều khiển ISO ở mọi tế bào cảm biến, nhưng có lẽ hình ảnh có thể được chia thành các khu vực và mỗi khu vực được đo riêng. Sau đó, máy ảnh sẽ phải có một số loại thuật toán để pha trộn các khu vực phơi sáng khác nhau, loại "enblend" sẽ làm gì khi nó lắp ráp một bức tranh toàn cảnh trong đó mỗi bức ảnh có độ phơi sáng khác nhau. Điều này nghe có vẻ với tôi.

Một lựa chọn khác là có một camera có nhiều cảm biến, mỗi cảm biến được cấu hình theo một ISO khác nhau. Trong công nghệ video có 3 camera CCD, trong đó mỗi camera ghi lại một màu đỏ, xanh lá cây và xanh dương. Tôi không hiểu tại sao không thể có một khái niệm tương tự cho máy ảnh DSLR, trong đó nhiều cảm biến chụp ảnh ở các mức ISO khác nhau, tạo ra một bức ảnh HDR.


0

Tôi không thể tìm thấy thông tin tại thời điểm này, nhưng tôi dường như nhớ lại việc đọc một mô tả về một công nghệ tương tự. Ý tưởng đại khái là thế này: điều duy nhất cần được quan tâm là những điểm nổi bật quá mức. Nếu bạn có thể ngăn chặn những điều đó, các vùng tối có thể được chăm sóc bằng cách tăng phơi sáng cho toàn bộ bức tranh. Vì vậy, để ngăn chặn các điểm nổi bật bị che khuất, mỗi cảm biến sẽ theo dõi ánh sáng tích lũy của nó và nếu gần đến mức tối đa, cảm biến sẽ tắt. Điều đó tự nó sẽ không cải thiện bất cứ điều gì, nó thực sự sẽ làm cho vấn đề tồi tệ hơn, thay vì có một vài điểm nổi bật màu trắng sáng, người ta sẽ kết thúc với những điểm nổi bật tối hơn một chút. Vì vậy, thay vì chỉ tắt, tế bào cũng sẽ tắt các tế bào trong một số khu phố, nơi sẽ bảo tồn một số chi tiết trong các khu vực sáng.

Như tôi đã viết, tôi không thể tìm thấy văn bản bây giờ, nhưng bằng cách nào đó nó trong tâm trí tôi liên quan đến máy ảnh kỹ thuật số HP.


Nếu bạn tìm thấy nó, xin vui lòng liên kết đến bài viết. Một ý tưởng thú vị thực sự.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.