Làm thế nào một camera độ phân giải cao có thể quan trọng khi đầu ra có độ phân giải thấp?


17

Câu hỏi được lấy cảm hứng từ câu hỏi này cho thấy những hình ảnh .
Câu trả lời được chấp nhận cho thấy những bức ảnh này được chụp bởi máy ảnh có độ phân giải 8x10 và việc sử dụng máy ảnh 8x10 đã được xác nhận trong các bình luận.

Câu hỏi của tôi là: Làm thế nào bạn có thể nói?


Khi xem trên trang web, những hình ảnh này là 496x620 = 0,37 megapixel (hoặc 720x900 = 0,65 megapixel nếu bạn nhấp vào "chế độ xem toàn bộ").
Vì vậy, bất kỳ máy ảnh nào có độ phân giải cao hơn 0,37 Mpx đều có thể chụp được những bức ảnh này, có nghĩa là khá nhiều điện thoại thông minh và webcam trên thị trường.

Tôi biết về cảm biến của Bayer . Nhưng hiệu ứng xấu nhất của cảm biến Bayer phải là giảm độ phân giải xuống 4 lần: Nếu bạn hạ thấp hình ảnh theo hệ số hai theo mỗi hướng, mỗi pixel đầu ra sẽ chứa dữ liệu từ ít nhất một cảm biến đầu vào cho mỗi các kênh R / G / B.
Việc thu nhỏ theo yếu tố 4 vẫn có nghĩa là hơn bất kỳ máy ảnh nào có độ phân giải hơn 1,5Mpx (chứ không phải là 0,37Mpx của đầu ra) có thể chụp được những bức ảnh này. Chúng ta vẫn đang nói về khá nhiều điện thoại thông minh và hầu hết các webcam trên thị trường.

Tôi biết về độ sâu màu . Nhưng JPG, định dạng chúng tôi đang sử dụng để xem những hình ảnh này, là 8x3 = 24 bit. Và theo điểm số của DxOMark, có một số máy ảnh, bao gồm Sony NEX 7 và Nikon D3200, có khả năng chụp 24 bit màu.
Vì vậy, ngay cả khi một webcam 10 đô la không thể ghi lại được các sắc thái trong những bức ảnh này, một NEX 7 hoặc D3200 vẫn có thể làm được điều đó.

Tôi biết rằng hầu hết các ống kính có độ phân giải thấp hơn so với hầu hết các cảm biến có khả năng. Ví dụ, Nikkor 85mm f / 1.4G là ống kính sắc nét nhất của Nikon theo DxOMark và cho độ phân giải trường hợp tốt nhất tương đương với độ phân giải 19Mpx trên máy ảnh 24Mpx (ống kính full-frame của Nikon D3X), trong khi ống kính ít sắc nét nhất có trường hợp tốt nhất tương đương 8Mpx trên cùng một máy ảnh.
Nhưng ống kính tồi tệ nhất trong cơ sở dữ liệu của họ vẫn cho độ phân giải lớn hơn định dạng đầu ra của các ví dụ này.

Tôi biết về phạm vi năng động. Nhưng những hình ảnh này kiểm soát ánh sáng để chúng không thổi những điểm nổi bật cũng như không làm mất bóng. Miễn là bạn ở trong một vị trí để làm điều đó, phạm vi động không thành vấn đề; dù sao nó cũng sẽ được ánh xạ tới phạm vi đầu ra 0-255 của JPG.
Trong cả hai trường hợp, DxOMark nói rằng một số máy ảnh có cảm biến toàn khung hình hoặc nhỏ hơn có dải động tốt hơn so với máy ảnh định dạng trung bình tốt nhất.


Đó là những gì tôi biết, và không có gì trong những mảnh lý thuyết này có thể cho tôi biết làm thế nào có thể nói với máy ảnh có góc nhìn 8x10 từ Sony NEX 7 khi bạn xem kết quả dưới dạng JPG 0,37 Mpx.

Về cơ bản, theo như tôi hiểu, sẽ không liên quan đến số lượng megapixel và độ sâu màu của cảm biến có thể thu được bao nhiêu, miễn là nó ít nhất có thể đại diện cho định dạng đầu ra.

Tuy nhiên, tôi không nghi ngờ phán xét của câu trả lời từ Stan Rogers. Và tôi chưa bao giờ thấy bất cứ điều gì tương tự, về độ sắc nét nhận thức, từ máy ảnh cảm biến nhỏ.

Tôi đã hiểu sai ý nghĩa của giải pháp?

Tôi đoán tôi chủ yếu hỏi về lý thuyết: Làm thế nào có thể thấy sự khác biệt giữa hai độ phân giải (được đo bằng pixel, lp / mm, độ sâu màu hoặc bất cứ thứ gì) trong một định dạng hiển thị có độ phân giải ít hơn so với bản gốc?

Hoặc để diễn đạt nó theo cách khác: về nguyên tắc, có bất cứ điều gì ngăn cản tôi sao chép những hình ảnh này xuống pixel bằng cách sử dụng ánh sáng trị giá Sony NEX 7 và 10.000 đô la không?


2
Miễn là bạn có được mọi thứ hoàn hảo trong ảnh, sẽ không có nhiều lợi thế để chụp RAW qua JPEG. Độ phân giải, độ sâu bit và dữ liệu RAW là tất cả về việc tận dụng tối đa ảnh của bạn! Ảnh web nhỏ ngày hôm nay, màn hình retina 4x hoặc in chất lượng cao vào ngày mai.
Henrik

1
Thật không may, tôi chỉ có thể chấp nhận một câu trả lời. Matt Grum đưa ra một lập luận đáng tin cậy rằng một cảm biến nhỏ, cộng với ánh sáng và một chút xử lý bài đăng, có thể sao chép có lẽ 95% những gì chúng ta thấy trong các bức ảnh của Martin Schoeller ở kích thước web (không bao gồm các hiệu ứng DoF). Tôi nghĩ Michael Nielsen đưa ra một lập luận đáng tin cậy rằng bạn có thể cần tốt hơn độ phân giải hệ thống APS-C điển hình để đạt được 100%. Và Stan Rogers giải thích làm thế nào chúng ta có thể nhận ra một máy ảnh khổ lớn ngay cả trong các bức ảnh có kích thước web. Tôi đề nghị bạn đọc tất cả :)
jg-faustus

Câu trả lời:


10

Đó là tất cả về sự tương phản vi mô. Nhìn vào các bài viết về aps-c so với toàn khung hình và sau đó mở rộng sự khác biệt đó sang các cảm biến định dạng trung bình và lớn.

Khi nào thì sự khác biệt giữa APS-C và cảm biến khung hình đầy đủ có vấn đề, và tại sao?

Theo các lý thuyết về quá khổ, tốt hơn là lấy mẫu ở tốc độ cao hơn và sau đó lấy mẫu hơn là lấy mẫu ở giới hạn nyquist từ đầu - nghĩa là. nếu mục tiêu cuối cùng của bạn là 640x480, thì vẫn tốt hơn là sử dụng cảm biến 1280x960 so với cảm biến 640x480.

Dù sao, bạn có bao nhiêu MPixels khi các pixel lân cận phụ thuộc vào nhau, dù sao, do vòng tròn nhầm lẫn lớn hơn pixel của bạn trên mặt phẳng cảm biến. Các ống kính có khả năng giải quyết hạn chế, quá. Hơn nữa, bạn phải xem xét độ "sắc nét" của ống kính so với khẩu độ của nó và cảm biến lớn hơn cho phép bạn đến gần hơn và thu hẹp DOF lại, điều đó có nghĩa là bạn có thể chụp được nhiều chi tiết hơn - Vòng tròn nhầm lẫn lớn hơn, ống kính đang hoạt động với ít khuếch tán, v.v.

Và sau đó, bạn có "nén độ sâu" được thực hiện bởi độ dài tiêu cự của ống kính khá hung hăng trong những bức ảnh đó, chỉ vào một ống tele. FOV trên một cảm biến nhỏ sẽ yêu cầu bạn lùi lại một quãng đường dài và mở khẩu độ rất nhiều để có được DOF hẹp đó. Tuy nhiên, chạy các con số, với một máy ảnh full frame bạn có thể đạt được nó, khoảng cách 210mm, 2meters, F8 sẽ cho DOF 4 cm và FOV chỉ có khuôn mặt giống như những bức ảnh đó.

Đặt theo một cách khác: cảm biến càng lớn so với đối tượng, ống kính càng ít phải làm việc trên các tia sáng để nén chúng vào một điểm kín. Điều này làm tăng độ rõ của ảnh và cho thấy không có vấn đề về khoảng cách xem (đó là những gì đang được mô phỏng bằng cách thay đổi kích thước hình ảnh thành độ phân giải thấp hơn).

Theo dõi các cuộc thảo luận về nâng cao và duy trì chi tiết thông qua thay đổi kích thước ở đây một so sánh nếu các đối tượng tương tự định dạng lớn so với fullframe và định dạng lớn so với apsc:

Top: khuôn mặt nam có cuống râu. Trong độ phân giải trên trang web mà bạn liên kết đến, bộ râu được kết xuất với các sợi tóc trên toàn pixel, nhưng tất cả những gì bị mất ở cùng kích thước với ví dụ của Matt. Bây giờ râu được khuếch tán. Nếu chúng ta thấy hình ảnh của Matt có cùng kích thước với ảnh 8x10 trong trang web, chúng ta có thể thấy một sự khác biệt lớn nếu đầu không được lấy nét. Ngay cả một hệ thống aps-c và cảm biến nhỏ hơn cũng có thể tạo ra kết quả này (liên quan đến chi tiết).

Dưới cùng: là chúng ta so sánh lông mi của khuôn mặt nữ với kích thước tương tự như trên trang web bạn đã hiển thị, với mắt trong tiêu cự từ máy ảnh aps-c, và việc mài sắc sẽ không đưa lỗ chân lông trên da trở lại. Chúng tôi có thể tăng cường nhận thức về lông mi với chi phí của một quầng sáng xung quanh nó.

Bây giờ chúng ta thấy sự khác biệt lớn về độ phân giải "hệ thống tổng thể"camera apsc + ống kính được sử dụng + nhìn thấy ở độ phân giải thấp nhất định không thể hiển thị cùng chi tiết với máy ảnh 8x10 + ống kính + độ phân giải có thể xem . Hy vọng quan điểm của tôi rõ ràng hơn bây giờ.

chi tiết

Một so sánh khác với aps-c, cuống râu, sau khi mài chúng. Mặc dù stackexchange thay đổi kích thước chúng, chúng ta vẫn có thể nhận thấy sự khác biệt về độ rõ ràng.

apsc

Tóm lại, các yếu tố khác mà bạn đang hỏi về độ phân giải pixel là:

  • Tổng độ phân giải hệ thống lp / mm
  • SNR
  • Độ phóng đại từ người đến cảm biến đến màn hình bạn nhìn thấy ở khoảng cách nhất định mà bạn nhìn thấy từ hình chiếu của bạn trên độ phân giải võng mạc - độ phóng đại càng nhỏ (dưới 1: 1) của bất kỳ phần nào của hệ thống, nhu cầu càng cao đối với hai yếu tố trên, lần lượt bị ảnh hưởng tiêu cực bởi khu vực chiếu nhỏ hơn.

Bạn sẽ nhận được nhiều chi tiết hơn trong ảnh chụp macro bị thu hẹp so với bạn không chụp macro ở vị trí đầu tiên.

Một bằng chứng cuối cùng cho thấy độ phân giải trước khi hạ thấp vấn đề.Top: 21MP FF Dưới cùng: 15MP Aps-c với cùng tiêu cự ống kính / khẩu độ.

Hai cảm biến độ phân giải / kích thước

Bây giờ thay đổi kích thước để giải quyết bằng nhau:

Nhỏ

Nhỏ hơn

Nhỏ nhất

Nhỏ bé

và áp dụng một chút sắc nét để mang lại một số chi tiết. Bạn thấy gì? thêm một chút chi tiết từ camera FF 21mp được xem ở cùng kích thước / độ phân giải tương đương với camera 3Mp. bạn không thể đếm các dòng trong hình ảnh được chỉnh lại, nhưng nhận thức rằng chúng là các dòng là đúng. Cho dù bạn muốn điều này hay không là lựa chọn sáng tạo của bạn, nhưng bắt đầu với độ phân giải cao hơn (được đưa ra bởi toàn bộ hệ thống), bạn sẽ có được sự lựa chọn. Nếu bạn không muốn chúng, bạn có thể làm mờ hình ảnh trước khi thay đổi kích thước.

Một thử nghiệm cuối cùng cho thấy sự khác biệt giữa kích thước nhỏ, độ phân giải thấp so với cảm biến lớn hơn, độ phân giải cao hơn, nhưng được điều chỉnh lại và làm sắc nét với cùng độ phân giải, được hiển thị ở SAME SIZE cuối cùng - với TẤT CẢ ELSE. Tuyệt, hả? Làm thế nào tôi làm điều đó? Máy ảnh APS-C của tôi, tôi lấy mô phỏng "cảm biến crop" (nhỏ hơn apc-c của tôi) bằng cách cắt hình ảnh ra khỏi hình ảnh. Sau đó, tôi đến gần đối tượng hơn để lấp đầy một cảm biến lớn hơn gấp 4 lần với cùng một đối tượng. - giống như ảnh chân dung trên cảm biến định dạng lớn về cơ bản là ảnh macro - tiến gần hơn nhiều so với máy ảnh aps-c. Cùng chất lượng điện tử, cùng ống kính, cùng cài đặt, cùng ánh sáng.

Đây là giao diện của cảm biến nhỏ, hãy gọi nó là "mini aps-cc":

Cảm biến nhỏ

Ở đây chúng ta thấy "định dạng lớn" (aps-c lớn đầy đủ):

aps-c

Ở đây chúng ta thấy vô số chi tiết, phải không? Nhưng điều đó không thành vấn đề sau khi chúng tôi chỉnh lại hình ảnh thành 0,016MP và làm sắc nét cho độ tương phản tổng thể, phải không?

So sánh kích thước bằng nhau

Nhưng thực sự chúng tôi làm! Nếu bạn vẫn không tin tôi, tôi sẽ từ bỏ :)


Một lưu ý về mô hình mê cung mà các loại cây trồng này hiển thị: đó là tạo tác nội suy bayer phổ biến cho việc phá hủy AHD bayer.
Michael Nielsen

Tuy nhiên, nhận thức rằng nó là một mảng các dòng là đúng với bản gốc hơn là nhìn thấy một hộp màu xám. Giống như nhìn thấy lỗ chân lông trên da, có thể không phải là số lượng chính xác như đời thực, nhưng chúng sẽ ở đó.
Michael Nielsen

Cảm ơn, so sánh thú vị. Nó trông giống như độ sắc nét / chi tiết (hoặc ít nhất là ảo ảnh của chi tiết) tồn tại nhiều hơn so với tôi nghĩ. Bạn đã cho tôi một cái gì đó để xem xét.
jg-faustus

Hãy nhớ rằng các đường hội tụ là một cơn ác mộng đối với các thuật toán nội suy và chúng ta BIẾT nó trông như thế nào, chúng ta không có cùng một giả định về các chi tiết trong một kết cấu da đẹp, do đó, ngay cả khi một điểm di chuyển một nửa pixel vào mặt nó vẫn trông tuyệt vời. Trong ví dụ nhỏ nhất ở trên, chúng tôi vẫn nhận thấy rằng nó có các đường thẳng xuống theo chiều dọc thứ hai.
Michael Nielsen

Michael, một câu hỏi liên quan - nếu kích thước cảm biến là như nhau thì sao? Tôi sẽ nhận được kết quả tốt hơn từ cảm biến APS-C với độ phân giải 16 MP, nhưng được ghép xuống 8MP, trái ngược với việc mua máy ảnh (giả thuyết) với cảm biến 8MP ASP-C?
Vaddadi Kartick

7

Nhiều như bất cứ điều gì, máy ảnh cho đi là một độ sâu trường cực kỳ nông không song song với mặt phẳng phim. Lấy môi và mắt tập trung trong một số hình ảnh với tư thế của đối tượng và DoF rất nông (như thường lệ, trán ở dưới hàm ngay dưới mắt là mềm mại) là không thể nếu không nghiêng.

Ngoài ra còn có bản chất của phạm vi ngoài tiêu cự; đó là điển hình của biểu hiện gần như kích thước cuộc sống hơn là tập trung xa. Tiện ích mở rộng DoF về phía máy ảnh gần bằng với tiện ích mở rộng về phía hậu cảnh, đó là những gì bạn mong đợi khi tiếp cận tái tạo 1: 1. Ở các khoảng cách làm việc bình thường hơn, bạn sẽ mong đợi khoảng một phần ba / hai phần ba độ sắc nét rõ ràng xung quanh mặt phẳng tiêu cự sắc nét (một phần ba DoF ở phía trước mặt phẳng tiêu cự; hai phần ba phía sau). Vì vậy, điều đó cho thấy "cảm biến" lớn hơn đáng kể so với APS-C, định dạng toàn khung hình hoặc thậm chí là trung bình. Trải nghiệm với các định dạng 4x5 và 8x10 cho tôi biết nhiều khả năng đó là một chiếc 8x10 (mặc dù ngay cả một trong những máy ảnh có định dạng lớn hơn hiếm hoi cũng không nằm ngoài câu hỏi này) và tôi nghĩ rằng ống kính 210mm có thể xảy ra hơn, Nói,

Như Michael Nielsen đã chỉ ra, có rất nhiều "độ tương phản vi mô" rõ ràng trong các hình ảnh, nhưng ở một mức độ nào đó bạn có thể giả mạo rằng trong xử lý hậu kỳ, đặc biệt là nếu mục đích là hiển thị ở kích thước webby. Và tôi cho rằng bạn thậm chí có thể giả mạo DoF và mặt phẳng tiêu cự nếu bạn siêng năng trong việc tạo bản đồ độ sâu với mặt phẳng tiêu cự được áp dụng cho mô hình 3D của đối tượng và hiểu được động lực học tiêu cự của một chiếc 8x10 tại tái tạo kích thước cuộc sống khoảng 50-60%, nhưng đó sẽ là một trong rất nhiều công việc. Giải pháp kinh tế, cho cả nhiếp ảnh gia và bất kỳ ai phân tích hình ảnh, sẽ là một máy ảnh thực tế có độ phân giải 8x10.


Tuy nhiên, việc tăng vi điều khiển trong bài đăng giới thiệu các tạo tác, cũng như các thuật toán đang "đoán" các chi tiết, vì vậy nó sẽ không giống nhau.
Michael Nielsen

@Michael nhưng trong một bản sao thay đổi kích thước có thể cho tất cả các mục đích không rõ ràng? Hay không?
Francesco

Đã "đến một mức độ" mơ hồ?

Bạn có nghĩa là nếu bạn làm sắc nét trước và sau đó thay đổi kích thước nơi tăng cường bị xóa, trừ khi cửa sổ bộ lọc đường cao quá lớn đến nỗi nó giới thiệu đổ chuông trên khung? Các chi tiết trong những bức chân dung đó rất đáng kinh ngạc, nếu bạn kiểm tra một vùng cắt 1x50 pixel của da, nó trông giống như một hình ảnh nhị phân, có thể dễ dàng tạo ra các vòng hào quang với các bộ lọc sắc nét.
Michael Nielsen

3
@MichaelNielsen khi thực hiện một mẫu nhỏ, bạn có thể giới thiệu răng cưa trong một hình ảnh hoàn toàn mềm mại (không có bất kỳ vi điều khiển nào) và có được một hình ảnh trông cực kỳ sắc nét không có quầng sáng hoặc các tạo tác sắc nét khác. Nếu không phải là mặt phẳng lấy nét nghiêng, bạn sẽ không thể nói những hình ảnh đó có định dạng lớn bằng cách nhìn vào "chi tiết" rõ ràng
Matt Grum

4

Không, máy ảnh độ phân giải cao thực sự không thành vấn đề khi đầu ra có độ phân giải thấp, ít nhất là khi bạn chuyển từ megapixel hai chữ số xuống còn một phần tư megapixel. Lấy hình ảnh sau:

Thay đổi kích thước cho web, nó trông vẫn ổn mặc dù thực tế là khuôn mặt của đối tượng thậm chí không tập trung! Rõ ràng khi được xem ở mức 100% và rõ ràng khi in, nhưng bạn hoàn toàn không thể biết được thời gian nó được thay đổi kích thước thành 2% pixel gốc và được làm sắc nét cho web.

Đây là một ví dụ khác, chụp ảnh gốc ồ ạt, ở khoảng 8 megapixel:

Giảm mạnh xuống một độ phân giải thân thiện với web và làm sắc nét, và đột nhiên nhìn vào tất cả các vi điều khiển!

Một oversampling 2x chắc chắn sẽ giúp độ phân giải và độ trung thực màu sắc của hình ảnh Bayer. Nhưng một hình ảnh từ Canon Digital Rebel (300D) ban đầu được phát hành trở lại vào năm 2003 đã thay đổi kích thước thành 600x400 là một hình ảnh quá khổ 5x, theo mỗi hướng có nghĩa là mỗi pixel trong hình ảnh đã thay đổi kích thước thay cho 25 pixel gốc. Rất, rất ít chất lượng của 25 pixel đó sẽ tạo ra ảnh hưởng đến hình ảnh đã thay đổi kích thước.

Vi điều khiển gia tăng được cung cấp bởi một hệ thống định dạng lớn hơn đơn giản là không thể nhìn thấy, macrocontrast mà bạn thấy có thể được bù lại bằng cách xử lý hậu kỳ, khi bạn có quá nhiều độ phân giải để loại bỏ các tạo tác sắc nét sẽ không nhìn thấy được.

Nếu bạn phù hợp với độ sâu trường ảnh thì sẽ rất khó để phân biệt sự khác biệt giữa máy ảnh có kích thước 10 x 8 và nhỏ gọn khi thay đổi kích thước thành dưới 1 megapixel.


Tôi có thể nhìn thấy khuôn mặt của anh ấy trong cùng kích thước với chân dung không?
Michael Nielsen

vâng khi tôi về nhà và đào ra bản gốc!
Matt Grum

Tôi phải không đồng ý với tuyên bố thẳng thừng "một camera độ phân giải cao thực sự không thành vấn đề khi đầu ra có độ phân giải thấp". Tỷ lệ quá khổ và độ phóng đại có vấn đề trong kết quả cuối cùng (đến một giới hạn nhất định).
Michael Nielsen

1
bạn đang nhận được các chi tiết đẹp trong hình ảnh nhỏ chính xác bởi vì bạn quá nhiều lần. Nếu bạn chỉ sử dụng quá khổ gấp 2 lần với cùng một độ mờ sẽ không nhận được bất kỳ chi tiết nào về da. Và bạn dùng nó quá mức với sự sắc nét, mái tóc của anh ta trông thật kỳ lạ. Hơn nữa, ảnh này trông giống như một hình ảnh cấp thấp điển hình. không có gì giống như những hình ảnh mà chúng ta đang nói đến, vẫn giữ được nhiều chi tiết hơn hệ thống APS-C với ống kính phong nha có thể tạo ra.
Michael Nielsen

Cảm ơn ví dụ mới nhất, nó có vẻ đáng tin cậy rằng một cái gì đó giống như hình ảnh được liên kết trong câu hỏi có thể được tạo bằng cảm biến APS-C. @MichaelNielsen Nhưng đó là loại câu hỏi quá khổ về vấn đề này, ví dụ như hạ thấp nói rằng ảnh APS-C 16Mpx có kích thước web <1Mpx. Vì vậy, về mặt quá khổ, ví dụ như quá khổ 7x (đầu vào 49 pixel đến đầu ra 1 px) có thể nhìn thấy rõ hơn so với quá khổ 5x? Tôi đang nghiêng về phía "có lẽ là không", trong ví dụ của bạn với các dòng tôi không thể thấy nhiều / bất kỳ sự khác biệt nào ngoài việc vượt quá 4x.
jg-faustus

1

Khi hiển thị cảnh có chi tiết đẹp thành hình ảnh có độ phân giải thấp, cần áp dụng lọc không gian để xóa bất kỳ nội dung nào có tần số vượt quá giới hạn Nyquist. Khi áp dụng lọc không gian, có hai mục tiêu mâu thuẫn nhau:

  1. Nội dung có tần số không gian đủ thấp để hiển thị nên được giảm thiểu càng ít càng tốt.

  2. Nội dung có tần số không gian tương tự nhau sẽ bị suy giảm bởi số lượng gần bằng nhau.

Để xem các mục tiêu xung đột ở đâu, hãy tưởng tượng một cảnh có mô hình các đường hội tụ. Nếu khoảng cách có phần gần giới hạn Nyquist cho độ phân giải mục tiêu, nhưng các dòng luôn được phân tách đủ để được hiển thị rõ ràng, sẽ tốt hơn là hiển thị chúng rõ ràng hơn là làm mờ chúng. Tuy nhiên, nếu cảnh chứa mô hình các đường hội tụ quá gần để có thể phân biệt được, thì các đường trở nên mờ dần khi khoảng cách của chúng tiếp cận giới hạn độ phân giải sẽ ít gây mất tập trung hơn so với các đường xuất hiện rõ ràng đến điểm mà chúng xuất hiện rõ ràng chuyển mạnh sang màu xám.

Trong nhiều trường hợp, loại lọc tối ưu cho một cảnh sẽ phụ thuộc vào nội dung của nó và khía cạnh nào của cảnh đó được quan tâm. Chụp một cảnh ở độ phân giải cao hơn định dạng đầu ra dự định của nó sẽ đảm bảo rằng tất cả thông tin thể mong muốn trong ảnh cuối cùng sẽ được giữ lại. Thông tin sẽ phải được lọc ra trước khi hình ảnh có thể được hiển thị ở độ phân giải thấp hơn, nhưng chụp có độ phân giải cao sẽ giúp điều chỉnh các phương thức lọc chính xác để phù hợp tối ưu với nhu cầu của cảnh (và có thể sử dụng các phương pháp khác nhau cho khác nhau các bộ phận của một cảnh). Nếu một người có ý định kết xuất một hình ảnh cuối cùng ở 640x480, lợi ích của việc chụp nó ở 6400x4800 có lẽ sẽ không lớn hơn nhiều so với mức 1600x1200 có thể có, nhưng có thể có một số lợi ích khi tăng lên khoảng 2,5 lần.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.