Có ai biết có giới hạn số lượng đối tượng mà tôi có thể đặt trong một thùng S3 không? tôi có thể bỏ một triệu, 10 triệu, v.v .. tất cả vào một thùng?
Có ai biết có giới hạn số lượng đối tượng mà tôi có thể đặt trong một thùng S3 không? tôi có thể bỏ một triệu, 10 triệu, v.v .. tất cả vào một thùng?
Câu trả lời:
Theo Amazon:
Ghi, đọc và xóa các đối tượng chứa từ 0 byte đến 5 terabyte dữ liệu mỗi đối tượng. Số lượng đối tượng bạn có thể lưu trữ là không giới hạn.
Nguồn: http://aws.amazon.com/s3/details/ kể từ ngày 3 tháng 9 năm 2015.
Có vẻ như giới hạn đã thay đổi. Bạn có thể lưu trữ 5TB cho một đối tượng.
Tổng khối lượng dữ liệu và số lượng đối tượng bạn có thể lưu trữ là không giới hạn. Các đối tượng Amazon S3 riêng lẻ có thể có kích thước từ tối thiểu 0 byte đến tối đa 5 terabyte. Đối tượng lớn nhất có thể được tải lên trong một PUT là 5 gigabyte. Đối với các đối tượng lớn hơn 100 megabyte, khách hàng nên cân nhắc sử dụng khả năng Tải lên nhiều phần.
Từ tài liệu,
Không có giới hạn về số lượng đối tượng có thể được lưu trữ trong một nhóm và không có sự khác biệt về hiệu suất cho dù bạn sử dụng nhiều nhóm hay chỉ một vài nhóm. Bạn có thể lưu trữ tất cả các đối tượng của mình trong một nhóm hoặc bạn có thể sắp xếp chúng trên nhiều nhóm.
kể từ tháng 8 năm 2016
Mặc dù bạn có thể lưu trữ số lượng tệp / đối tượng không giới hạn trong một nhóm duy nhất, nhưng khi bạn liệt kê một "thư mục" trong một nhóm, nó sẽ chỉ cung cấp cho bạn 1000 tệp / đối tượng đầu tiên trong nhóm đó theo mặc định. Để truy cập tất cả các tệp trong một "thư mục" lớn như thế này, bạn cần thực hiện nhiều lệnh gọi tới API của chúng.
Không có giới hạn nào đối với số lượng đối tượng bạn có thể lưu trữ trong nhóm S3 của mình. AWS tuyên bố nó có bộ nhớ không giới hạn. Tuy nhiên, có một số hạn chế -
Điều đó đang được nói nếu bạn thực sự có nhiều đối tượng được lưu trữ trong S3 bucket, hãy xem xét việc ngẫu nhiên hóa tiền tố tên đối tượng của bạn để cải thiện hiệu suất.
Khi khối lượng công việc của bạn là sự kết hợp của các loại yêu cầu, hãy giới thiệu một số ngẫu nhiên cho các tên khóa bằng cách thêm chuỗi băm làm tiền tố cho tên khóa. Bằng cách giới thiệu tính ngẫu nhiên cho các tên khóa của bạn, tải I / O sẽ được phân phối trên nhiều phân vùng chỉ mục. Ví dụ: bạn có thể tính toán băm MD5 của chuỗi ký tự mà bạn định gán làm khóa và thêm 3 hoặc 4 ký tự từ băm làm tiền tố cho tên khóa.
Thông tin chi tiết - https://aws.amazon.com/premiumsupport/knowledge-center/s3-bucket-performance-improve/
- Tính đến tháng 6 năm 2018
"Bạn có thể lưu trữ bao nhiêu đối tượng tùy thích trong một nhóm và ghi, đọc và xóa các đối tượng trong nhóm của mình. Các đối tượng có thể có kích thước lên đến 5 terabyte."
từ http://aws.amazon.com/s3/details/ (kể từ ngày 4 tháng 3 năm 2015)
@ Acyra- hiệu suất phân phối đối tượng từ một nhóm sẽ phụ thuộc rất nhiều vào tên của các đối tượng trong đó.
Nếu tên tệp bị phân biệt bởi các ký tự ngẫu nhiên thì vị trí thực của chúng sẽ được lan truyền xa hơn trên phần cứng AWS, nhưng nếu bạn đặt tên cho mọi thứ là 'common-x.jpg', 'common-y.jpg' thì các đối tượng đó sẽ được lưu trữ cùng nhau.
Điều này có thể làm chậm việc phân phối tệp nếu bạn yêu cầu chúng đồng thời nhưng không đủ làm bạn lo lắng, rủi ro lớn hơn là do mất dữ liệu hoặc ngừng hoạt động, vì các đối tượng này được lưu trữ cùng nhau, chúng sẽ bị mất hoặc không khả dụng cùng nhau.