Cách chọn dịch vụ đám mây để sao lưu


12

Tôi đang nghĩ đến việc sử dụng dịch vụ đám mây để sao lưu một trong những trang web của khách hàng.

Mối quan tâm chính của tôi (khách hàng) là (theo thứ tự quan trọng giảm dần)

  1. Bảo vệ IP (bí mật thương mại, mã nguồn), chi tiết tài khoản người dùng, v.v.
  2. Đảm bảo thời gian hoạt động được cung cấp bởi nhà cung cấp dịch vụ (để giảm thiểu thời gian ngừng hoạt động của máy chủ web)
  3. Giá cả
  4. Tốc độ tải lên / tải xuống

Lý tưởng nhất, tôi muốn dịch vụ không có sự ràng buộc lâu dài (nghĩa là tôi thích một loại dịch vụ "trả tiền khi bạn đi"

Tôi cũng muốn tránh nhà cung cấp khóa, nơi không thể chuyển sang dịch vụ khác.

Tôi muốn một số hướng dẫn chung về:

  1. Cách chọn nhà cung cấp dịch vụ
  2. Ai là người chơi chính trong lĩnh vực này
  3. đề xuất phần mềm sử dụng cho: sao lưu / khôi phục / và tải lên / tải xuống các tệp đã lưu / khôi phục

Phần mềm máy chủ sẽ là Ubuntu hoặc Debian (Có lẽ tôi sẽ đăng câu hỏi về hệ điều hành nào sẽ được sử dụng làm máy chủ - Tôi đã quen với Ubuntu)


Trang web lớn như thế nào? Có bao gồm cơ sở dữ liệu lớn? Bất kỳ số liệu công viên bóng trên bao nhiêu khách hàng sẵn sàng chi tiêu? (100 đô la / tháng, 10.000 đô la / tháng?)
RJFalconer

3
liên quan đến "bí mật thương mại và mã nguồn", thông tin rất quan trọng không thuộc về "đám mây", bất kể dịch vụ có vẻ uy tín đến mức nào.

Câu trả lời:


4

Bất kỳ giải pháp nào không bao gồm mã hóa ở phía máy khách với các khóa do chủ sở hữu nắm giữ sẽ không đáp ứng yêu cầu đã nêu đầu tiên (bảo vệ / bảo mật IP) - bất kỳ hack nào của phía máy chủ đều tiết lộ dữ liệu không được mã hóa. Điều này loại trừ các hệ thống đồng bộ hóa trên đám mây như Dropbox sở hữu các khóa.

Để tránh lưu trữ các khóa mã hóa quan trọng trên máy chủ của trang web, cũng có khả năng bị hack tại một số điểm, đây là những gì tôi sẽ làm:

  1. Máy chủ sao lưu nội bộ trên trang web riêng của khách hàng - có khóa mã hóa và khóa SSH cho cả hai máy chủ khác
  2. Máy chủ lưu trữ trang web - có thể là máy chủ web
  3. Máy chủ hoặc dịch vụ sao lưu đám mây

Bước 1: Máy chủ (1) lấy bản sao lưu từ (2), vì vậy hầu hết các bản hack của máy chủ trang web sẽ không thỏa hiệp các bản sao lưu. Mã hóa diễn ra vào thời điểm này.

  • Tôi sẽ sử dụng rsnapshot qua SSH bằng cách sử dụng đăng nhập dựa trên khóa, vì điều này có yêu cầu tối thiểu trên máy chủ web và máy chủ sao lưu trong nhà - trừ khi bạn có DB lớn để sao lưu băng thông rất hiệu quả và lưu trữ nhiều phiên bản của trang web, và cũng xử lý thanh trừng các bản sao lưu cũ.
  • Mã hóa có thể được thực hiện bằng bất kỳ tệp nào thành công cụ tệp như GPG, sao chép cây rsnapshot sang cây khác - hoặc bạn có thể sử dụng bản sao cho bước 2, tiết kiệm dung lượng đĩa.
  • "Kéo" từ máy chủ dự phòng rất quan trọng - nếu máy chủ chính (2) có mật khẩu / khóa cho máy chủ dự phòng, tin tặc có thể và đôi khi sẽ xóa các bản sao lưu sau khi hack máy chủ chính (xem bên dưới). Các bản hack thực sự tiên tiến có thể cài đặt các tệp nhị phân SSH bị tấn công, sau đó có thể xâm phạm máy chủ dự phòng, nhưng điều đó ít có khả năng đối với hầu hết các công ty.

Bước 2: máy chủ (1) đẩy các bản sao lưu được mã hóa lên (3) để có bản sao lưu ngoại vi. Nếu các bản sao lưu được mã hóa ở bước 1, bạn chỉ có thể sử dụng máy nhân bản rsync của cây rsnapshot cục bộ cho hệ thống từ xa.

  • Sao chép sẽ là một lựa chọn tốt để trực tiếp mã hóa và sao lưu cây rsnapshot không được mã hóa vào máy chủ từ xa. Các tính năng của trùng lặp hơi khác so với rsnapshot, sử dụng kho lưu trữ tar được mã hóa GPG, nhưng nó cung cấp mã hóa dự phòng trên máy chủ từ xa và chỉ yêu cầu SSH trên máy chủ đó (hoặc có thể sử dụng Amazon S3). Sao chép không hỗ trợ các liên kết cứng , vì vậy nếu điều này là bắt buộc (ví dụ: để sao lưu toàn bộ máy chủ), tốt nhất là nếu tập lệnh chuyển đổi cây rsnapshot (hỗ trợ các liên kết cứng) thành tệp tar (có thể chỉ là các tệp có> 1 liên kết cứng, sẽ khá nhỏ) để sao chép có thể sao lưu tệp tar.
  • Vì máy chủ từ xa chỉ là máy chủ SSH, có thể là rsync, nên nó có thể là máy chủ web (nhưng từ một nhà cung cấp dịch vụ lưu trữ khác và ở một phần khác của quốc gia) hoặc dịch vụ đám mây cung cấp rsync và / hoặc SSH - xem câu trả lời này về sao lưu rsync lên đám mây cho đề xuất của bqbackup và rsync.net, mặc dù tôi không đồng ý với thiết lập sao lưu được đề cập.
  • Bạn có thể sử dụng Amazon S3 làm máy chủ từ xa với tính trùng lặp, điều này sẽ cung cấp cho bạn tính khả dụng thực sự tốt mặc dù có lẽ sẽ tốn nhiều chi phí hơn cho các bản sao lưu lớn.
  • Các tùy chọn khác cho sao lưu được mã hóa từ xa là Boxbackup (chưa hoàn thiện, một số tính năng hay) và Tarsnap (dịch vụ đám mây thương mại dựa trên Amazon S3 với giao diện dòng lệnh đơn giản, chống trùng lặp tốt và mã hóa rất kỹ lưỡng).

Bảo mật của tất cả các máy chủ khác nhau rất quan trọng, do đó, điều này cần được điều chỉnh để đáp ứng hồ sơ bảo mật của máy khách, tức là phân tích các mối đe dọa, rủi ro, vectơ tấn công, v.v. Ubuntu Server không phải là một khởi đầu tồi vì nó có cập nhật bảo mật thường xuyên cho 5 năm, nhưng cần chú ý đến bảo mật trên tất cả các máy chủ.

Thiết lập này cung cấp 2 bản sao lưu độc lập, một trong số đó có thể là dịch vụ lưu trữ đám mây khả dụng cao, hoạt động ở chế độ kéo để hầu hết các cuộc tấn công trên trang web không thể phá hủy các bản sao lưu cùng một lúc và nó sử dụng các công cụ nguồn mở đã được chứng minh tốt đòi hỏi nhiều quản trị.

  • Sao lưu độc lập là rất quan trọng, bởi vì tin tặc đôi khi thực sự xóa tất cả các bản sao lưu cùng lúc với việc hack trang web - trong trường hợp gần đây nhất, tin tặc đã phá hủy 4800 trang web, bao gồm các bản sao lưu bằng cách hack môi trường lưu trữ web thay vì các trang web. Xem thêm câu trả lời nàycái này .
  • Việc khôi phục rất dễ dàng với rsnapshot - có một tệp trong mỗi cây chụp nhanh cho mỗi tệp được sao lưu, vì vậy chỉ cần tìm các tệp có công cụ Linux và rsync hoặc quay lại trang web. Nếu vì lý do nào đó, máy chủ sao lưu tại chỗ không khả dụng, chỉ cần sử dụng bản sao để khôi phục chúng từ máy chủ sao lưu đám mây - hoặc bạn có thể sử dụng các công cụ tiêu chuẩn như GPG, rdiff và tar để khôi phục các bản sao lưu.

Vì thiết lập này sử dụng SSH và rsync tiêu chuẩn, nên dễ dàng hơn để chọn nhà cung cấp phù hợp với bảo đảm thời gian hoạt động phù hợp, bảo mật mạnh mẽ, v.v. Bạn không cần phải ký hợp đồng dài và nếu dịch vụ sao lưu có thảm họa thất bại, bạn vẫn có một bản sao lưu cục bộ và có thể chuyển sang một dịch vụ sao lưu khác khá dễ dàng.


rsnapshot không chỉ hỗ trợ các liên kết cứng, nó sử dụng chúng trong biểu diễn bên trong của nó. Vì vậy, trùng lặp sẽ không sao lưu chính xác lưu trữ dữ liệu rsnapshot mà không bỏ qua nó.
ptman

@ptman: Điều đó đúng - tuy nhiên không phải tất cả các cây rsnapshot đều cần được xử lý. Tôi sẽ sử dụng tính trùng lặp để sao lưu thư mục rsnapshot "Daily.0" trong cây rsnapshot, trong đó có ảnh chụp nhanh nhất của cây thư mục được sao lưu. Các liên kết chụp nhanh liên kết của Rupnapshot giữa Daily.0, Daily.1, v.v., không liên quan đến bản sao lưu trùng lặp, chỉ thấy các liên kết giữa hai tệp trong cây chụp nhanh hàng ngày, tương ứng với các liên kết cứng trên hệ thống được sao lưu. Tar có thể nắm bắt các liên kết đó OK và trùng lặp có thể sao lưu chúng thông qua tệp tar.
RichVel

2

Phần mềm-khôn ngoan, hãy xem xét tráo để sao lưu gia tăng với mã hóa -do không đối xứng và một máy thu câm (không mây howto ).


1

Tôi luôn nói với khách hàng của mình rằng giải pháp sao lưu tốt nhất, ít tốn kém nhất và hiệu quả nhất là giải pháp mà bạn tự xây dựng, cho mục đích của riêng bạn.

Khi tôi xây dựng một hệ thống cho các khách hàng của mình, tôi sử dụng rsync với các khóa SSH để xử lý xác thực giữa serverA và serverB, trong đó serverA chứa dữ liệu được sao lưu. Lệnh lưu trữ và rsync dữ liệu được chứa trong tập lệnh bash trong thư mục không truy cập được trên web, được gọi bởi cron mỗi giờ H (24 cho hàng ngày, v.v.)

Máy chủ dự phòng, serverB, sẽ được sử dụng DUY NHẤT để sao lưu. Tôi luôn khuyên khách hàng của mình sử dụng mật khẩu cực kỳ dài với xác thực khóa SSH để cho phép tải xuống các bản sao lưu và sao lưu. Đôi khi, khách hàng của tôi cần sao lưu để lưu trong D ngày, vì vậy tôi viết một số tập lệnh để xử lý việc đó (lấy dữ liệu từ thư mục sao lưu hoạt động, áp dụng dấu thời gian, thêm vào kho lưu trữ trong thư mục khác).


0

Đối với doanh nghiệp / số lượng nhỏ, tôi muốn giới thiệu Dịch vụ lưu trữ của Amazon .

  • Kiểm soát khu vực (Các đối tượng được lưu trữ trong EU không bao giờ rời khỏi EU).
  • 99,9% thời gian hoạt động cho bất kỳ chu kỳ thanh toán cụ thể
  • $ 0,150 mỗi GB được lưu trữ mỗi tháng
  • $ 0,170 mỗi GB được tải xuống
  • Tải lên miễn phí cho đến tháng 6 năm 2010, $ 0,10 cho mỗi GB sau đó

Và sự đảm bảo khá mơ hồ rằng "Các cơ chế xác thực được cung cấp để đảm bảo dữ liệu được bảo mật khỏi sự truy cập trái phép"


0

Mặc dù bluenovember đang đi đúng hướng với S3, nhưng hệ thống của Amazon không thực sự là một giải pháp sao lưu dự phòng, đó là một giải pháp lưu trữ dữ liệu thô vẫn cần sử dụng hệ thống giao diện người dùng để sao lưu, cho dù đó là một vài lệnh gọi API hay bộ quản lý sao lưu đầy đủ. Một cái gì đó giống như JungleDisk Server Edition , sử dụng S3 ở phần phụ trợ nhưng cung cấp giao diện tốt hơn để sử dụng làm giải pháp sao lưu, có lẽ sẽ tốt hơn.

Ngoài ra, JungleDisk sẽ cung cấp cho bạn mã hóa tích hợp, một thứ bạn cần thêm vào bất kể bạn dự định kết nối với S3 / "đám mây" như thế nào. Họ cũng có một số phần mềm máy khách khá đẹp cho Linux.


0

Tôi thích lưu trữ bản sao lưu của mình trong Amazon AWS và tôi sử dụng công cụ miễn phí s3cmd ( http://s3tools.org/s3cmd )

Nó có thể được cài đặt khá dễ dàng (Debian: apt-get install s3cmd).

Tất cả bạn cần một tài khoản Amazon AWS để lưu trữ các tệp của bạn trên S3. Sau đó, một lệnh đơn giản có thể chạy bản sao lưu của bạn, thậm chí tăng dần hoặc như một giải pháp đồng bộ hóa, ví dụ:

s3cmd sync /srv/backup  s3://your-bucket-name-at-amazon/

Hãy chắc chắn rằng bạn chạy

s3cms --configure 

đầu tiên để nhập thông tin AWS của bạn.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.