Với các thuật toán học máy, thường có lợi khi sử dụng tính năng chia tỷ lệ hoặc chuẩn hóa để giúp thuật toán hội tụ nhanh chóng trong quá trình đào tạo và để tránh một tập hợp các tính năng thống trị một tính năng khác. Lấy ví dụ, vấn đề dự đoán giá cổ phiếu. Nếu bạn bao gồm các cổ phiếu có giá cao như Apple hoặc Microsoft cùng với một số cổ phiếu penny, các tính năng có giá trị cao mà bạn nhất thiết phải trích xuất từ Apple và giá của Microsoft sẽ áp đảo các cổ phiếu mà bạn trích xuất từ các cổ phiếu penny và bạn sẽ không được đào tạo về apple to apple cơ sở (không có ý định chơi chữ!), và mô hình được đào tạo kết quả có thể không khái quát lắm.
Tuy nhiên, imho "cố gắng giải mã và khử dữ liệu" sẽ là một việc rất nên làm. Trích xuất các thành phần tuần hoàn và xu hướng khác nhau và chuẩn hóa chúng bằng cách trừ đi các phương tiện tương ứng của chúng và chia cho độ lệch chuẩn của chúng sẽ đặt tất cả dữ liệu cho tất cả các chuỗi thời gian vào cùng một phạm vi gần đúng, và sau đó bạn sẽ được đào tạo về việc thích dữ liệu, khi nào thay đổi kích thước bằng cách đảo ngược quá trình chuẩn hóa, có khả năng khái quát hóa tốt hơn nhiều cho mục đích dự đoán.
Hơn nữa, đối với bất kỳ chuỗi thời gian nào, đó có thể là trường hợp xu hướng tràn vào thành phần tuần hoàn, do đó bạn có thể kết thúc đào tạo về dữ liệu chỉ theo xu hướng mà gần như chắc chắn sẽ không hoạt động tốt trên chuỗi thời gian theo chu kỳ và ngược lại. Bằng cách tách hai thành phần và đào tạo trên mỗi thành phần với các SVM hoặc NN riêng biệt và sau đó kết hợp lại hai dự đoán, bạn có thể kết thúc bằng một thuật toán chính xác và dễ khái quát hơn.