Không kết hợp cũng không chạy mỗi lần lặp đào tạo với một trình tự khác nhau là điều nên làm. Cách tiếp cận đúng yêu cầu một số giải thích:
Người ta thường huấn luyện HMM bằng thuật toán EM. Điều này bao gồm một số lần lặp lại. Mỗi lần lặp có một bước "ước tính" và một bước "tối đa hóa". Trong bước "tối đa hóa", bạn căn chỉnh từng vectơ quan sát x với trạng thái s trong mô hình của bạn để một số biện pháp khả năng được tối đa hóa. Trong bước "ước tính", với mỗi trạng thái, bạn ước tính (a) các tham số của mô hình thống kê cho các vectơ x được căn chỉnh theo s và (b) xác suất chuyển trạng thái. Trong lần lặp sau, bước tối đa hóa chạy lại với các mô hình thống kê được cập nhật, v.v. Quá trình được lặp lại một số lần đã đặt hoặc khi số đo khả năng dừng tăng đáng kể (nghĩa là mô hình hội tụ thành một giải pháp ổn định). Cuối cùng, (ít nhất là trong nhận dạng giọng nói), một HMM thường sẽ có "bắt đầu" được chỉ định
Vì vậy, nếu bạn có nhiều chuỗi đào tạo, trên bước ước tính, bạn nên chạy từng chuỗi để vectơ quan sát ban đầu của nó phù hợp với trạng thái ban đầu. Bằng cách đó, số liệu thống kê về trạng thái ban đầu đó được thu thập từ các quan sát đầu tiên trên tất cả các chuỗi quan sát của bạn và trong các vectơ quan sát chung được căn chỉnh theo các trạng thái có khả năng nhất trong mỗi chuỗi. Bạn sẽ chỉ thực hiện bước tối đa hóa (và các lần lặp lại trong tương lai) sau khi tất cả các trình tự đã được cung cấp cho đào tạo. Ở lần lặp lại tiếp theo, bạn sẽ làm chính xác điều tương tự.
Bằng cách căn chỉnh bắt đầu của mỗi chuỗi quan sát với trạng thái ban đầu, bạn sẽ tránh được vấn đề nối các chuỗi trong đó bạn sẽ mô hình hóa các chuyển tiếp không chính xác giữa kết thúc một chuỗi và bắt đầu tiếp theo. Và bằng cách sử dụng tất cả các chuỗi trên mỗi lần lặp, bạn tránh cung cấp các chuỗi khác nhau cho mỗi lần lặp, như phản hồi đã lưu ý, sẽ không đảm bảo sự hội tụ.