Liệu sự phát triển thần kinh của các cấu trúc liên kết tăng cường (NEAT) có thể được xây dựng trong TensorFlow không? [đóng cửa]


7

Tôi đang thực hiện một chương trình học máy để phân tích dữ liệu chuỗi thời gian và sử dụng NEAT có thể giúp ích cho công việc. Tôi đã bắt đầu tìm hiểu TensorFlow cách đây không lâu nhưng có vẻ như các biểu đồ tính toán trong TensorFlow thường được cố định. Có công cụ nào trong TensorFlow để giúp xây dựng một mạng lưới thần kinh phát triển linh hoạt không? Hoặc một cái gì đó như PyTorch sẽ là một sự thay thế tốt hơn? Cảm ơn.

Câu trả lời:



0

Ngôn ngữ Python có thể mở rộng linh hoạt như hầu hết các ngôn ngữ khác, vì vậy không có lý do gì mà chức năng NEAT không thể được triển khai linh hoạt trong Python. Vì xu hướng là chuyển các quy trình chuyên sâu tính toán sang tăng tốc USB-3 hoặc uPCIe hoặc lõi GPU, nên nhiều khả năng các biểu đồ tính toán sẽ được tải lên phần cứng cùng với dữ liệu đào tạo để tối đa hóa thông lượng. Ngay cả khi không có khả năng tăng tốc phần cứng, các ngôn ngữ kịch bản thường ủy thác các gánh nặng tính toán cao cho các thư viện động C / C ++ được điều chỉnh và tối ưu hóa.

Các khung công tác Python như TensorFlow hoặc PyTorch và các khung Java như DL4J sau đó sẽ gọi mã C ++ hoặc ncpp để xử lý việc mở, tải lên và tải xuống kết quả của thiết bị. Tất cả các khung mức cao này và các ngôn ngữ mà chúng được viết có thể xử lý các thành phần tính toán cấp thấp mới có thể truy cập thông qua các API mới và các lớp giao diện linh hoạt hỗ trợ các chiều rộng và cấu trúc biến đổi trong các luồng dữ liệu.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.