Câu hỏi được gắn thẻ «deep-learning»

Học sâu là một lĩnh vực học máy với mục tiêu là học các chức năng phức tạp bằng cách sử dụng kiến ​​trúc mạng nơ-ron đặc biệt "sâu" (bao gồm nhiều lớp). Thẻ này nên được sử dụng cho các câu hỏi về việc triển khai kiến ​​trúc học sâu. Các câu hỏi chung về học máy nên được gắn thẻ "học máy". Bao gồm một thẻ cho thư viện phần mềm có liên quan (ví dụ: "keras", "tensorflow", "pytorch", "fast.ai" và v.v.) là hữu ích.


3
Hiểu biết về KST LSTM
Tôi đang cố gắng điều hòa sự hiểu biết của tôi về các LSTM và chỉ ra ở đây trong bài viết này của Christopher Olah thực hiện ở Keras. Tôi đang theo dõi blog được viết bởi Jason Brownlee cho hướng dẫn của Keras. Điều tôi chủ yếu bối …




3
Làm thế nào để diễn giải sự mất mát của tinh thần và độ chính xác của người dùng cho một mô hình học máy
Khi tôi huấn luyện mạng lưới thần kinh của mình với Theano hoặc Tensorflow, họ sẽ báo cáo một biến gọi là "mất" mỗi epoch. Làm thế nào tôi nên giải thích biến này? Mất cao hơn là tốt hơn hoặc tồi tệ hơn, hoặc nó có ý nghĩa gì …


11
Tại sao binary_crossentropy và c sortical_crossentropy cung cấp các hiệu suất khác nhau cho cùng một vấn đề?
Tôi đang cố gắng đào tạo một CNN để phân loại văn bản theo chủ đề. Khi tôi sử dụng entropy chéo nhị phân, tôi có độ chính xác ~ 80%, với entropy chéo phân loại tôi có độ chính xác ~ 50%. Tôi không hiểu tại sao lại như …

8
Hàm tf.nn.embpping_lookup làm gì?
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Tôi không thể hiểu nhiệm vụ của chức năng này. Nó giống như một bảng tra cứu? Có nghĩa là trả về các tham số tương ứng với mỗi id (tính bằng id)? Chẳng hạn, trong skip-grammô hình nếu chúng ta sử dụng tf.nn.embedding_lookup(embeddings, train_inputs), thì …

10
Máy ảnh, Làm thế nào để có được đầu ra của mỗi lớp?
Tôi đã đào tạo mô hình phân loại nhị phân với CNN và đây là mã của tôi model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (8, 8, 64) = …






Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.