Câu hỏi được gắn thẻ «conv-neural-network»

Mạng nơ-ron tích hợp (CNN, hoặc ConvNet) là một loại mạng nơ-ron nhân tạo sâu, chuyển tiếp đã được áp dụng thành công để phân tích hình ảnh trực quan. Nó nằm dưới thẻ [học sâu].

11
Tại sao binary_crossentropy và c sortical_crossentropy cung cấp các hiệu suất khác nhau cho cùng một vấn đề?
Tôi đang cố gắng đào tạo một CNN để phân loại văn bản theo chủ đề. Khi tôi sử dụng entropy chéo nhị phân, tôi có độ chính xác ~ 80%, với entropy chéo phân loại tôi có độ chính xác ~ 50%. Tôi không hiểu tại sao lại như …




4
Đối số kéo căng
Tôi đang cố gắng để hiểu các đối số bước trong tf.nn.avg_pool, tf.nn.max_pool, tf.nn.conv2d. Các tài liệu liên tục nói strides: Một danh sách các int có độ dài> = 4. Sải chân của cửa sổ trượt cho mỗi kích thước của tenxơ đầu vào. Câu hỏi của tôi là: …


7
Làm thế nào để nói Keras ngừng đào tạo dựa trên giá trị tổn thất?
Hiện tại tôi sử dụng mã sau: callbacks = [ EarlyStopping(monitor='val_loss', patience=2, verbose=0), ModelCheckpoint(kfold_weights_path, monitor='val_loss', save_best_only=True, verbose=0), ] model.fit(X_train.astype('float32'), Y_train, batch_size=batch_size, nb_epoch=nb_epoch, shuffle=True, verbose=1, validation_data=(X_valid, Y_valid), callbacks=callbacks) Nó yêu cầu Keras ngừng luyện tập khi tình trạng thua lỗ không được cải thiện trong 2 kỷ. Nhưng tôi muốn ngừng …


1
Tái cấu trúc ND
Đối với giáo dục của tôi, tôi đang cố gắng thực hiện một lớp chập N chiều trong mạng lưới thần kinh tích chập. Tôi muốn thực hiện một chức năng backpropagation. Tuy nhiên, tôi không chắc chắn về cách làm hiệu quả nhất. Hiện tại, tôi đang sử dụng …

2
Mất không giảm trong Pytorch CNN
Tôi đang làm CNN với Pytorch cho một nhiệm vụ, nhưng nó sẽ không học và cải thiện độ chính xác. Tôi đã tạo một phiên bản làm việc với bộ dữ liệu MNIST để tôi có thể đăng nó ở đây. Tôi chỉ đang tìm kiếm một câu trả …
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.