คำถามติดแท็ก keras

Keras เป็นไลบรารีเครือข่ายประสาทที่มี API ระดับสูงใน Python และ R ใช้แท็กนี้สำหรับคำถามเกี่ยวกับวิธีใช้ API นี้ โปรดใส่แท็กสำหรับภาษา / แบ็กเอนด์ ([python], [r], [tensorflow], [theano], [cntk]) ที่คุณใช้ หากคุณใช้ Keras ในตัวของ tensorflow ให้ใช้แท็ก [tf.keras]

5
การฝังใน Keras คืออะไร?
เอกสาร Keras ไม่ชัดเจนว่านี่คืออะไร ฉันเข้าใจว่าเราสามารถใช้สิ่งนี้เพื่อบีบอัดพื้นที่คุณสมบัติการป้อนข้อมูลให้เล็กลง แต่สิ่งนี้ทำได้อย่างไรจากมุมมองของการออกแบบระบบประสาท? มันเป็น autoenocder, RBM หรือไม่?
97 keras 

3
วิธีการต่อสองชั้นใน keras?
ฉันมีตัวอย่างของโครงข่ายประสาทเทียมที่มีสองชั้น เลเยอร์แรกรับสองอาร์กิวเมนต์และมีหนึ่งเอาต์พุต ข้อที่สองควรใช้อาร์กิวเมนต์หนึ่งอันเนื่องจากเลเยอร์แรกและอาร์กิวเมนต์เพิ่มเติมอีกหนึ่งอาร์กิวเมนต์ ควรมีลักษณะดังนี้: x1 x2 x3 \ / / y1 / \ / y2 ดังนั้นผมต้องการสร้างรูปแบบที่มีสองชั้นและพยายามที่จะตัดพวกเขา แต่มันกลับข้อผิดพลาด: ในบรรทัดThe first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.result.add(merged) รุ่น: first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) result = Sequential() merged = Concatenate([first, …

5
การใช้ verbose ใน Keras ขณะตรวจสอบโมเดลคืออะไร?
ฉันใช้งานรุ่น LSTM เป็นครั้งแรก นี่คือโมเดลของฉัน: opt = Adam(0.002) inp = Input(...) print(inp) x = Embedding(....)(inp) x = LSTM(...)(x) x = BatchNormalization()(x) pred = Dense(5,activation='softmax')(x) model = Model(inp,pred) model.compile(....) idx = np.random.permutation(X_train.shape[0]) model.fit(X_train[idx], y_train[idx], nb_epoch=1, batch_size=128, verbose=1) การใช้ verbose ขณะฝึกโมเดลคืออะไร?

5
จะโหลดโมเดลจากไฟล์ HDF5 ใน Keras ได้อย่างไร?
จะโหลดโมเดลจากไฟล์ HDF5 ใน Keras ได้อย่างไร? สิ่งที่ฉันพยายาม: model = Sequential() model.add(Dense(64, input_dim=14, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(64, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(2, init='uniform')) model.add(Activation('softmax')) sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='binary_crossentropy', optimizer=sgd) checkpointer = ModelCheckpoint(filepath="/weights.hdf5", verbose=1, save_best_only=True) model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = …

2
Keras: ความแตกต่างระหว่าง Kernel และ Activity regularizers
ฉันได้พบว่าweight_regularizerไม่มีมีมากขึ้นใน Keras และว่าในสถานที่ที่มีกิจกรรมและเคอร์เนล regularizer ผมอยากจะรู้ว่า: อะไรคือความแตกต่างที่สำคัญระหว่างเคอร์เนลและกิจกรรม regularizers? ฉันสามารถใช้activity_regularizerแทนweight_regularizer ได้หรือไม่?

6
Keras ฉันจะคาดเดาได้อย่างไรหลังจากที่ฉันฝึกโมเดล
ฉันกำลังเล่นกับชุดข้อมูลตัวอย่างของรอยเตอร์และทำงานได้ดี (โมเดลของฉันได้รับการฝึกฝน) ฉันอ่านเกี่ยวกับวิธีบันทึกโมเดลดังนั้นฉันจึงสามารถโหลดได้ในภายหลังเพื่อใช้อีกครั้ง แต่ฉันจะใช้แบบจำลองที่บันทึกไว้นี้เพื่อคาดเดาข้อความใหม่ได้อย่างไร ฉันใช้models.predict()? ฉันต้องเตรียมข้อความนี้ด้วยวิธีพิเศษหรือไม่? ฉันลองใช้กับ import keras.preprocessing.text text = np.array(['this is just some random, stupid text']) print(text.shape) tk = keras.preprocessing.text.Tokenizer( nb_words=2000, filters=keras.preprocessing.text.base_filter(), lower=True, split=" ") tk.fit_on_texts(text) pred = tk.texts_to_sequences(text) print(pred) model.predict(pred) แต่ฉันมักจะได้รับ (1L,) [[2, 4, 1, 6, 5, 7, 3]] --------------------------------------------------------------------------- AttributeError Traceback (most recent call last) <ipython-input-83-42d744d811fb> …

4
คำเตือน: กระบวนการดึง: โหมด sample_weight ถูกบังคับจาก ... ถึง ['…']
อบรมการใช้ตัวจําแนกภาพโดยใช้.fit_generator()หรือ.fit()ผ่านพจนานุกรมไปclass_weight=เป็นอาร์กิวเมนต์ ฉันไม่เคยพบข้อผิดพลาดใน TF1.x แต่ใน 2.1 ฉันจะได้ผลลัพธ์ต่อไปนี้เมื่อเริ่มการฝึก: WARNING:tensorflow:sample_weight modes were coerced from ... to ['...'] การบีบบังคับอะไรบางอย่างตั้งแต่ต้น...จนถึง['...']อะไร? แหล่งที่มาสำหรับคำเตือนtensorflowของ repo อยู่ที่นี่ความคิดเห็นที่วางไว้คือ: พยายามบีบบังคับ sample_weight_modes กับโครงสร้างเป้าหมาย สิ่งนี้ย่อมขึ้นอยู่กับความจริงที่ว่า Model แบนเอาท์พุทสำหรับการเป็นตัวแทนภายใน

2
ทำไมรูปแบบ keras ทำนายผลช้าลงหลังจากรวบรวม
ในทางทฤษฎีการทำนายควรจะคงที่เนื่องจากน้ำหนักมีขนาดคงที่ ฉันจะกลับมาใช้ความเร็วใหม่หลังจากคอมไพล์ได้อย่างไร (โดยไม่จำเป็นต้องลบเครื่องมือเพิ่มประสิทธิภาพ) ดูการทดสอบที่เกี่ยวข้อง: https://nbviewer.jupyter.org/github/off99555/TensorFlowExperiments/blob/master/test-prediction-speed-after-compile.ipynb?flush_cache=true

2
Keras เวลาคาดการณ์ที่ไม่สอดคล้องกัน
ฉันพยายามประเมินเวลาทำนายของโมเดล keras ของฉันและตระหนักถึงสิ่งที่แปลก นอกเหนือจากความรวดเร็วตามปกติทุกครั้งในขณะที่แบบจำลองต้องใช้เวลานานในการทำนาย และไม่เพียงแค่นั้นเวลาเหล่านั้นยังเพิ่มโมเดลที่ยาวขึ้น ฉันเพิ่มตัวอย่างการทำงานขั้นต่ำเพื่อทำให้เกิดข้อผิดพลาดซ้ำ import time import numpy as np from sklearn.datasets import make_classification from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Flatten # Make a dummy classification problem X, y = make_classification() # Make a dummy model model = Sequential() model.add(Dense(10, activation='relu',name='input',input_shape=(X.shape[1],))) model.add(Dense(2, activation='softmax',name='predictions')) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) …

9
ทำไมเครือข่ายประสาทคาดการณ์ผิดกับข้อมูลการฝึกอบรมของตัวเอง?
โปรดปรานหมดอายุใน 8 ชั่วโมง คำตอบสำหรับคำถามนี้มีสิทธิ์ได้รับ150 ค่าชื่อเสียง sirjayกำลังมองหาคำตอบจากแหล่งที่เชื่อถือได้ ฉันสร้างเครือข่ายประสาท LSTM (RNN) ด้วยการเรียนรู้แบบมีผู้สอนสำหรับการทำนายสต็อกข้อมูล ปัญหาคือสาเหตุที่มันทำนายผิดกับข้อมูลการฝึกอบรมของตัวเอง? (หมายเหตุ: ตัวอย่างที่ทำซ้ำได้ด้านล่าง) ฉันสร้างแบบจำลองง่าย ๆ เพื่อทำนายราคาหุ้น 5 วันถัดไป: model = Sequential() model.add(LSTM(32, activation='sigmoid', input_shape=(x_train.shape[1], x_train.shape[2]))) model.add(Dense(y_train.shape[1])) model.compile(optimizer='adam', loss='mse') es = EarlyStopping(monitor='val_loss', patience=3, restore_best_weights=True) model.fit(x_train, y_train, batch_size=64, epochs=25, validation_data=(x_test, y_test), callbacks=[es]) ผลลัพธ์ที่ถูกต้องอยู่ในy_test(5 ค่า) ดังนั้นโมเดลรถไฟมองย้อนกลับไป 90 วันก่อนหน้าจากนั้นเรียกคืนน้ำหนักจากval_loss=0.0030ผลลัพธ์ที่ดีที่สุด ( ) ด้วยpatience=3: Train on …

2
เพิ่ม MSE สูงสุดของโมเดล keras
ฉันมีเครือข่ายผู้ให้กำเนิดที่ไม่เห็นด้วยซึ่งผู้ที่เลือกปฏิบัติได้รับการย่อให้เล็กสุดด้วย MSE และเครื่องกำเนิดควรได้รับการขยายให้ใหญ่สุด เพราะทั้งคู่เป็นคู่ต่อสู้ที่ไล่ตามเป้าหมายตรงกันข้าม generator = Sequential() generator.add(Dense(units=50, activation='sigmoid', input_shape=(15,))) generator.add(Dense(units=1, activation='sigmoid')) generator.compile(loss='mse', optimizer='adam') generator.train_on_batch(x_data, y_data) ฉันต้องปรับอะไรเพื่อให้ได้ตัวแบบเครื่องกำเนิดซึ่งกำไรจากค่า MSE สูง?

1
อาร์กิวเมนต์คำหลักที่ไม่คาดคิด 'ragged' ใน Keras
พยายามเรียกใช้โมเดล keras ที่ผ่านการฝึกอบรมด้วยรหัสไพ ธ อนต่อไปนี้: from keras.preprocessing.image import img_to_array from keras.models import load_model from imutils.video import VideoStream from threading import Thread import numpy as np import imutils import time import cv2 import os MODEL_PATH = "/home/pi/Documents/converted_keras/keras_model.h5" print("[info] loading model..") model = load_model(MODEL_PATH) print("[info] starting vid stream..") vs = VideoStream(usePiCamera=True).start() time.sleep(2.0) …

1
TypeError: len ไม่ได้กำหนดไว้อย่างดีสำหรับเทนเซอร์แบบสัญลักษณ์ (activation_3 / ข้อมูลประจำตัว: 0) กรุณาโทร `x.shape` แทน` len (x) `สำหรับข้อมูลรูปร่าง
ฉันกำลังพยายามใช้โมเดล DQL ในหนึ่งเกมของโรงยิม openAI แต่มันทำให้ฉันผิดพลาด TypeError: len ไม่ได้กำหนดไว้อย่างดีสำหรับเทนเซอร์แบบสัญลักษณ์ (activation_3 / บัตรประจำตัว: 0) กรุณาโทรx.shapeมากกว่าlen(x) สำหรับข้อมูลรูปร่าง การสร้างสภาพแวดล้อมในโรงยิม: ENV_NAME = 'CartPole-v0' env = gym.make(ENV_NAME) np.random.seed(123) env.seed(123) nb_actions = env.action_space.n แบบจำลองของฉันมีลักษณะเช่นนี้: model = Sequential() model.add(Flatten(input_shape=(1,) + env.observation_space.shape)) model.add(Dense(16)) model.add(Activation('relu')) model.add(Dense(nb_actions)) model.add(Activation('linear')) print(model.summary()) การติดตั้งโมเดลนั้นกับโมเดล DQN จาก keral-rl ดังต่อไปนี้: policy = EpsGreedyQPolicy() memory = SequentialMemory(limit=50000, window_length=1) …

1
บันทึกแบบจำลองทุก ๆ 10 epochs tensorflow.keras v2
ฉันใช้ keras หมายถึง submodule ใน tensorflow v2 ฉันกำลังฝึกอบรมโมเดลของฉันโดยใช้fit_generator()วิธีการ ฉันต้องการบันทึกโมเดลของฉันทุก 10 ครั้ง ฉันจะบรรลุสิ่งนี้ได้อย่างไร ใน Keras (ไม่ใช่เป็น submodule of tf) ฉันสามารถให้ModelCheckpoint(model_savepath,period=10)ได้ แต่ใน tf v2 พวกเขาได้เปลี่ยนสิ่งนี้เป็นModelCheckpoint(model_savepath, save_freq)ตำแหน่งที่save_freqสามารถ'epoch'บันทึกได้ในทุกกรณี ถ้าsave_freqเป็นจำนวนเต็มแบบจำลองจะถูกบันทึกหลังจากประมวลผลตัวอย่างจำนวนมากแล้ว แต่ฉันต้องการให้เป็นหลังจาก 10 ยุค ฉันจะบรรลุสิ่งนี้ได้อย่างไร

4
tf.data.Dataset: ไม่ต้องระบุอาร์กิวเมนต์ `batch_size` สำหรับประเภทอินพุตที่กำหนด
ฉันใช้Talosและ Google colab TPUเพื่อเรียกใช้การปรับจูนพารามิเตอร์ของโมเดลKeras โปรดทราบว่าฉันใช้ Tensorflow 1.15.0 และ Keras 2.2.4-tf import os import tensorflow as tf import talos as ta from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense from tensorflow.keras.optimizers import Adam from sklearn.model_selection import train_test_split def iris_model(x_train, y_train, x_val, y_val, params): # Specify a distributed strategy to use TPU …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.