คำถามติดแท็ก machine-learning

คำถามการนำไปใช้เกี่ยวกับอัลกอริทึมการเรียนรู้ของเครื่อง คำถามทั่วไปเกี่ยวกับการเรียนรู้ของเครื่องควรโพสต์ในชุมชนเฉพาะของพวกเขา

7
ความแตกต่างระหว่างคุณลักษณะและป้ายกำกับคืออะไร?
ฉันต่อไปกวดวิชาเกี่ยวกับพื้นฐานการเรียนรู้เครื่องและมีการกล่าวถึงว่าสิ่งที่อาจจะเป็นคุณลักษณะหรือฉลาก จากสิ่งที่ฉันรู้คุณลักษณะคือคุณสมบัติของข้อมูลที่กำลังใช้อยู่ ฉันคิดไม่ออกว่าป้ายกำกับคืออะไรฉันรู้ความหมายของคำนี้ แต่ฉันอยากรู้ว่ามันหมายถึงอะไรในบริบทของแมชชีนเลิร์นนิง

7
Keras ที่มีแบ็กเอนด์ Tensorflow สามารถบังคับให้ใช้ CPU หรือ GPU ได้หรือไม่
ฉันติดตั้ง Keras พร้อมกับแบ็กเอนด์ Tensorflow และ CUDA ฉันต้องการบังคับให้ Keras ใช้ CPU ในบางครั้งตามความต้องการ สามารถทำได้โดยไม่ต้องบอกว่าติดตั้ง Tensorflow เฉพาะ CPU แยกต่างหากในสภาพแวดล้อมเสมือนจริงหรือไม่? ถ้าเป็นอย่างไร หากแบ็กเอนด์เป็น Theano แฟล็กสามารถตั้งค่าได้ แต่ฉันไม่เคยได้ยินเกี่ยวกับแฟล็ก Tensorflow ที่เข้าถึงได้ผ่าน Keras

7
วิธีการใช้ Gradient Clipping ใน TensorFlow
พิจารณาโค้ดตัวอย่าง ฉันต้องการทราบวิธีใช้การตัดแบบไล่ระดับกับเครือข่ายนี้บน RNN ซึ่งมีความเป็นไปได้ที่จะมีการไล่ระดับสีแบบระเบิด tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) นี่เป็นตัวอย่างที่สามารถใช้ได้ แต่จะแนะนำได้ที่ไหน ใน def ของ RNN lstm_cell = rnn_cell.BasicLSTMCell(n_hidden, forget_bias=1.0) # Split data because rnn cell needs a list of inputs for the RNN inner loop _X = tf.split(0, n_steps, _X) # n_steps tf.clip_by_value(_X, -1, 1, name=None) แต่สิ่งนี้ไม่สมเหตุสมผลเนื่องจากเทนเซอร์ _X เป็นอินพุตไม่ใช่สิ่งที่จะถูกตัดจบ? ฉันต้องกำหนดเครื่องมือเพิ่มประสิทธิภาพของตัวเองสำหรับสิ่งนี้หรือมีตัวเลือกที่ง่ายกว่านี้ไหม

3
วิธีการต่อสองชั้นใน keras?
ฉันมีตัวอย่างของโครงข่ายประสาทเทียมที่มีสองชั้น เลเยอร์แรกรับสองอาร์กิวเมนต์และมีหนึ่งเอาต์พุต ข้อที่สองควรใช้อาร์กิวเมนต์หนึ่งอันเนื่องจากเลเยอร์แรกและอาร์กิวเมนต์เพิ่มเติมอีกหนึ่งอาร์กิวเมนต์ ควรมีลักษณะดังนี้: x1 x2 x3 \ / / y1 / \ / y2 ดังนั้นผมต้องการสร้างรูปแบบที่มีสองชั้นและพยายามที่จะตัดพวกเขา แต่มันกลับข้อผิดพลาด: ในบรรทัดThe first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.result.add(merged) รุ่น: first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) result = Sequential() merged = Concatenate([first, …

3
cross-entropy คืออะไร?
ฉันรู้ว่ามีคำอธิบายมากมายว่าครอสเอนโทรปีคืออะไร แต่ฉันก็ยังสับสน เป็นเพียงวิธีการอธิบายฟังก์ชันการสูญเสียหรือไม่? เราสามารถใช้อัลกอริทึมการไล่ระดับสีเพื่อค้นหาค่าต่ำสุดโดยใช้ฟังก์ชันการสูญเสียได้หรือไม่?

5
จะโหลดโมเดลจากไฟล์ HDF5 ใน Keras ได้อย่างไร?
จะโหลดโมเดลจากไฟล์ HDF5 ใน Keras ได้อย่างไร? สิ่งที่ฉันพยายาม: model = Sequential() model.add(Dense(64, input_dim=14, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(64, init='uniform')) model.add(LeakyReLU(alpha=0.3)) model.add(BatchNormalization(epsilon=1e-06, mode=0, momentum=0.9, weights=None)) model.add(Dropout(0.5)) model.add(Dense(2, init='uniform')) model.add(Activation('softmax')) sgd = SGD(lr=0.1, decay=1e-6, momentum=0.9, nesterov=True) model.compile(loss='binary_crossentropy', optimizer=sgd) checkpointer = ModelCheckpoint(filepath="/weights.hdf5", verbose=1, save_best_only=True) model.fit(X_train, y_train, nb_epoch=20, batch_size=16, show_accuracy=True, validation_split=0.2, verbose = …

4
อะไรคือความแตกต่างระหว่างการวนซ้ำมูลค่าและการวนซ้ำตามนโยบาย?
ในการเรียนรู้เสริมสิ่งที่เป็นความแตกต่างระหว่างการย้ำนโยบายและย้ำคุ้มค่า ? เท่าที่ฉันเข้าใจในการวนซ้ำคุณค่าคุณใช้สมการ Bellman เพื่อแก้ปัญหาสำหรับนโยบายที่ดีที่สุดในขณะที่ในการวนซ้ำนโยบายคุณสุ่มเลือกนโยบายπและหารางวัลของนโยบายนั้น ข้อสงสัยของฉันคือหากคุณเลือกนโยบายแบบสุ่มπใน PI จะรับประกันได้อย่างไรว่าจะเป็นนโยบายที่ดีที่สุดแม้ว่าเราจะเลือกนโยบายแบบสุ่มหลายนโยบายก็ตาม

6
Python: tf-idf-cosine: เพื่อค้นหาความคล้ายคลึงกันของเอกสาร
ผมต่อไปกวดวิชาซึ่งเป็นใช้ได้ในส่วนที่ 1และส่วนที่ 2 น่าเสียดายที่ผู้เขียนไม่มีเวลาสำหรับส่วนสุดท้ายซึ่งเกี่ยวข้องกับการใช้ความคล้ายคลึงกันของโคไซน์เพื่อหาระยะห่างระหว่างเอกสารสองฉบับ ฉันติดตามตัวอย่างในบทความด้วยความช่วยเหลือของลิงค์ต่อไปนี้จากstackoverflowซึ่งรวมอยู่ในรหัสที่กล่าวถึงในลิงค์ด้านบน (เพื่อให้ชีวิตง่ายขึ้น) from sklearn.feature_extraction.text import CountVectorizer from sklearn.feature_extraction.text import TfidfTransformer from nltk.corpus import stopwords import numpy as np import numpy.linalg as LA train_set = ["The sky is blue.", "The sun is bright."] # Documents test_set = ["The sun in the sky is bright."] # Query stopWords …


9
Machine Learning คืออะไร? [ปิด]
ปิด. คำถามนี้เป็นคำถามปิดหัวข้อ ขณะนี้ยังไม่ยอมรับคำตอบ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้เป็นหัวข้อสำหรับ Stack Overflow ปิดให้บริการใน7 ปีที่ผ่านมา ปรับปรุงคำถามนี้ อะไรคือการเรียนรู้เครื่อง ? โค้ดแมชชีนเลิร์นนิงทำอะไร เมื่อเราบอกว่าเครื่องเรียนรู้มันแก้ไขรหัสของตัวเองหรือไม่หรือแก้ไขประวัติ (ฐานข้อมูล) ซึ่งจะมีประสบการณ์ของรหัสสำหรับชุดอินพุตที่กำหนด?

4
np.mean และ tf.reduce_mean ต่างกันอย่างไร
ในบทช่วยสอนสำหรับผู้เริ่มต้น MNISTมีคำสั่ง accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) tf.castโดยทั่วไปจะเปลี่ยนประเภทของเทนเซอร์ที่วัตถุคือ แต่อะไรคือความแตกต่างระหว่างtf.reduce_meanและnp.mean? นี่คือเอกสารเกี่ยวกับtf.reduce_mean: reduce_mean(input_tensor, reduction_indices=None, keep_dims=False, name=None) input_tensor: เทนเซอร์ที่จะลด ควรมีประเภทตัวเลข reduction_indices: ขนาดที่จะลด ถ้าNone(defaut) ลดขนาดทั้งหมด # 'x' is [[1., 1. ]] # [2., 2.]] tf.reduce_mean(x) ==> 1.5 tf.reduce_mean(x, 0) ==> [1.5, 1.5] tf.reduce_mean(x, 1) ==> [1., 2.] สำหรับเวกเตอร์ 1D ดูเหมือนว่าแต่ผมไม่เข้าใจสิ่งที่เกิดขึ้นในnp.mean == tf.reduce_mean เป็นเรื่องที่สมเหตุสมผลเนื่องจากมีค่าเฉลี่ยและเป็นแต่เกิดอะไรขึ้นกับ?tf.reduce_mean(x, 1) ==> …

3
word2vec: การสุ่มตัวอย่างเชิงลบ (ในระยะคนธรรมดา)?
ฉันกำลังอ่านบทความด้านล่างและฉันมีปัญหาในการทำความเข้าใจแนวคิดของการสุ่มตัวอย่างเชิงลบ http://arxiv.org/pdf/1402.3722v1.pdf ใครช่วยได้โปรด?

6
วิธีการรับขนาดเทนเซอร์ของ Tensorflow (รูปร่าง) เป็นค่า int?
สมมติว่าฉันมีเทนเซอร์เทนเซอร์โฟลว์ ฉันจะรับขนาด (รูปร่าง) ของเทนเซอร์เป็นค่าจำนวนเต็มได้อย่างไร ฉันรู้ว่ามีสองวิธีtensor.get_shape()และtf.shape(tensor)แต่ฉันไม่สามารถรับค่ารูปร่างเป็นint32ค่าจำนวนเต็มได้ ยกตัวอย่างเช่นด้านล่างฉันได้สร้าง 2 มิติเมตริกซ์และฉันต้องได้รับจำนวนแถวและคอลัมน์ที่เป็นint32เพื่อที่ฉันสามารถโทรเพื่อสร้างเมตริกซ์ของรูปร่างreshape() (num_rows * num_cols, 1)แต่วิธีการที่tensor.get_shape()จะส่งกลับค่าเป็นชนิดไม่Dimensionint32 import tensorflow as tf import numpy as np sess = tf.Session() tensor = tf.convert_to_tensor(np.array([[1001,1002,1003],[3,4,5]]), dtype=tf.float32) sess.run(tensor) # array([[ 1001., 1002., 1003.], # [ 3., 4., 5.]], dtype=float32) tensor_shape = tensor.get_shape() tensor_shape # TensorShape([Dimension(2), Dimension(3)]) print tensor_shape # (2, …

2
Keras: ความแตกต่างระหว่าง Kernel และ Activity regularizers
ฉันได้พบว่าweight_regularizerไม่มีมีมากขึ้นใน Keras และว่าในสถานที่ที่มีกิจกรรมและเคอร์เนล regularizer ผมอยากจะรู้ว่า: อะไรคือความแตกต่างที่สำคัญระหว่างเคอร์เนลและกิจกรรม regularizers? ฉันสามารถใช้activity_regularizerแทนweight_regularizer ได้หรือไม่?

2
ขั้นตอนวิธีการเลี้ยงค็อกเทล SVD การใช้งาน ... ในบรรทัดเดียวของรหัส?
ในสไลด์ภายในการบรรยายเบื้องต้นเกี่ยวกับแมชชีนเลิร์นนิงโดย Andrew Ng จาก Stanford ที่ Coursera เขาได้ให้คำตอบหนึ่งบรรทัดต่อไปนี้สำหรับปัญหางานเลี้ยงค็อกเทลเนื่องจากแหล่งที่มาของเสียงถูกบันทึกโดยไมโครโฟนสองตัวที่แยกกัน [W,s,v]=svd((repmat(sum(x.*x,1),size(x,1),1).*x)*x'); ที่ด้านล่างของสไลด์คือ "แหล่งที่มา: Sam Roweis, Yair Weiss, Eero Simoncelli" และที่ด้านล่างของสไลด์ก่อนหน้าคือ "คลิปเสียงเอื้อเฟื้อโดย Te-Won Lee" ในวิดีโอศาสตราจารย์ Ng พูดว่า "ดังนั้นคุณอาจมองไปที่การเรียนรู้ที่ไม่มีผู้ดูแลเช่นนี้และถามว่า 'การใช้สิ่งนี้ซับซ้อนแค่ไหน?' ดูเหมือนว่าในการสร้างแอปพลิเคชันนี้ดูเหมือนว่าจะทำการประมวลผลเสียงนี้คุณจะต้องเขียนโค้ดจำนวนมากหรืออาจเชื่อมโยงไปยังไลบรารี C ++ หรือ Java จำนวนมากที่ประมวลผลเสียงดูเหมือนว่ามันจะเป็นจริงๆ โปรแกรมที่ซับซ้อนในการทำเสียงนี้: แยกเสียงออกไปและอื่น ๆ ปรากฎว่าอัลกอริทึมทำสิ่งที่คุณเพิ่งได้ยินซึ่งสามารถทำได้โดยใช้โค้ดเพียงบรรทัดเดียว ... แสดงไว้ที่นี่นักวิจัยใช้เวลานาน เพื่อสร้างโค้ดบรรทัดนี้ดังนั้นฉันไม่ได้บอกว่านี่เป็นปัญหาที่ง่าย แต่ปรากฎว่าเมื่อคุณใช้สภาพแวดล้อมการเขียนโปรแกรมที่เหมาะสมอัลกอริทึมการเรียนรู้จำนวนมากจะเป็นโปรแกรมสั้น ๆ จริงๆ " ผลลัพธ์เสียงแยกที่เล่นในการบรรยายวิดีโอนั้นไม่สมบูรณ์แบบ แต่ในความคิดของฉันมันยอดเยี่ยมมาก ใครมีข้อมูลเชิงลึกว่าโค้ดหนึ่งบรรทัดทำงานได้ดีเพียงใด โดยเฉพาะอย่างยิ่งมีใครทราบข้อมูลอ้างอิงที่อธิบายการทำงานของ Te-Won Lee, Sam …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.