คำถามติดแท็ก tensorflow2.0

2
ทำไม TensorFlow 2 ช้ากว่า TensorFlow 1 มาก
มันถูกอ้างถึงโดยผู้ใช้หลายคนว่าเป็นเหตุผลของการเปลี่ยนไปใช้ Pytorch แต่ฉันยังไม่พบเหตุผล / คำอธิบายสำหรับการเสียสละคุณภาพความเร็วที่สำคัญที่สุดสำหรับการปฏิบัติจริง ด้านล่างเป็นรหัสประสิทธิภาพการเปรียบเทียบกับ TF1 TF2 - TF1 กับการทำงานที่ใดก็ได้จาก47% ถึง 276% เร็ว คำถามของฉันคืออะไรที่กราฟหรือระดับฮาร์ดแวร์ที่ทำให้เกิดการชะลอตัวที่สำคัญ? กำลังมองหาคำตอบโดยละเอียด - ฉันคุ้นเคยกับแนวคิดที่กว้างขวางแล้ว Git ที่เกี่ยวข้อง ข้อมูลจำเพาะ : CUDA 10.0.130, cuDNN 7.4.2, Python 3.7.4, Windows 10, GTX 1070 ผลการเกณฑ์มาตรฐาน : อัปเดต : การปิดใช้งานการเรียกใช้ Eager ตามรหัสด้านล่างไม่ได้ช่วยอะไร อย่างไรก็ตามพฤติกรรมนั้นไม่สอดคล้องกัน: บางครั้งการทำงานในโหมดกราฟช่วยได้มากบางครั้งก็ทำงานช้าลงเมื่อเทียบกับ Eager เนื่องจากผู้ที่ชื่นชอบ TF ไม่ปรากฏที่ใด ๆ ฉันจะตรวจสอบเรื่องนี้ด้วยตัวเอง - สามารถติดตามความคืบหน้าในปัญหา Github …

10
Tensorflow 2.0 - AttributeError: โมดูล 'tensorflow' ไม่มีแอตทริบิวต์ 'Session'
เมื่อฉันดำเนินการคำสั่งsess = tf.Session()ในสภาพแวดล้อม Tensorflow 2.0 ฉันได้รับข้อความแสดงข้อผิดพลาดดังต่อไปนี้: Traceback (most recent call last): File "<stdin>", line 1, in <module> AttributeError: module 'tensorflow' has no attribute 'Session' ข้อมูลระบบ: แพลตฟอร์ม OS และการกระจาย: Windows 10 เวอร์ชัน Python: 3.7.1.1 Tensorflow เวอร์ชัน: 2.0.0-alpha0 (ติดตั้งด้วย pip) ขั้นตอนในการผลิตซ้ำ: การติดตั้ง: pip install - อัพเกรด pip pip ติดตั้ง tensorflow == 2.0.0-alpha0 …

4
คำเตือน: กระบวนการดึง: โหมด sample_weight ถูกบังคับจาก ... ถึง ['…']
อบรมการใช้ตัวจําแนกภาพโดยใช้.fit_generator()หรือ.fit()ผ่านพจนานุกรมไปclass_weight=เป็นอาร์กิวเมนต์ ฉันไม่เคยพบข้อผิดพลาดใน TF1.x แต่ใน 2.1 ฉันจะได้ผลลัพธ์ต่อไปนี้เมื่อเริ่มการฝึก: WARNING:tensorflow:sample_weight modes were coerced from ... to ['...'] การบีบบังคับอะไรบางอย่างตั้งแต่ต้น...จนถึง['...']อะไร? แหล่งที่มาสำหรับคำเตือนtensorflowของ repo อยู่ที่นี่ความคิดเห็นที่วางไว้คือ: พยายามบีบบังคับ sample_weight_modes กับโครงสร้างเป้าหมาย สิ่งนี้ย่อมขึ้นอยู่กับความจริงที่ว่า Model แบนเอาท์พุทสำหรับการเป็นตัวแทนภายใน

2
Keras เวลาคาดการณ์ที่ไม่สอดคล้องกัน
ฉันพยายามประเมินเวลาทำนายของโมเดล keras ของฉันและตระหนักถึงสิ่งที่แปลก นอกเหนือจากความรวดเร็วตามปกติทุกครั้งในขณะที่แบบจำลองต้องใช้เวลานานในการทำนาย และไม่เพียงแค่นั้นเวลาเหล่านั้นยังเพิ่มโมเดลที่ยาวขึ้น ฉันเพิ่มตัวอย่างการทำงานขั้นต่ำเพื่อทำให้เกิดข้อผิดพลาดซ้ำ import time import numpy as np from sklearn.datasets import make_classification from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Flatten # Make a dummy classification problem X, y = make_classification() # Make a dummy model model = Sequential() model.add(Dense(10, activation='relu',name='input',input_shape=(X.shape[1],))) model.add(Dense(2, activation='softmax',name='predictions')) model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy']) …

1
Tensorflow ไม่สามารถรับ "image.shape" จากวิธีการใน `dataset.map (mapFn) '
ฉันพยายามที่จะทำtensorflowเทียบเท่าtorch.transforms.Resize(TRAIN_IMAGE_SIZE)ซึ่งปรับขนาดที่เล็กที่สุดTRAIN_IMAGE_SIZEมิติภาพเพื่อ บางสิ่งเช่นนี้ def transforms(filename): parts = tf.strings.split(filename, '/') label = parts[-2] image = tf.io.read_file(filename) image = tf.image.decode_jpeg(image) image = tf.image.convert_image_dtype(image, tf.float32) # this doesn't work with Dataset.map() because image.shape=(None,None,3) from Dataset.map() image = largest_sq_crop(image) image = tf.image.resize(image, (256,256)) return image, label list_ds = tf.data.Dataset.list_files('{}/*/*'.format(DATASET_PATH)) images_ds = list_ds.map(transforms).batch(4) คำตอบง่ายๆอยู่ที่นี่: Tensorflow: ครอบตัดพื้นที่จัตุรัสกลางที่ใหญ่ที่สุดของภาพ …

1
บันทึกแบบจำลองทุก ๆ 10 epochs tensorflow.keras v2
ฉันใช้ keras หมายถึง submodule ใน tensorflow v2 ฉันกำลังฝึกอบรมโมเดลของฉันโดยใช้fit_generator()วิธีการ ฉันต้องการบันทึกโมเดลของฉันทุก 10 ครั้ง ฉันจะบรรลุสิ่งนี้ได้อย่างไร ใน Keras (ไม่ใช่เป็น submodule of tf) ฉันสามารถให้ModelCheckpoint(model_savepath,period=10)ได้ แต่ใน tf v2 พวกเขาได้เปลี่ยนสิ่งนี้เป็นModelCheckpoint(model_savepath, save_freq)ตำแหน่งที่save_freqสามารถ'epoch'บันทึกได้ในทุกกรณี ถ้าsave_freqเป็นจำนวนเต็มแบบจำลองจะถูกบันทึกหลังจากประมวลผลตัวอย่างจำนวนมากแล้ว แต่ฉันต้องการให้เป็นหลังจาก 10 ยุค ฉันจะบรรลุสิ่งนี้ได้อย่างไร
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.