โดยเฉพาะฉันคิดว่าฉันสงสัยเกี่ยวกับคำสั่งนี้:
เวอร์ชันหลักของ TensorFlow ในอนาคตจะอนุญาตให้การไล่ระดับสีไหลไปยังอินพุตของฉลากบน backprop ตามค่าเริ่มต้น
tf.nn.softmax_cross_entropy_with_logits
ซึ่งจะแสดงเมื่อฉันใช้ tf.nn.softmax_cross_entropy_with_logits_v2
ในข้อความเดียวกันก็เรียกร้องให้ผมที่จะมีลักษณะที่ ฉันดูเอกสาร แต่ระบุว่าtf.nn.softmax_cross_entropy_with_logits_v2
:
Backpropagation จะเกิดขึ้นในทั้งการบันทึกและป้ายกำกับ หากต้องการไม่อนุญาตให้ backpagation ลงในฉลากให้ส่งเทนเซอร์ของฉลากผ่าน stop_gradients ก่อนส่งไปยังฟังก์ชันนี้
เมื่อเทียบกับtf.nn.softmax_cross_entropy_with_logits
:
การแพร่กระจายย้อนหลังจะเกิดขึ้นในบันทึกเท่านั้น
เป็นเรื่องใหม่มากกับเรื่อง (ฉันกำลังพยายามหาทางผ่านบทเรียนพื้นฐานบางอย่าง) ข้อความเหล่านี้ไม่ชัดเจน ฉันมีความเข้าใจตื้น ๆ เกี่ยวกับ backpropagation แต่จริงๆแล้วข้อความก่อนหน้านี้หมายถึงอะไร? backpropagation และฉลากเชื่อมต่อกันอย่างไร? และสิ่งนี้จะเปลี่ยนแปลงวิธีที่ฉันทำงานด้วยtf.nn.softmax_cross_entropy_with_logits_v2
เมื่อเทียบกับต้นฉบับได้อย่างไร
softmax_..._with_logits_v2
จะทำงานเป็นsoftmax_with_logits
อย่างไร (หรือฉันอาจใช้ tf.stop_gradient กับตัวแปรป้ายกำกับ)