ฉันเพิ่งมาข้ามtf.nn.sparse_softmax_cross_entropy_with_logitsและผมก็ไม่สามารถคิดออกสิ่งที่แตกต่างเมื่อเทียบกับtf.nn.softmax_cross_entropy_with_logits
ความแตกต่างเพียงอย่างเดียวที่เวกเตอร์การฝึกอบรมy
ต้องเข้ารหัสแบบร้อนเดียวเมื่อใช้sparse_softmax_cross_entropy_with_logits
?
อ่าน API ที่ผมไม่สามารถที่จะค้นหาความแตกต่างอื่น ๆ softmax_cross_entropy_with_logits
เมื่อเทียบกับ แต่ทำไมเราถึงต้องการฟังก์ชันพิเศษ?
ไม่ควรsoftmax_cross_entropy_with_logits
ให้ผลลัพธ์เช่นเดียวsparse_softmax_cross_entropy_with_logits
กับที่มาพร้อมกับข้อมูลการฝึกอบรม / เวกเตอร์ที่เข้ารหัสร้อนเดียวหรือไม่?