ดังนั้นนี่เป็นความเห็นต่อคำตอบของทะเลทราย แต่ฉันไม่สามารถแสดงความคิดเห็นได้เนื่องจากชื่อเสียงของฉัน ในขณะที่เขาชี้ให้เห็นว่ารุ่นของคุณถูกต้องเฉพาะในกรณีที่การป้อนข้อมูลของคุณประกอบด้วยตัวอย่างเดียว หากอินพุตของคุณประกอบด้วยหลายตัวอย่างแสดงว่าผิด อย่างไรก็ตามทางออกของทะเลทรายก็ผิดเช่นกัน ปัญหาคือเมื่อเขารับอินพุต 1 มิติจากนั้นเขาก็รับอินพุตสองมิติ ผมขอแสดงให้คุณดู
import numpy as np
# your solution:
def your_softmax(x):
"""Compute softmax values for each sets of scores in x."""
e_x = np.exp(x - np.max(x))
return e_x / e_x.sum()
# desertnaut solution (copied from his answer):
def desertnaut_softmax(x):
"""Compute softmax values for each sets of scores in x."""
e_x = np.exp(x - np.max(x))
return e_x / e_x.sum(axis=0) # only difference
# my (correct) solution:
def softmax(z):
assert len(z.shape) == 2
s = np.max(z, axis=1)
s = s[:, np.newaxis] # necessary step to do broadcasting
e_x = np.exp(z - s)
div = np.sum(e_x, axis=1)
div = div[:, np.newaxis] # dito
return e_x / div
ให้นำตัวอย่างทะเลทราย:
x1 = np.array([[1, 2, 3, 6]]) # notice that we put the data into 2 dimensions(!)
นี่คือผลลัพธ์:
your_softmax(x1)
array([[ 0.00626879, 0.01704033, 0.04632042, 0.93037047]])
desertnaut_softmax(x1)
array([[ 1., 1., 1., 1.]])
softmax(x1)
array([[ 0.00626879, 0.01704033, 0.04632042, 0.93037047]])
คุณจะเห็นว่ารุ่น desernauts จะล้มเหลวในสถานการณ์นี้ (มันจะไม่ถ้าอินพุตเป็นเพียงมิติเดียวเช่น np.array ([1, 2, 3, 6])
ตอนนี้ให้ใช้ตัวอย่าง 3 ตัวอย่างเพราะนั่นคือสาเหตุที่เราใช้อินพุต 2 มิติ x2 ต่อไปนี้ไม่เหมือนกับตัวอย่างจาก desernauts
x2 = np.array([[1, 2, 3, 6], # sample 1
[2, 4, 5, 6], # sample 2
[1, 2, 3, 6]]) # sample 1 again(!)
อินพุตนี้ประกอบด้วยแบตช์ที่มี 3 ตัวอย่าง แต่ตัวอย่างที่หนึ่งและสามนั้นเหมือนกัน ตอนนี้เราคาดว่าการเปิดใช้งานซอฟต์แม็กซ์ 3 แถวโดยครั้งแรกควรเป็นครั้งที่สามและครั้งเดียวกับการเปิดใช้งาน x1 ของเรา!
your_softmax(x2)
array([[ 0.00183535, 0.00498899, 0.01356148, 0.27238963],
[ 0.00498899, 0.03686393, 0.10020655, 0.27238963],
[ 0.00183535, 0.00498899, 0.01356148, 0.27238963]])
desertnaut_softmax(x2)
array([[ 0.21194156, 0.10650698, 0.10650698, 0.33333333],
[ 0.57611688, 0.78698604, 0.78698604, 0.33333333],
[ 0.21194156, 0.10650698, 0.10650698, 0.33333333]])
softmax(x2)
array([[ 0.00626879, 0.01704033, 0.04632042, 0.93037047],
[ 0.01203764, 0.08894682, 0.24178252, 0.65723302],
[ 0.00626879, 0.01704033, 0.04632042, 0.93037047]])
ฉันหวังว่าคุณจะเห็นว่านี่เป็นเพียงกรณีของการแก้ปัญหาของฉัน
softmax(x1) == softmax(x2)[0]
array([[ True, True, True, True]], dtype=bool)
softmax(x1) == softmax(x2)[2]
array([[ True, True, True, True]], dtype=bool)
นอกจากนี้นี่คือผลลัพธ์ของการใช้ TensorFlows softmax:
import tensorflow as tf
import numpy as np
batch = np.asarray([[1,2,3,6],[2,4,5,6],[1,2,3,6]])
x = tf.placeholder(tf.float32, shape=[None, 4])
y = tf.nn.softmax(x)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(y, feed_dict={x: batch})
และผลลัพธ์:
array([[ 0.00626879, 0.01704033, 0.04632042, 0.93037045],
[ 0.01203764, 0.08894681, 0.24178252, 0.657233 ],
[ 0.00626879, 0.01704033, 0.04632042, 0.93037045]], dtype=float32)