การทำให้เป็นมาตรฐานของแบทช์ได้รับเครดิตด้วยการปรับปรุงประสิทธิภาพอย่างมากในอวนตาข่ายประสาท วัสดุจำนวนมากบนอินเทอร์เน็ตแสดงวิธีใช้งานบนพื้นฐานการเปิดใช้งานโดยการเปิดใช้งาน ฉันใช้ backprop ไปแล้วโดยใช้พีชคณิตเมทริกซ์และเนื่องจากฉันทำงานในภาษาระดับสูง (ในขณะที่พึ่งพาRcpp
(และในที่สุด GPU ของ) สำหรับการคูณเมทริกซ์หนาแน่น) การฉีกทุกอย่างออกไปและหันไปใช้for
ลูปของฉัน อย่างมีนัยสำคัญนอกเหนือไปจากความเจ็บปวดขนาดใหญ่
ฟังก์ชั่นการปรับสภาพแบทช์คือ โดยที่
- คือ Pโหนด, th ก่อนที่มันจะได้รับการเปิดใช้งาน
- และ βเป็นพารามิเตอร์สเกลาร์
- และ σ x พีมีค่าเฉลี่ยและ SD ของ xพี (โปรดสังเกตว่าปกติใช้สแควร์รูทของความแปรปรวนบวกกับฟัดจ์แฟคเตอร์ - สมมติว่าองค์ประกอบที่ไม่ใช่ศูนย์เพื่อความกะทัดรัด)
ในรูปแบบเมทริกซ์ฟื้นฟูชุดสำหรับชั้นทั้งจะ ที่
- คือ N × p
- คือเวกเตอร์คอลัมน์ของอัน
- และ βเป็นแถว p -vector ของพารามิเตอร์การทำให้เป็นมาตรฐานสำหรับแต่ละชั้น
- และ σ Xคือเมทริกซ์ N × pโดยที่แต่ละคอลัมน์คือ N -vector ของค่าเฉลี่ยของคอลัมน์และส่วนเบี่ยงเบนมาตรฐาน
- เป็นผลิตภัณฑ์ของ Kronecker และ ⊙เป็นผลิตภัณฑ์ที่เป็นองค์ประกอบ (Hadamard)
โครงข่ายประสาทเดี่ยวชั้นเดียวที่ไม่มีการทำแบตช์ให้เป็นมาตรฐานและผลลัพธ์ต่อเนื่องคือ
ที่ไหน
- คือ p 1 × p 2
- คือ p 2 × 1
- เป็นฟังก์ชั่นการเปิดใช้งาน
หากการสูญเสียคือแล้วการไล่ระดับสีที่มี ∂ R
ที่ไหน
ภายใต้การฟื้นฟูชุดสุทธิจะกลายเป็น หรือ Y = ( (แกมมา⊗ 1 N ) ⊙ ( X Γ 1 - μ X Γ 1 ) ⊙ σ - 1 X Γ 1 + (บีตา⊗ 1 N ) ) Γ 2
มีวิธีการปฏิบัติของการคำนวณ , ∂ R / ∂ บีตาและ∂ R / ∂ แกมมา1ภายในกรอบเมทริกซ์? นิพจน์ง่าย ๆ โดยไม่ต้องใช้การคำนวณแบบโหนดต่อโหนด?
อัปเดต 1:
set.seed(1)
library(dplyr)
library(foreach)
#numbers of obs, variables, and hidden layers
N <- 10
p1 <- 7
p2 <- 4
a <- function (v) {
v[v < 0] <- 0
v
}
ap <- function (v) {
v[v < 0] <- 0
v[v >= 0] <- 1
v
}
# parameters
G1 <- matrix(rnorm(p1*p2), nrow = p1)
G2 <- rnorm(p2)
gamma <- 1:p2+1
beta <- (1:p2+1)*-1
# error
u <- rnorm(10)
# matrix batch norm function
b <- function(x, bet = beta, gam = gamma){
xs <- scale(x)
gk <- t(matrix(gam)) %x% matrix(rep(1, N))
bk <- t(matrix(bet)) %x% matrix(rep(1, N))
gk*xs+bk
}
# activation-wise batch norm function
bi <- function(x, i){
xs <- scale(x)
gk <- t(matrix(gamma[i]))
bk <- t(matrix(beta[i]))
suppressWarnings(gk*xs[,i]+bk)
}
X <- round(runif(N*p1, -5, 5)) %>% matrix(nrow = N)
# the neural net
y <- a(b(X %*% G1)) %*% G2 + u
จากนั้นคำนวณอนุพันธ์:
# drdbeta -- the matrix way
drdb <- matrix(rep(1, N*1), nrow = 1) %*% (-2*u %*% t(G2) * ap(b(X%*%G1)))
drdb
[,1] [,2] [,3] [,4]
[1,] -0.4460901 0.3899186 1.26758 -0.09589582
# the looping way
foreach(i = 1:4, .combine = c) %do%{
sum(-2*u*matrix(ap(bi(X[,i, drop = FALSE]%*%G1[i,], i)))*G2[i])
}
[1] -0.44609015 0.38991862 1.26758024 -0.09589582
# playing with the kroneker derivative rule
A <- t(matrix(beta))
B <- matrix(rep(1, N))
diag(rep(1, ncol(A) *ncol(B))) %*% diag(rep(1, ncol(A))) %x% (B) %x% diag(nrow(A))
[,1] [,2] [,3] [,4]
[1,] 1 0 0 0
[2,] 1 0 0 0
snip
[13,] 0 1 0 0
[14,] 0 1 0 0
snip
[28,] 0 0 1 0
[29,] 0 0 1 0
[snip
[39,] 0 0 0 1
[40,] 0 0 0 1
อัปเดต 2
vec()
และจากนี้สิ่งนั้น
อัปเดต 3
สร้างความก้าวหน้าที่นี่ เมื่อคืนนี้ฉันตื่นนอนตอน 2AM ด้วยความคิดนี้ คณิตศาสตร์ไม่ดีสำหรับการนอนหลับ
และในความเป็นจริงมันคือ:
stub <- (-2*u %*% t(G2) * ap(b(X%*%G1)))
w <- t(matrix(gamma)) %x% matrix(rep(1, N)) * (apply(X%*%G1, 2, sd) %>% t %x% matrix(rep(1, N)))
drdG1 <- t(X) %*% (stub*w)
loop_drdG1 <- drdG1*NA
for (i in 1:7){
for (j in 1:4){
loop_drdG1[i,j] <- t(X[,i]) %*% diag(w[,j]) %*% (stub[,j])
}
}
> loop_drdG1
[,1] [,2] [,3] [,4]
[1,] -61.531877 122.66157 360.08132 -51.666215
[2,] 7.047767 -14.04947 -41.24316 5.917769
[3,] 124.157678 -247.50384 -726.56422 104.250961
[4,] 44.151682 -88.01478 -258.37333 37.072659
[5,] 22.478082 -44.80924 -131.54056 18.874078
[6,] 22.098857 -44.05327 -129.32135 18.555655
[7,] 79.617345 -158.71430 -465.91653 66.851965
> drdG1
[,1] [,2] [,3] [,4]
[1,] -61.531877 122.66157 360.08132 -51.666215
[2,] 7.047767 -14.04947 -41.24316 5.917769
[3,] 124.157678 -247.50384 -726.56422 104.250961
[4,] 44.151682 -88.01478 -258.37333 37.072659
[5,] 22.478082 -44.80924 -131.54056 18.874078
[6,] 22.098857 -44.05327 -129.32135 18.555655
[7,] 79.617345 -158.71430 -465.91653 66.851965
อัปเดต 4
มันเรียงลำดับของการแข่งขัน:
drdg <- t(scale(X %*% G1)) %*% (stub * t(matrix(gamma)) %x% matrix(rep(1, N)))
loop_drdg <- foreach(i = 1:4, .combine = c) %do% {
t(scale(X %*% G1)[,i]) %*% (stub[,i, drop = F] * gamma[i])
}
> drdg
[,1] [,2] [,3] [,4]
[1,] 0.8580574 -1.125017 -4.876398 0.4611406
[2,] -4.5463304 5.960787 25.837103 -2.4433071
[3,] 2.0706860 -2.714919 -11.767849 1.1128364
[4,] -8.5641868 11.228681 48.670853 -4.6025996
> loop_drdg
[1] 0.8580574 5.9607870 -11.7678486 -4.6025996
ดูเหมือนว่าฉันได้ตอบคำถามของฉันเอง แต่ฉันไม่แน่ใจว่าถูกต้องหรือไม่ ณ จุดนี้ฉันจะยอมรับคำตอบที่พิสูจน์อย่างจริงจัง (หรือหักล้าง) สิ่งที่ฉันเรียงลำดับของการแฮ็กเข้าด้วยกัน
while(not_answered){
print("Bueller?")
Sys.sleep(1)
}
Rcpp
จะนำไปใช้อย่างมีประสิทธิภาพก็มีประโยชน์