ฉันมีชุดข้อมูลที่ประกอบด้วยชุดของกรณี "รายเดือนที่หัก" นับจากเว็บไซต์จำนวนหนึ่ง ฉันกำลังพยายามหาค่าประมาณสรุปเดียวจากสองเทคนิคที่ต่างกัน:
เทคนิคที่ 1: ติดตั้ง "แท่งหัก" กับ Poisson GLM พร้อมตัวแปรตัวบ่งชี้ 0/1 และใช้ตัวแปรเวลาและเวลา ^ 2 เพื่อควบคุมแนวโน้มในเวลา การประมาณค่าตัวแปร 0/1 ของตัวบ่งชี้และ SE นั้นจะรวมกันโดยใช้วิธีโมเมนต์ขึ้นและลงแบบสวย ๆ หรือใช้แพ็คเกจ tlnise ใน R เพื่อรับการประมาณ "Bayesian" สิ่งนี้คล้ายกับที่ Peng และ Dominici ทำกับข้อมูลมลพิษทางอากาศ แต่มีไซต์น้อยกว่า (~ โหล)
เทคนิคที่ 2: ละทิ้งการควบคุมเฉพาะไซต์สำหรับแนวโน้มในเวลาและใช้โมเดลเชิงเส้นผสม โดยเฉพาะอย่างยิ่ง:
lmer(cases ~ indicator + (1+month+I(month^2) + offset(log(p)), family="poisson", data=data)
คำถามของฉันเกี่ยวข้องกับข้อผิดพลาดมาตรฐานที่มาจากการประมาณเหล่านี้ ข้อผิดพลาดมาตรฐานของเทคนิค 1 ซึ่งใช้จริงทุกสัปดาห์แทนที่จะตั้งเวลารายเดือนและควรมีความแม่นยำมากขึ้นมีข้อผิดพลาดมาตรฐานในการประเมินประมาณ 0.206 สำหรับวิธีการของ Moments และ ~ 0.306 สำหรับ tlnise
เมธอด lmer ให้ข้อผิดพลาดมาตรฐานที่ ~ 0.09 การประเมินผลกระทบอยู่ใกล้พอสมควรดังนั้นจึงไม่น่าจะเป็นไปได้ว่าพวกเขามีศูนย์ในการประมาณการสรุปที่แตกต่างกันมากพอ ๆ กับตัวแบบผสมที่มีประสิทธิภาพอย่างมากมาย
เป็นสิ่งที่สมเหตุสมผลหรือไม่ ถ้าเป็นเช่นนั้นทำไมโมเดลแบบผสมจึงมีประสิทธิภาพมากกว่ามาก นี่เป็นปรากฏการณ์ทั่วไปหรือเป็นผลลัพธ์ที่เฉพาะเจาะจงของรุ่นนี้หรือไม่?