ในตัวอย่าง LED ทั้งหมดที่ฉันพบพวกเขามีการตั้งค่าแรงดันไปข้างหน้าเป็นจำนวนเฉพาะ (เช่น 2.1v) และคำนวณตัวต้านทานที่จำเป็นตามหมายเลขนั้น แต่เมื่อฉันค้นหาเอกสารข้อมูลแรงดันไฟฟ้าไปข้างหน้าจะอยู่ในช่วง (2.0v - 2.5v) เรื่องนี้สมเหตุสมผลสำหรับฉันเพราะหลอดไฟทุกดวงไม่ได้ถูกสร้างขึ้นเท่ากัน แต่มันทำให้ฉันรู้ได้ยากว่าตัวต้านทานตัวไหนที่จะใช้
ดังนั้นฉันจึงตัดสินใจออกแบบวงจร ฉันมีแหล่งจ่ายแรงดันไฟฟ้า 3v (แบตเตอรี่ AA 2 ก้อน) ที่เชื่อมต่อกับตัวต้านทานที่เชื่อมต่อกับ LED ที่เชื่อมต่อกลับไปยังแหล่งจ่ายแรงดันไฟฟ้า กระแสสูงสุดที่ยั่งยืนของ LED คือ 20mA
ฉันตัดสินใจใช้กฎของโอห์มในช่วงแรงดันไปข้างหน้าต่ำและสูงเพื่อคำนวณความต้านทาน
( 3.0 v - 2.5 v ) / 20 m A = 25 Ω
ปัญหาเกิดขึ้นเมื่อฉันเลือกตัวต้านทาน สมมติว่าฉันเลือกตัวต้านทาน 50 โอห์ม แต่ LED ที่ฉันได้รับมีแรงดันไปข้างหน้า 2.5v จำนวนจริงของกระแสไฟฟ้าที่จะผ่าน LED จะเท่ากับ 10mA นั่นไม่ใช่การใช้ไฟ LED ให้เต็มประสิทธิภาพ
ถ้าฉันใช้ตัวต้านทาน 25 โอห์มและ LED มีแรงดันไปข้างหน้า 2.0v ดังนั้นปริมาณของกระแสที่ไหลผ่าน LED จะเท่ากับ 40mA LED ของฉันจะระเบิด
การใช้ "ค่าที่ตั้งไว้" ของ 2.1v ในการคำนวณความต้านทานทำให้เรามี 45 โอห์ม
ถ้า LED ของฉันมีแรงดันไปข้างหน้า 2.0v ปัจจุบันจะเป็น 22mA นั่นเกินคะแนนสำหรับ LED หาก LED มีแรงดันไฟฟ้าไปข้างหน้า 2.5v กระแสจะเป็น 11mA ซึ่งไม่ได้ใช้ LED เพื่อให้เต็มศักยภาพ
หมายเหตุ:ฉันไม่ได้กังวลเกี่ยวกับการนำศักยภาพออกมาจาก LED อย่างเต็มที่ (ถ้าฉันเข้าใจถูกต้อง 10mA ควรทำงานได้ดีเพื่อให้แสงสว่างขึ้น LED) ฉันแค่อยากรู้ว่าวิศวกรตัวจริงจัดการกับปัญหานี้อย่างไร มีกระแส 10mA ที่ยอมรับได้หรือไม่? คุณสามารถหนีไปได้ด้วย 22mA แม้ว่ารายละเอียดจะบอกว่า 20mA? คุณจะทำอย่างไรเมื่อคุณต้องการให้ไฟ LED ทำงานที่ความสว่างสูงสุด