คำถามติดแท็ก image-recognition

7
ทำไมผลงานตีพิมพ์ส่วนใหญ่ในการถ่ายภาพทางการแพทย์จึงพยายามลดผลบวกปลอม?
ในการประมวลผลภาพทางการแพทย์ผลงานที่ตีพิมพ์ส่วนใหญ่พยายามลดอัตราการบวกผิด ๆ (FPR) ในขณะที่ในความเป็นจริงการปฏิเสธเชิงลบนั้นมีอันตรายมากกว่าการปลอมแปลงบวก เหตุผลเบื้องหลังมันคืออะไร?

3
การแยกคุณสมบัติของภาพใน Python
ในชั้นเรียนของฉันฉันต้องสร้างแอปพลิเคชั่นโดยใช้ตัวแยกประเภทสองตัวเพื่อตัดสินใจว่าวัตถุในภาพเป็นตัวอย่างของไฟลัมพอฟิรา (seasponge) หรือวัตถุอื่น ๆ อย่างไรก็ตามฉันหลงทางอย่างสิ้นเชิงเมื่อพูดถึงเทคนิคการแยกฟีเจอร์ในไพ ธ อน ที่ปรึกษาของฉันโน้มน้าวให้ฉันใช้รูปภาพที่ไม่ได้กล่าวถึงในชั้นเรียน ใครสามารถบอกฉันถึงเอกสารที่มีความหมายหรืออ่านหรือแนะนำวิธีการในการพิจารณา?

5
โครงข่ายประสาทเทียมมากเกินไป การออกกลางคันไม่ได้ช่วยอะไร
ฉันกำลังเล่นกับ convnets เล็กน้อย โดยเฉพาะฉันใช้ชุดข้อมูล cats-vs-dogs kaggle ซึ่งประกอบไปด้วยรูปภาพ 25,000 ภาพที่มีป้ายกำกับว่าเป็น cat หรือ dog (12500 อัน) ฉันจัดการเพื่อให้บรรลุความถูกต้องจำแนก 85% ในชุดทดสอบของฉัน แต่ฉันกำหนดเป้าหมายของการบรรลุความแม่นยำ 90% ปัญหาหลักของฉันคือ overfitting อย่างใดก็มักจะเกิดขึ้นเสมอ (ปกติหลังจากยุค 8-10) สถาปัตยกรรมของเครือข่ายของฉันได้รับแรงบันดาลใจมาจาก VGG-16 โดยเฉพาะอย่างยิ่งภาพของฉันได้รับการปรับขนาดเป็น128x128x3128x128x3128x128x3จากนั้นฉันเรียกใช้: Convolution 1 128x128x32 (kernel size is 3, strides is 1) Convolution 2 128x128x32 (kernel size is 3, strides is 1) Max pool 1 …

3
ปรับขนาดรูปภาพและขยายสำหรับ CNN
ฉันต้องการฝึกการรับรู้ภาพของ CNN รูปภาพสำหรับการฝึกอบรมมีขนาดไม่คงที่ ฉันต้องการให้ขนาดอินพุตสำหรับ CNN เท่ากับ 50x100 (สูง x กว้าง) ตัวอย่างเช่น เมื่อฉันปรับขนาดภาพขนาดเล็กบางอย่าง (เช่น 32x32) เป็นขนาดอินพุตเนื้อหาของภาพจะถูกยืดออกในแนวนอนมากเกินไป แต่สำหรับภาพขนาดกลางบางภาพมันก็โอเค วิธีการที่เหมาะสมสำหรับการปรับขนาดภาพในขณะที่หลีกเลี่ยงเนื้อหาที่ถูกทำลายคืออะไร? (ฉันกำลังคิดเกี่ยวกับการขยายภาพด้วยขนาด 0s เพื่อให้ได้ขนาดที่สมบูรณ์หลังจากปรับขนาดเป็นอัตราส่วนการรักษาความกว้างและความสูงในระดับหนึ่งมันจะโอเคกับวิธีนี้ไหม)

1
เหตุผลในการถ่ายภาพสี่เหลี่ยมในการเรียนรู้อย่างลึกซึ้ง
ส่วนใหญ่ของโมเดลการเรียนรู้ลึกขั้นสูงเช่น VGG, RESNET ฯลฯ จำเป็นต้องมีภาพตารางเป็น input มักจะมีขนาดของพิกเซล224x224224x224224x224224x224 มีเหตุผลที่อินพุตจะต้องมีรูปร่างเท่ากันหรือฉันสามารถสร้างแบบจำลอง convnet ด้วยการพูดเช่นกัน (ถ้าฉันต้องการจดจำใบหน้าและตัวอย่างเช่นฉันมีภาพบุคคล)?100x200100x200100x200 มีประโยชน์เพิ่มขึ้นด้วยขนาดพิกเซลที่ใหญ่ขึ้นพูด ?512x512512x512512x512

2
จำนวนภาพต่อชั้นเรียนเพียงพอสำหรับการฝึกอบรม CNN
ฉันเริ่มต้นโครงการที่มีหน้าที่ระบุประเภทรองเท้าผ้าใบจากรูปภาพ ฉันกำลังอ่านเกี่ยวกับการใช้งานTensorFlowและTorch คำถามของฉันคือต้องมีกี่ภาพต่อชั้นเพื่อให้ได้ประสิทธิภาพการจำแนกประเภทที่เหมาะสม

5
มิติการกระโดดในการเรียนรู้ของเครื่อง
ปัญหาการกระโดดข้ามมิติในการเรียนรู้ของเครื่องคืออะไร (เกิดขึ้นในโครงข่ายประสาทเทียมและการจดจำภาพ) ฉันทำไปแล้ว แต่สิ่งที่ฉันได้รับคือข้อมูลทางฟิสิกส์ของการเสียรูปของวัสดุ มันจะเป็นประโยชน์กับฉันมากขึ้นถ้าบางคนอธิบายด้วยตัวอย่างที่เกี่ยวข้องกับการเรียนรู้ของเครื่อง ใครสามารถช่วยฉันด้วยสิ่งนี้หรือชี้ให้ฉันไปยังแหล่งข้อมูลที่สามารถ?
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.