ปัญหาที่ฉันพบคือในการพยายามนำเข้า globals ระหว่างโมดูลทำให้บรรทัด ProcessPool () ได้รับการประเมินหลายครั้ง
globals.py
from processing import Manager, Lock
from pathos.multiprocessing import ProcessPool
from pathos.threading import ThreadPool
class SingletonMeta(type):
def __new__(cls, name, bases, dict):
dict['__deepcopy__'] = dict['__copy__'] = lambda self, *args: self
return super(SingletonMeta, cls).__new__(cls, name, bases, dict)
def __init__(cls, name, bases, dict):
super(SingletonMeta, cls).__init__(name, bases, dict)
cls.instance = None
def __call__(cls,*args,**kw):
if cls.instance is None:
cls.instance = super(SingletonMeta, cls).__call__(*args, **kw)
return cls.instance
def __deepcopy__(self, item):
return item.__class__.instance
class Globals(object):
__metaclass__ = SingletonMeta
"""
This class is a workaround to the bug: AssertionError: daemonic processes are not allowed to have children
The root cause is that importing this file from different modules causes this file to be reevalutated each time,
thus ProcessPool() gets reexecuted inside that child thread, thus causing the daemonic processes bug
"""
def __init__(self):
print "%s::__init__()" % (self.__class__.__name__)
self.shared_manager = Manager()
self.shared_process_pool = ProcessPool()
self.shared_thread_pool = ThreadPool()
self.shared_lock = Lock()
จากนั้นนำเข้าอย่างปลอดภัยจากที่อื่นในโค้ดของคุณ
from globals import Globals
Globals().shared_manager
Globals().shared_process_pool
Globals().shared_thread_pool
Globals().shared_lock
ฉันได้เขียนคลาส Wrapper เพิ่มเติมpathos.multiprocessing
ที่นี่:
โปรดทราบว่าหาก usecase ของคุณต้องการเพียง async multiprocess map เป็นการเพิ่มประสิทธิภาพ joblib จะจัดการกลุ่มกระบวนการทั้งหมดของคุณในเบื้องหลังและอนุญาตให้ใช้ไวยากรณ์ที่เรียบง่ายนี้:
squares = Parallel(-1)( delayed(lambda num: num**2)(x) for x in range(100) )
I want a pool to be able to call a function that has another pool inside
และวิธีที่รบกวนความจริงที่ว่าคนงานถูก daemonized