web服务器(WS) (如apache2或nginix (或容器,如tomcat(TC))将创建一个新进程来处理传入的请求。我担心的是支持大量并行用户(比如20K+并行用户)的服务器。我认为负载平衡发生在web服务器的另一端(如果它用于前端Tomcat等)。因此,从理论上讲,一个web服务器应该接受所有(20K+)传入请求,然后才能将负载分配给支持它的其他服务器。因此,问题是: Web (WS)是在单个进程<
是否可以使用多进程将数据发送到正在运行的子进程?例如,在子进程中运行web服务器,并使用父进程将数据发送到服务器。我发现了this question about the exact reverse of my situation (即从一个正在运行的子进程到父进程的连续更新)。有没有办法让它起作用呢?我的理解是multiprocessing.Queue只在进程终止时发送/