Chromium多进程机制解析

简介: 关于Chromium多进程分析的文章很多了,这篇尝试以浅显的方式解释Chromium多进程机制,解析IPC内部运作的基本机制。Chromium如何保证多进程的性能对于一个多进程应用,其核心要解决的是并发的问题.两个面: 线程 和 IPC.一个多进程交互程序和城市的交通管理是非常相似,我做个类比:交通管理的问题解决办法对应多进程应用的情况车多限购。

关于Chromium多进程分析的文章很多了,这篇尝试以浅显的方式解释Chromium多进程机制,解析IPC内部运作的基本机制

Chromium如何保证多进程的性能

对于一个多进程应用,其核心要解决的是并发的问题.两个面: 线程 和 IPC

一个多进程交互程序和城市的交通管理是非常相似,我做个类比:

交通管理的问题 解决办法 对应多进程应用的情况
车多 限购。不要有事没事就买车。 事务多。
路窄 限行。没能拓宽前,只能限制上路的汽车。 进程通讯负载有限。
临时事故
分流。划分不同功能的车道,避免相互间的干扰。 任务等待导致的阻塞
缺少路况信息 主动监听,错峰上路。 IPC不可用时尝试使用会导致等待。


Chromium为解决这些问题(即C10K问题),使用了 非阻塞式,多线程,配合状态监听的解决方案 主要运用了以下关键技术:

  • Unix Domain Socket (POSIX下使用的IPC机制)
  • libevent (轻型事件驱动的网络库,用于监听IPC中的端口(文件描述符))
  • ChannelProxy (为Channel提供线程安全的机制)
  • 闭包 (线程的运作方式)

让我们从头说起!

先修路! 建立通道

写一个单机下多进程应用的核心就是建立进程之间沟通的方式,可以称为channel 或者 pipe。操作系统会提供这样的基础机制,包括:named pipe, shared memory, socket。


Chromium在POSIX下使用Unix Domain Socket来实现。Unix Domain Socket通过复用网络socket的标准接口,提供轻量级的稳定的本机socket通讯。Unix Domain的命名则是来自于使用socket时将domain参数定义为: PF_UNIX (Mac OS)或AF_UNIX, 来标识为单机的通讯使用。socket的建立不以IP地址为目标了,而是由文件系统中的FD(文件描述符)。


socket API原本是为网络通讯设计的,但后来在socket的框架上发展出一种IPC机制,就是UNIX Domain Socket。虽然网络socket也可用于同一台主机的进程间通讯(通过loopback地址127.0.0.1),但是UNIX Domain Socket用于IPC更有效率:不需要经过网络协议栈,不需要打包拆包、计算校验和、维护序号和应答等,只是将应用层数据从一个进程拷贝到另一个进程。 UNIX域套接字与TCP套接字相比较,在同一台主机的传输速度前者是后者的两倍。这是因为,IPC机制本质上是可靠的通讯,而网络协议是为 不可靠的通讯设计的。UNIX Domain Socket也提供面向流和面向数据包两种API接口,类似于TCP和UDP,但是面向消息的UNIX Domain Socket也是可靠的,消息既不会丢失也不会顺序错乱。

使用UNIX Domain Socket的过程和网络socket十分相似,也要先调用socket()创建一个socket文件描述符,address family指定为AF_UNIX,type可以选择SOCK_DGRAM或SOCK_STREAM,protocol参数仍然指定为0即可。

UNIX Domain Socket与网络socket编程最明显的不同在于地址格式不同,用结构体sockaddr_un表示,网络编程的socket地址是IP地址加端口 号,而UNIX Domain Socket的地址是一个socket类型的文件在文件系统中的路径。


Chromium在POSIX下直接使用socketpair() API创建了已经连通的匿名管道, 逻辑结构如下:


可以看过IPC机制里区分了Server和Client, 其实通过socketpair()创建的匿名管道是全双工,实质上并不区分Server/Client。

这个IPC建立的过程是在主进程完成的,需要使用其它的机制通知子进程。在Android Chrome下,通过传递FD列表完成这个操作。这个稍后再解释 (可以查找kPrimaryIPCChannel学习)。

当子进程知道Server端的socket FD后,就可以进行连接,发送hello message,  认证后就可以开始通讯了。


通讯端口的管家

当端口打通后,效率成为关键。通常而言,一般这时候会考虑为了及时处理收到消息,要么轮询,要么实现回调。但事情并不是这么简单。

虽说Unix Domain Socket不走网络栈已经提升不了性能。但还有负载的问题需要解决。使用回调机制是必须的,更重要的是面临C10K问题:

C10K Problem 

C10K 问题的最大特点是:设计不够良好的程序,其性能和连接数及机器性能的关 系往往是非线性的。举个例子:如果没有考虑过 C10K 问题,一个经典的基于 select 的程序能在旧服务器上很好处理 1000 并发的吞吐量,它在 2 倍性能新服务器上往往处 理不了并发 2000 的吞吐量。


Chromium使用了大名鼎鼎的第三方并发网络库:libevent来完成这项工作 (另外还有ACE,自适应通信环境)。 下面是它的功能介绍:

Libevent是一个轻量级的开源高性能网络库.有几个显著的亮点:

a. 事件驱动(event-driven),

b. 高性能 轻量级,专注于网络,不如ACE那么臃肿庞大

c. 注册事件优先级

基本的socket编程是阻塞/同步的,每个操作除非已经完成或者出错才会返回,这样对于每一个请求,要使用一个线程或者单独的进程去处理,系统资源没法支撑大量的请求(所谓c10k problem),例如内存:默认情况下每个线程需要占用2~8M的栈空间。posix定义了可以使用异步的select系统调用,但是因为其采用了轮询的方式来判断某个fd是否变成active,效率不高[O(n)],连接数一多,也还是撑不住。于是各系统分别提出了基于异步/callback的系统调用,例如Linux的epoll,BSD的kqueue,Windows的IOCP。由于在内核层面做了支持,所以可以用O(1)的效率查找到active的fd。基本上,libevent就是对这些高效IO的封装,提供统一的API,简化开发。

简而言之,就是:"不要等!只要好了,我就会通知你!",就是典型的好莱坞法则。这相当于在通讯端口设了一位大管家,提升IPC交互的能力。


Libevent的核心是应用了解决并发问题中常用的基于事件驱动的Reactor模式。简单而言就是通过一个内部的循环,在事件触发时启动并进行响应,无事件时则挂起.它同样需要注意事件回调的处理不能做太多事情,避免拥塞.在Chromium里的代码体现IPC Channel实现如下接口:

// Used with WatchFileDescriptor to asynchronously monitor the I/O readiness

// of a file descriptor.

class Watcher {

 public:

  // Called from MessageLoop::Run when an FD can be read from/written to

  // without blocking

  virtual void OnFileCanReadWithoutBlocking(int fd) = 0;

  virtual void OnFileCanWriteWithoutBlocking(int fd) = 0;

 protected:

  virtual ~Watcher() {}

};

关于Reactor模式和另一类相似的模式的比对, 可以读一下这篇文章


专人接待! 排队,排队...


IPC通道已经建立好了,但有一大群的调用者。任何人都想在自己方便的时候进行IPC通讯,这样就存在并发问题了。Channel本身只想做好通道的管理工作,一心对外。 Chromium为此引入了Channel Proxy。 

     

Proxy从设计模式上来看,职能上就是服务上的秘书,安排访客与Channel见面的时间和方式。同线程的可以入队列等候,不同线程的,不好意思,出门右拐,再进来。总之Channel只在一个线程上做事,Channel Proxy负责将要处理的事务安排到指定的线程上。 

bool ChannelProxy::Send(Message* message) {

  context_->ipc_task_runner()->PostTask(

      FROM_HERE,

      base::Bind(&ChannelProxy::Context::OnSendMessage,

                 context_, base::Passed(scoped_ptr<Message>(message))));

  return true;

}


在Chromium中的线程只负责建立跑道,执行事务,它不会保存特定任务的上下文信息(有助于提高性能),也不关心执行的是什么事务。执行什么操作完全由上层的业务逻辑决定。在主干道上,任务的处理时间是非常宝贵的,特定是在UI线程上。进程里会指定Channel处理任务所在的线程,多线程情况以下线程任务的方式请求Channel发送及处理消息。在线程上其核心就是闭包的实现.

 

让线程更高效 - 裸奔的线程

提升应用程序的并发能力,两个要点:

  • 任务响应短,快.不要有耗时的事务。
  • 尽量少使用锁。
  • 避免频繁的上下文切换。


前面提到的libevent中应用的Reactor模式也是要达到相同的目的. 第一点是应用层的一个约定,第二层就是线程机制要保障的.


传统的线程在创建时就会指定一个入口,往往已经是一个具体功能的入口了,里面会一个循环,对所要监测的事件,以及对应的处理,这个循环体本身是清楚,甚至可以做一些逻辑判断工作.这些就是因为它掌握了当前任务的上下文信息. 


Chromium上的线程可以避免这类的上下文切换, 线程本身不保存任务的信息,任务对其是透明的,线程只负责调用其执行操作,可以视为裸奔的状态,没有任何负担.跑在线程上的任务以典型的Command模式实现。它必须解决两个问题:

  • 任务本身在一个线程运行,就可以由其自己保存上下文信息.
  • 任务的参数(也是一种上下文),则可以通过闭包的方式也由其自己保存.


闭包在C++有很多的尝试,Chromium中特别说明其也参考了tr1::bind的设计.关于Chromium的线程实现这里先不多做说明。

 

Chromium进程架构

从逻辑上来看,Chromium将UI所在的进程视为主进程,取名为Browser, 页面渲染所在的进程以及其它业务进程,都是子进程。包括Renderer, GPU等。

主进程本身除了初始化自身,还要负责创建子进程,同时通知建立channel的信息(文件描述符)。概念模型如下:

    


对于Chromium而言,Contents已经代表一个浏览器能力,在其上就是实现浏览器业务的Embedder了。但不同的Embedder或者在不同的平台进程的选择可能不同,比如启动一个浏览主进程的行为不同(比如在Android上就不需要启动新进程了,直接初化BrowserMainRunner。而Linux则可以要以Service Process的形式运行主进程。),初始化SandBox的方式不同。Chromium与是将所有进程的启动的操作集中起来供Embedder和主进程来启动新进程 (Embedder负责启动Browser进程, 主进程则再启动新进程,并在ContentMainRunner中根据参数启动不同的子进程。):

     

*在单进程模型下,主进程就不会直接启动子进程了,而是通过CreateInProcessRendererThread()创建新的线程(InProcessRendererThread),同样会传入channel描述符。


进一步看主进程和Renderer进程,两边负责接口的,则是两个兼有(继承)IPC::Sender和IPC::Listener功能的类:RenderProcessHost和RenderThread。没错,就是RenderThread! RenderProcess也存在,只是一个进程的逻辑表示,只有一小部分的代码。以单进程模式下调用InProcessRendererThread来初始化RenderThread为例,可以看到channel_id_是传入到RenderThread中处理的。

void InProcessRendererThread::Init() {

  render_process_.reset(new RenderProcessImpl());

  new RenderThreadImpl(channel_id_);

}

专线与公共线路 - 消息的分发

分发消息时,分为广播和专线两种方式。在Chromium中一个页面在不同线程,Browser和Renderer两端以routed id为标识彼此。如果要说悄悄话,就指定一个routed id, 这类消息称为Routed Message,是专线。 另一类消息,则是进行广播,不区分身份,这类消息为Control Message。

    


RenderView (继承自RenderWidget)用于向IPC Channel注册自己的代码在RenderWidget::DoInit():

bool result = RenderThread::Get()->Send(create_widget_message);

if (result) {

  RenderThread::Get()->AddRoute(routing_id_, this);

  ......

}

另外在Browser和Render Thread初始化时,都会在IPC Channel上增加一组Filters,以便供其它功能使用。

 

参考资料


目录
相关文章
|
14天前
|
PHP 项目管理 开发者
深入解析PHP的命名空间和自动加载机制
【4月更文挑战第4天】 在PHP的编程世界中,命名空间和自动加载机制是构建大型应用程序时不可或缺的工具。本文将深入探讨这两个概念,揭示它们如何简化代码结构、避免类名冲突以及提高代码维护性。通过对PHP命名空间的由来、作用域和使用方法的细致剖析,以及对自动加载机制工作原理和应用实践的全面讲解,读者将获得有效管理复杂项目中依赖关系的能力。
|
30天前
|
资源调度 算法 Linux
Linux进程/线程的调度机制介绍:详细解析Linux系统中进程/线程的调度优先级规则
Linux进程/线程的调度机制介绍:详细解析Linux系统中进程/线程的调度优先级规则
48 0
|
1天前
|
调度 Python
Python多线程、多进程与协程面试题解析
【4月更文挑战第14天】Python并发编程涉及多线程、多进程和协程。面试中,对这些概念的理解和应用是评估候选人的重要标准。本文介绍了它们的基础知识、常见问题和应对策略。多线程在同一进程中并发执行,多进程通过进程间通信实现并发,协程则使用`asyncio`进行轻量级线程控制。面试常遇到的问题包括并发并行混淆、GIL影响多线程性能、进程间通信不当和协程异步IO理解不清。要掌握并发模型,需明确其适用场景,理解GIL、进程间通信和协程调度机制。
12 0
|
6天前
|
算法 Linux 调度
深度解析:Linux内核的进程调度机制
【4月更文挑战第12天】 在多任务操作系统如Linux中,进程调度机制是系统的核心组成部分之一,它决定了处理器资源如何分配给多个竞争的进程。本文深入探讨了Linux内核中的进程调度策略和相关算法,包括其设计哲学、实现原理及对系统性能的影响。通过分析进程调度器的工作原理,我们能够理解操作系统如何平衡效率、公平性和响应性,进而优化系统表现和用户体验。
15 3
|
23天前
|
监控 算法 Unix
【Linux 异步操作】深入理解 Linux 异步通知机制:原理、应用与实例解析
【Linux 异步操作】深入理解 Linux 异步通知机制:原理、应用与实例解析
55 0
|
24天前
|
XML JSON API
深入解析C++ JSON库:nlohmann::json:: parse的内部机制与应用
深入解析C++ JSON库:nlohmann::json:: parse的内部机制与应用
42 0
|
30天前
|
消息中间件 Linux API
跨进程通信设计:Qt 进程间通讯类全面解析
跨进程通信设计:Qt 进程间通讯类全面解析
77 0
|
28天前
|
Unix Shell Linux
Linux 终端和进程的关系,以及在终端前后台切换进程
Linux 终端和进程的关系,以及在终端前后台切换进程
27 1
|
27天前
|
存储 Shell Linux
【Shell 命令集合 系统设置 】⭐⭐⭐Linux 限制进程资源 ulimit命令 使用指南
【Shell 命令集合 系统设置 】⭐⭐⭐Linux 限制进程资源 ulimit命令 使用指南
37 0
|
27天前
|
监控 Shell Linux
【Shell 命令集合 系统管理 】⭐⭐⭐Linux 向进程发送信号 kill命令 使用指南
【Shell 命令集合 系统管理 】⭐⭐⭐Linux 向进程发送信号 kill命令 使用指南
31 0

推荐镜像

更多