6.伯努利过程&泊松过程
随机过程是处理包含时间以及数据序列的概率模型,比如随机过程可用于如下数据序列建模:
- 每天的股票价格数据序列
- 足球比赛得分数据序列
- 机器失效时间数据序列
- 交通网络中的每个点的交通负荷数据序列
- 雷达对一架飞机的定位数据序列
序列中每个数据视为一个随机变量,所以简单地说,随机过程就是一串(有限或者无限)随机变量序列,与概率的基本概念没有本质区别
设在某个试验的样本空间中的每一个试验结果,对应着一个数列,这个数列中的每一个数,都对应着一个随机变量
(注:在随机过程中产生的随机变量都是通常的随机变量,它们都定义在一个相同的样本空间上;相应的概率规律只要求明确无误地确定所有随机变量集合的任何子集的联合分布,而这些联合分布之间应该具有某种相容性)
随机过程与随机变量序列的区别
- 我们更倾向于强调过程中产生的数据序列之间的相关关系;如:股票的未来价格与历史价格是什么关系?
- 我们对整个过程中长期均值感兴趣;如:有多大比例的时间,机器处于闲置?
- 有时需要刻画某些边界事件的似然或者频率;如:在给定的时间内,电话系统里所有的电路同时处于忙碌状态的概率是多少? 计算机网络中缓冲器数据溢出的频率是多少?
随机过程的种类
- 到达过程:我们感兴趣的是某种“到达” 特性是否发生;如:接收器接收信号的时刻,生产线上的工作完成时刻,商店顾客的购买行为的实施时刻;我们重点研究相邻到达时间(即两次到达之间的时间)是相互独立的随机变量的模型
- 在6.1节,我们考虑到达时间是离散的情形,相邻时间服从几何分布,即伯努利过程
- 在6.2节,我们考虑到达时间是连续的情形,相邻时间服从指数分布,即泊松过程
- 马尔可夫过程:考虑数据在时间点上演化,而且未来数据的演化与历史数据有概率相关结构
- 如:股票的未来价格明显依赖于过去的价格
- 但是在马尔可夫过程中,我们假设一类特殊的相关:未来的数据只依赖于当前的数据,而与过去的数据无关
- 对于马尔可夫过程,概率统计学家积累了丰富的研究成果,处理方法也已经成熟,这是第 7 章讨论的主题
- 注:随机过程的种类非常多,不仅限于上述讨论的过程
1. 伯努利过程
一般而言,伯努利过程是由一串伯努利试验组成;每次试验以概率 p 产生数据1(成功),以概率 1-p 产生数据0 (失败),而且跟试验序列中的其他试验是相互独立的
当然, 投掷硬币只是对独立二进制输出数据的一个范例说明;比如,伯努利过程经常用于对诸如顾客到来,服务中心找到工作等系统进行建模;这里,时间被离散化为若干时间段,在第 k 段时间内,至少有一个顾客到达服务中心,就视为第 k 次试验“成功”;因此,我们常常使用“到达”这个词语。而不用“成功”,这是由实际背景决定的
伯努利过程
伯努利过程视为一串相互独立的伯努利随机变量序列 \(X_1,\dots,X_n\),且对任意的 i:
\(P(X_i=1)=P(\text{第 i 次试验成功})=p\)
\(P(X_i=0)=P(\text{第 i 次试验失败})=1-p\)
注:人们常常感兴趣的事一定时间内到达的总到达次数,或者首次到达的时间
伯努利过程相关随机变量及其性质
(1) 服从参数为 n 和 p 的二项分布:这是 n 次相继独立的试验成果的总次数 S 的分布,它的参数如下:
\(p_S(k)=\binom nkp^k(1-p)^{n-k}\)(\(k=0..n\))
\(E[S]=np,\text{var}(S)=np(1-p)\)
(2) 服从参数为 p 的几何分布:这是相互独立重复的伯努利试验首次成功的时刻 T 的分布,它的参数如下:
\(p_T(t)=p(1-p)^{t-1}\)(\(t=1,2,\dots\))
\(E[T]=\frac1p,\text{var}(T)=\frac{1-p}{p^2}\)
重新开始
现在假设伯努利过程运行了n 次,得到了观测数据 \(X_1,\dots,X_n\),未来试验序列 \(X_{n+1},X_{n+2},\dots\) 仍然是独立的伯努利试验,形成了新的伯努利过程;进一步,这些未来试验与过去的试验都是独立的
结论:从任意一个时刻开始,未来也可以用相同的伯努利过程来建模,而且与过去相互独立;人们称这种伯努利过程性质为重新开始
无记忆性质
伯努利过程首次成功时试验的总次数 T 服从几何分布
假设我们已经观察过程 n 步,但是没有“成功”结果出现
考察直到出现“成功”的结果的 \(T-n\) 次试验:\(P(T-n=t|T>n)=p(1-p)^{t-1}=P(T=t)\)(\(t=1,2,\dots\))
也就是说,直到出现“成功”的结果的未来试验次数仍然是相同的几何分布;这种性质称为无记忆性质
独立性质
对于任意给定的时刻 n,随机变量序列 \(X_{n+1},X_{n+2},\dots\)(过程的将来)也是伯努利过程,而且与 \(X_1,\dots,X_n\)(过程的过去)独立
对任意给定的时刻 n,令 \(\bar T\) 是时刻 n 之后首次成功的时刻,则随机变量 \(\bar T-n\) 服从参数为 p 的几何分布,且与随机变量 \(X_1,\dots,X_n\) 独立
例子
- 计算机执行任务(详见 p325):钙离子说明过程随时可以重新开始
- 随机事件的重新新开始:设 N 是第一次连续遇到两次成功的时刻(即 \(N=\{i~|~X_{i-1}=X_i=1\}\)),求紧接着两次试验都失败的概率概率 \(P(X_{N+1}=X_{N+2}=0)\)
- 由于条件 \(X_{N-1}=X_n=1\) 已满足,所以未来的过程由独立的伯努利试验组成,即关于未来事件的概率与重新开始的伯努利过程的相应概率是一样的,所以 \(P(X_{N+1}=X_{N+2}=0)=(1-p)^2\)
- 严格证明:\(P(X_{N+1}=X_{N+2}=0)=\sum\limits_{n=1}^∞P(N=n)P(X_{N+1}=X_{N+2}=0|N=n)=\sum\limits_{n=1}^∞P(N=n)P(X_{n+1}=X_{n+2}=0|N=n)\)
- N 确定后,事件 \(\{N=n\}\) 发生,当且仅当 \(X_1,\dots,X_n\) 满足某个特定条件,而这些随机变量与 \(X_{n+1},X_{n+2},\dots\) 是独立的,所以 \(P(X_{n+1}=X_{n+2}=0|N=n)=P(X_{n+1}=X_{n+2}=0)=(1-p)^2\)
- 于是 \(P(X_{N+1}=X_{N+2}=0)=\sum\limits_{n=1}^∞P(N=n)(1-p)^2=(1-p)^2\)
相邻到达间隔时间
定义随机变量 \(T_k\) 为第 k 次成功(或到达)的时间;易知 \(T_1,T_2,\dots\) 相互独立,而且具有相同的几何分布
随机变量 \(Y_k\) 为第 k 次相邻到达的间隔时间,即 \(Y_1=T_1,Y_k=T_k-T_{k-1}\)
满足 \(T_k=\sum\limits_{i=1}^kY_i\)
伯努利过程的另一种描述:
- 开始于一串相互独立的,参数为 p 的几何分布随机变量序列 \(T_1,T_2,\dots\),它们是相邻到达时间间隔
- 观测成功(或到达)的时间为 \(T_1,T_1+T_2,T_1+T_2+T_3,\dots\)
第 k 次到达的时间
第 k 次到达的时间 \(Y_k\) 等于 k 个独立同分布,服从几何分布的随机变量之和
- 第 k 次到达的时间等于前 k 个相邻到达时间之和 \(Y_k=\sum\limits_{i=1}^kT_i\);而且 \(T_1,\dots,T_k\) 独立同分布,服从参数为 p 的几何分布
- \(E[Y_k]=\sum\limits_{i=1}^kE[T_i]=\frac kp\),\(\text{var}(Y_k)=\sum\limits_{i=1}^k\text{var}(T_i)=\frac{k(1-p)}{p^2}\)
- \(p_{Y_k}(t)=\binom{t-1}{k-1}p^k(1-p)^{t-k}\)(\(t=k,k+1,\dots\))
这就是著名的阶数为 k 的帕斯卡分布
注:\(\{Y_k=t\}\) 发生,当且仅当 “前 \(t-1\) 次试验有 \(k-1\) 次到达” 和 “第 t 次试验到达了 1 次”;于是 \(p_{Y_k}(t)=P(Y_k=t)=\binom{t-1}{k-1}p^{k-1}(1-p)^{t-k}\cdot p=\binom{t-1}{k-1}p^k(1-p)^{t-k}\)
例子
- 在篮球比赛中,老王每分钟犯一次规的概率是 p,不同分钟内是否犯规是相互独立的;老王犯了 6 次规后,会被罚出场;如果一场比赛 30 分钟,计算老王参赛的时间的分布列?(若第 6 次犯规后,老王会在那一分钟结束后出场)
- 设随机变量 Z 为老王参赛时长
- (1) 若第 6 次犯规在第 \(6\sim29\) 分钟内到达,那么 \(Z=Y_6\)(6 阶帕斯卡分布)
- (2) 其余情况的概率恰好能用 (1) 的补事件的概率来表示
- 于是 \(p_Z(z)=\begin{cases}p_{Y_6}(z)=\binom {z-1}5p^6(1-p)^{t-6}&z=6..29\\1-\sum\limits_{i=1}^{29}p_{Y_6}(i)&z=30\end{cases}\)(注:\(Z=\min\{Y_6,30\}\))
伯努利过程的分裂和合并
分裂:伯努利过程每次到达的概率为 p,每当有一个到达时,我们选择或者保留下来(概率为 q ),或者抛弃(概率为 1-q ),保留还是抛弃的 决定在不同的到达时间是相互独立的;保留下来的过程,以及 被抛弃的到达过程 都是伯努利过程
合并:有两个独立的伯努利过程(参数分别是 p 和 q ),一个到达被收录到合并的过程中,当且仅当在这两个原始的过程中,至少有一个是到达状态,该事件的概率是 \(1-(1-p)(1-q)=p+q-pq\);既然不同的瞬间两个过程是相互独立的,合并后的不同的瞬间仍然是独立的,所以合并后的过程仍是伯努利过程,每次成功的概率是 \(p+q-pq\)
注:伯努利过程(或其他过程)的分裂和合并在实际中经常发生;比如,两个机器工作中心可能有零部件到达流水线,然后把每个零部件随机分开到某一个机器;反之,一个机器可能面临许多不同类型的零部件,然后合并成一条流水线
n 次独立的伯努利试验成功的次数是一个二项分布的随机变量,参数为 n 和 p,期望为 np
在本小节里,我们集中处理一类特殊的情况:n 充分大,而 p 很小,均值 np 比较适中(连续情况参考 6.2)
二项分布的泊松近似
- 参数为 \(\lambda\) 的泊松随机变量 Z 取非负整数值;其分布列,均值,方差分别为 \(p_Z(k)=e^{-\lambda}\frac{\lambda^k}{k!}\),\(E[Z]=\lambda\),\(\text{var}(Z)=\lambda\)
- 当 \(n\to∞\),\(p=\lambda/n\) 时,二项分布的概率 \(p_S(k)=\binom nkp^k(1-p)^{n-k}\) 收敛到 \(p_Z(k)\)(其中 \(\lambda\) 是常数,k 是任意固定的非负整数)
- 一般而言,泊松分布是二项分布的一个很好的近似,只要 \(\lambda=np\),n 充分大,p 充分小
证明:
令 \(p=\lambda/n\),
于是 \(p_S(k)=\binom nkp^k(1-p)^{n-k}=\frac{n!/(n-k)!}{k!}\cdot\frac{\lambda^k}{n^k}(1-\frac \lambda n)^{n-k}=(\prod\limits_{i=0}^{k-1}\frac{n-i}{n})\frac{\lambda^k}{k!}(1-\frac \lambda n)^{n-k}\)
\(\lim\limits_{n\to∞}p_S(k)=\lim\limits_{n\to∞}(\prod\limits_{i=0}^{k-1}\frac{n-i}{n})\frac{\lambda^k}{k!}(1-\frac \lambda n)^{n-k}=\frac{\lambda^k}{k!}e^{-\lambda}=p_Z(k)\)
\(\blacksquare\)
例子(p332)
- 加里·卡斯帕罗夫的象棋比赛
- 数据传输
2. 泊松过程
跟伯努利过程相比,泊松过程是连续时间轴上的到达过程
通常,一个到达过程在应用上无法将连续时间离散化时,就采用泊松过程来刻画;可以说泊松过程是伯努利过程的连续版本
例子
- 考虑一个城市内交通事故的可能模型:将时间分割成一分钟为单位的时间段,记录每分钟至少发生一次交通事故的“成功”数据,每个时间段发生事故的概率相同并且是常数,不同时间段之间事故的发生相互独立,这样得到的成功数据序列就是伯努利序列
- 但是伯努利过程无法计算给定时间段内事故发生的次数
- 如果把划分的时间段变得充分小(趋于零),就能保证一个时间段之内发生不小于两次事故的概率趋于零,于是上述问题就得意解决了,这就是连续性时间模型
定义
- \(P(k,\tau)=P(在时间段长度为\tau的时间内有k个到达)\)(\(k=0,1,\dots\))
(它没有指明区间的位置,这意味着,不管这个区间的位置在哪,只要时间区间长度为 \(\tau\),这个区间内的到达数的分布律就是 \(P(k,\tau)\))
- \(\lambda\):该参数称为到达率或强度(\(\lambda>0\))
泊松过程
一个到达过程称为强度为 \(\lambda\) 的泊松过程,当且仅当该过程满足如下性质:
- 时间同质性:k 次到达的概率 \(P(k,\tau)\) 在相同长度 \(\tau\) 的时间段内都是一样的(与伯努利过程中“所有试验成功的概率都是 p”相对应)
- 独立性:一个特定时间段内到达的数目与其他(不相交的?)时间段内到达的历史是独立的(该性质类比于伯努利过程中试验的独立性)
- 小区间概率:概率 \(P(k,\tau)\) 满足如下关系:
- \(P(0,\tau)=1-\lambda\tau-o(\tau)\)
- \(P(1,\tau)=\lambda\tau+o_1(\tau)\)
- \(P(k,\tau)=o_k(\tau)\)(\(k=2,3,\dots\))
- \(\lim\limits_{\tau\to0}\frac{o(\tau)}\tau=0\),\(\lim\limits_{\tau\to0}\frac{o_k(\tau)}\tau=0\)
- 注:这些余弦可以理解为 \(P(k,\tau)\) 做泰勒展开式,展开式中的 \(O(\tau^2)\) 项
区间内到达的次数
假设一个固定的长度为 \(\tau\) 的时间区间,将它分成 \(n=\frac\tau\delta\) 个长度为 \(\delta\) 的小区间(\(\delta\) 是一个非常小的数)
根据泊松过程的性质(3),每个小区间内,到达一次的概率大致为 \(\lambda\delta\),没有到达的概率大致为 \(1-\lambda\delta\)
所以这个过程大致可以由伯努利过程来近似;\(\delta\) 越小,这个近似越精确
在 \(\tau\) 到达 k 次的频率 \(P(k,\tau)\) 近似地等于每次试验成功概率为 \(p=\lambda\delta\),进行 \(n=\tau/\delta\) 次独立伯努利试验,而成功 k 次的(二项)概率(\(P(k,\tau)=\binom{\tau/\delta}{k}(\lambda\delta)^k(1-\lambda\delta)^{\tau/\delta-k}\))
\(\tau\) 保持不变,\(\delta\to0\) 时,\(n=\frac\tau\delta\to∞\),\(p=\lambda\delta\to0\)
而 \(np=\frac\tau\delta\cdot\lambda\delta=\tau\lambda\) 保持不变,于是 \(P(k,\tau)\) 趋于参数为 \(\tau\lambda\) 的泊松分布:
\(P(k,\tau)=e^{-\lambda\tau}\frac{(\lambda\tau)^k}{k!}\)(\(k=0,1,\dots\))
注意到 \(e^{-\lambda\tau}\) 的泰勒展开:
- \(P(0,\tau)=e^{-\lambda\tau}=1-\lambda\tau+O(\tau^2)=1-\lambda\tau+o(\tau)\)
- \(P(1,\tau)=\lambda\tau e^{-\lambda\tau}=\lambda\tau-(\lambda\tau)^2+O(\tau^3)=\lambda\tau+o_1(\tau)\)
- 这与 [泊松过程的性质3] 相符
\(E[N_\tau]=\lambda\tau\),\(\text{var}(N_\tau)=\lambda\tau\)
首次到达的时间
设随机变量 T 为首次到达的时间
其分布函数为 \(F_T(t)=P(T\le t)=1-P(T>t)=1-P(0,t)=1-e^{-\lambda t}\)(\(t\ge0\))
于是 \(f_T(t)=\frac d{d_t}F_T(t)=\lambda e^{^{-\lambda t}}\)(\(t\ge0\))
这说明首次到达的时间服从参数为 \(\lambda\) 的指数分布
泊松过程相关的随机变量及其性质
- 服从参数为 \(\lambda\tau\) 的泊松分布:这是泊松过程的强度为 \(\lambda\),在时间长度为 \(\tau\) 的区间内到达的总次数 \(N_\tau\) 的分布
- 分布列:\(p_{N_\tau}(k)=P(k,\tau)=e^{-\lambda\tau}\frac{(\lambda\tau)^k}{k!}\)(\(k=0,1,\dots\))
- 期望和方差分别为:\(E[N_\tau]=\lambda\tau\),\(\text{var}(N_\tau)=\lambda\tau\)
- 服从参数为 \(\lambda\) 的指数分布:这是首次到达的时间 T 的分布
- 概率密度:\(f_T(t)=\lambda e^{-\lambda t}\)(\(t\ge0\))
- 期望和方差分别为:\(E[T]=\frac1\lambda\),\(\text{var}(T)=\frac1{\lambda^2}\)
\ | 泊松 | 伯努利 |
---|---|---|
到达时间 | 连续 | 离散 |
到达次数的分布 | 泊松 | 二项 |
相邻到达时间的分布 | 指数 | 几何 |
到达率 | \(\lambda\)/单位时间 | \(p\)/每次试验 |
伯努利过程相对应泊松过程的离散化:将区间分为 \(\delta\) 的小区间,每个小区间对应一个伯努利试验,参数为 \(p=\lambda\delta\)
(泊松过程又相当于伯努利过程的极限形式?)
例子
- 假设接收电子邮件的强度为每小时 \(\lambda=0.2\) 封的泊松过程
- 每小时检查一次电子邮件,每次检查电子邮件收到 0 封和 1 封的概率分别为 \(P(0,1)=e^{-0.2}\),\(P(1,1)=0.2e^{-0.2}\)
- 一天检查一次电子邮件,一封都没有收到的概率为 \(P(0,24)=e^{-0.2\cdot24}=e^{-4.8}\)
- 独立泊松随机变量之和仍是泊松:顾客去超市购物可以用泊松过程来刻画,强度为每分钟 \(\lambda\) 个顾客;记 M 为 \(9:00\) 到 \(9:10\) 来超时的顾客总数,N 为 \(9:30\) 到 \(9:35\) 来超时的顾客总数,那么 \(N+M\) 的分布是什么?(前文 4.4 节已证得独立泊松之和也是泊松)
- M 是参数为 \(\mu=10\cdot10=100\) 的泊松;N 是参数为 \(\nu=10\cdot5=50\) 的泊松
- 记 \(\bar N\) 是时间 \(9:10\) 到 \(9:15\) 来超时的顾客总数,则 \(\bar N\) 与 N 一样是参数为 50 的泊松,而且 \(\bar N\) 与 N 独立;所以 \(M+N\) 的分布与 \(M+\bar N\) 的分布一样,而 \(M+\bar N\) 的参数为 \(10\cdot15=150\),于是 \(M+N\) 是参数为 150 的泊松
独立性,无记忆性
- 独立性:对于所有给定时间 \(t>0\),时间 t 之后的过程也是泊松过程,而且与事件 t 之前(包括 t)的历史过程相互独立(来源于泊松过程的独立性假设)
- 无记忆性:对所有时间 \(t\),令 \(\bar T\) 是时间 t 之后首次到达的时间,则随机变量 \(\bar T-t\) 服从参数为 \(\lambda\) 的指数分布,且与事件 t 之前(包括事件 t)的历史过程相互独立
- \(P(\bar T-t>s)=P(在时间[t,t+s]没有到达)=P(0,s)=e^{-\lambda s}\)
相邻到达时间
设有一个从时刻 0 开始的泊松过程,与这个过程相关的重要的随机变量是第 k 次成功(或到达)的时间,记为 \(Y_k\)
设随机变量 \(T_k\) 为第 k 次相邻的到达时间;满足 \(T_1=Y_1\),\(T_k=Y_k-Y_{k-1}\)(\(k=2,3,\dots\))
其中 \(Y_k=\sum\limits_{i=1}^kT_i\)
泊松过程的另一种描述:
- 开始于一串相互独立并且公共参数为 \(\lambda\) 的指数随机变量序列 \(T_1,T_2,\dots\),它们是相邻到达时间
- 过程的到达时间为,\(T_1,T_1+T_2,T_1+T_2+T_3,\dots\),这样形成的随机过程就是泊松过程
第 k 次到达的时间
第 k 次到达的时间 \(Y_k\) 等于 k 个独立同分布且服从指数分布的随机变量之和
- 第 k 次到达的时间等于前 k 个相邻到达时间之和,即 \(Y_k=\sum\limits_{i=1}^kT_i\);而且 \(T_1,\dots,T_k\) 独立同分布,服从参数为 \(\lambda\) 的指数分布
- \(E[Y_k]=\sum\limits_{i=1}^kE[T_i]=\frac k\lambda\),\(\text{var}(Y_k)=\sum\limits_{i=1}^k\text{var}(T_i)=\frac{k}{\lambda^2}\)
- \(f_{Y_k}(y)=e^{-\lambda y}\frac{\lambda^k y^{k-1}}{(k-1)!}\)(\(y\ge0\))
- 这就是著名的阶数为 k 的埃尔朗分布(或 伽马分布)
阶数为 k 的埃尔朗分布的 PDF 证明:(以下给出两种证明方法)
(1) \(F_{Y_k}(y)=P(Y_k\le y)=\sum\limits_{i=k}^∞P(i,y)=1-\sum\limits_{i=0}^{k-1}P(i,y)=1-\sum\limits_{i=0}^{k-1}e^{-\lambda y}\frac{(\lambda y)^i}{i!}\)
\(f_{Y_k}(y)=\frac{d}{d_y}F_{Y_k}(y)=e^{-\lambda y}\frac{\lambda^k y^{k-1}}{(k-1)!}\)
(2) 假设 \(Y_k\) 的 PDF 为 \(f_{Y_k}(y)\),\(\delta\) 充分小;然后定义三个事件:
- A:在区间 \([y,y+\delta]\) 内到达第 k 次,于是 \(P(A)\approx\delta f_{Y_k}(y)\)
- B:在区间 \([y,y+\delta]\) 内到达一次,于是 \(P(B)=P(1,\delta)\approx\lambda\delta\)
- C:在区间 \([0,y]\) 内到达 \(k-1\) 次,于是 \(P(C)=P(k-1,y)=e^{-\lambda y}\frac{(\lambda y)^{k-1}}{(k-1)!}\)
由于 B 与 C 独立,有 \(P(A)=P(B)P(C)\),于是 \(\delta f_{Y_k}(y)=\lambda\delta\cdot e^{-\lambda y}\frac{(\lambda y)^{k-1}}{(k-1)!}\)
最后 \(f_{Y_k}(y)=e^{-\lambda y}\frac{(\lambda y)^{k-1}}{(k-1)!}\lambda=e^{-\lambda y}\frac{\lambda^k y^{k-1}}{(k-1)!}\)
\(\blacksquare\)
例子
- 你拨打国税局的热线电话后,被告知,除正在接受服务的人外,你前面还有 55 位等待服务;呼叫者离开所需时间是泊松过程,强度 \(\lambda\) 是每分钟2人
- 平均而言,直到接受服务你需要等待多长时间为 \(E[Y_{56}]=\frac{56}\lambda=28\)
- 等待时间超过 30 分钟的概率为 \(P(Y\ge30)=\int_{30}^{+∞}e^{-\lambda y}\frac{\lambda^{56}y^{55}}{55!}~d_y\)
- 也可以使用中心极限定理来近似
泊松过程的分裂与合并
- 每当有一个到达时,我们选择保留下来(概率为 p),或者抛弃(概率为 \(1-p\)),独立于其他到达;泊松分裂出来的过程是泊松的,强度为 \(\lambda p\)
- 若两个相互独立的泊松过程(参数分别为 \(\lambda_1,\lambda_2\)),这两个原始过程中任意一个到达都认为是新过程的一个到达,即原过程的合并过程,强度为 \(\lambda_1+\lambda_2\);任何一个到达状态以 \(\frac{\lambda_1}{\lambda_1+\lambda_2}\) 的概率来自于第一个泊松过程,以 \(\frac{\lambda_2}{\lambda_1+\lambda_2}\) 的概率来自于第二个泊松过程
例子(参见 p341-344)
- 泊松过程的分裂
- 泊松过程的合并
- 竞争指数
- 竞争指数的进一步讨论
伯努利过程 & 泊松过程,随机变量之和
随机数个独立随机变量和的性质
设 \(N,X_1,\dots,X_n\) 是独立随机变量,其中 N 取非负整数
定义 \(Y=\sum\limits_{i=1}^NX_i\)(\(Y=0\),若 \(N=0\))
- 若 \(X_i\) 为伯努利\((p)\),N 为二项\((m,q)\);那么 Y 为二项\((m,pq)\)
- 若 \(X_i\) 为伯努利\((p)\),N 为泊松\((\lambda)\);那么 Y 为泊松\((p\lambda)\)
- 若 \(X_i\) 为几何\((p)\),N 为几何\((q)\);那么 Y 为几何\((pq)\)
- 若 \(X_i\) 为指数\((\lambda)\),N 为几何\((q)\);那么 Y 为指数\((\lambda q)\)
证明:利用矩母函数(4.4, 4.5);习题 22,习题 6,习题 23;第 4 章最后一个习题
记 \(N_t\) 是在长度 t 的时间内强度为 \(\lambda\) 的泊松过程到达的总数目;T 为时间长度,服从参数为 \(\nu\) 的指数分布,且与泊松过程独立
则 \(N_T+1\) 是参数为 \(\frac{\nu}{\lambda+\nu}\) 的几何分布(详见习题 24)
随机插入的悖论