Movimento browniano para o mundo


Movimento browniano, movimento browniano, também chamado de movimento browniano. Qualquer um dos vários fenômenos físicos em que alguma quantidade está passando constantemente por flutuações pequenas e aleatórias. Foi nomeado pelo botânico escocês Robert Brown. O primeiro a estudar tais flutuações (1827). (Esquerda) Movimento aleatório de uma discrepância aleatória de partícula browniana (direita) entre o molecular Se um número de partículas sujeitas ao movimento browniano estiverem presentes em um dado meio e não há direção preferencial para as oscilações aleatórias, então, durante um período de tempo, o As partículas tendem a ser espalhadas uniformemente por todo o meio. Assim, se A e B são duas regiões adjacentes e, no tempo t. A contém duas vezes mais partículas do que B. Nesse instante, a probabilidade de uma partícula deixar A para entrar em B é duas vezes maior do que a probabilidade de uma partícula deixar B para entrar em A. O processo físico em que uma substância tende a se espalhar de forma constante de regiões de alta concentração para regiões de menor concentração é chamado de difusão. A difusão pode, portanto, ser considerada uma manifestação macroscópica do movimento browniano no nível microscópico. Assim, é possível estudar a difusão simulando o movimento de uma partícula browniana e calculando seu comportamento médio. Alguns exemplos dos inúmeros processos de difusão que são estudados em termos de movimento browniano incluem a difusão de poluentes através da atmosfera. A difusão de furos (regiões mínimas em que o potencial de carga elétrica é positivo) através de um semicondutor. E a difusão de cálcio através do tecido ósseo em organismos vivos. Inquéritos iniciais Teoria de Einsteins do movimento browniano1. Teoria básica do movimento browniano padrão Em 1827, o botânico Robert Brown percebeu que pequenas partículas do pólen, quando suspensas na água, exibiam um movimento contínuo, mas muito nervoso e errático. Em seu milagre em 1905, Albert Einstein explicou o comportamento fisicamente, mostrando que as partículas eram constantemente bombardeadas pelas moléculas da água e, assim, ajudando a estabelecer firmemente a teoria atômica da matéria. O movimento browniano como um processo aleatório matemático foi construído pela Norbert Wiener de forma rigorosa em uma série de trabalhos a partir de 1918. Por esse motivo, o processo de movimento browniano também é conhecido como o processo Wiener. Execute a simulação de movimento browniano bidimensional várias vezes no modo de um único passo para ter uma idéia do que o Sr. Brown pode ter observado sob o microscópio. Junto com o processo de testes de Bernoulli e o processo de Poisson. O processo de movimento browniano é de importância central na probabilidade. Cada um desses processos é baseado em um conjunto de pressupostos idealizados que levam a uma rica teoria matemática. Em cada caso também, o processo é usado como um bloco de construção para uma série de processos aleatórios relacionados que são de grande importância em uma variedade de aplicações. Em particular, o movimento browniano e os processos relacionados são usados ​​em aplicações que vão desde física até estatística para economia. Definição Um movimento browniano padrão é um processo aleatório (bs) com espaço de estado (R) que satisfaz as seguintes propriedades: (X0 0) (com probabilidade 1). (Bs) tem incrementos estacionários. Ou seja, para (s, t em 0, infty)) com (s lt t), a distribuição de (Xt-Xs) ​​é a mesma que a distribuição de (X). (Bs) tem incrementos independentes. Ou seja, para (t1, t2, ldots, tn in 0, infty)) com (t1 lt t2 lt cdots lt tn), as variáveis ​​aleatórias (X, X-X, ldots, X-X) são independentes. (Xt) é normalmente distribuído com média 0 e variância (t) para cada (t in (0, infty)). Com a probabilidade 1, (t mapsto Xt) é contínuo em (0, infty)). Para entender os pressupostos fisicamente, vamos levá-los um a um. Suponha que medimos a posição de uma partícula browniana em uma dimensão, começando em um tempo arbitrário que designamos como (t 0), com a posição inicial designada como (x 0). Então, esta suposição é satisfeita por convenção. Na verdade, ocasionalmente, é conveniente relaxar essa suposição e permitir (X0) ter outros valores. Esta é uma declaração de homogeneidade de tempo. A dinâmica subjacente (ou seja, o empurrão da partícula pelas moléculas de água) não se altera ao longo do tempo, de modo que a distribuição do deslocamento da partícula em um intervalo de tempo (s, t) depende apenas do comprimento do intervalo de tempo. Esta é uma suposição idealizada que se manteria aproximadamente se os intervalos de tempo forem grandes em comparação com os pequenos tempos entre as colisões da partícula com as moléculas. Esta é outra suposição idealizada baseada no teorema do limite central: a posição da partícula no tempo (t) é o resultado de um número muito grande de colisões, cada uma fazendo uma contribuição muito pequena. O fato de que a média é 0 é uma declaração de homogeneidade espacial. A partícula não é mais ou menos provável que seja empurrada para a direita do que para a esquerda. Em seguida, lembre-se de que os pressupostos de incrementos estacionários e independentes significam que (var (Xt) sigma2 t) para alguma constante positiva (sigma2). Por uma mudança na escala de tempo, podemos assumir (sigma2 1), embora consideremos movimentos brownianos mais gerais na próxima seção. Finalmente, a continuidade dos caminhos da amostra é uma suposição essencial, pois estamos modelando a posição de uma partícula física como uma função do tempo. Claro, a primeira questão que devemos fazer é saber se existe um processo estocástico que satisfaça a definição. Felizmente, a resposta é sim, embora a prova seja complicada. Existe um espaço de probabilidade ((Omega, mathscr, P)) e um processo estocástico (bs) neste espaço de probabilidade que satisfaça os pressupostos na definição. Os pressupostos na definição levam a um conjunto consistente de distribuições dimensionais finitas (que são fornecidas abaixo). Assim, pelo teorema de existência de Kolmogorov. Existe um processo estocástico (bs) que possui essas distribuições dimensionais finitas. No entanto, (bs) não tem caminhos de amostra contínuos, mas podemos construir a partir de (bs) um processo equivalente que tenha caminhos de amostra contínuos. Primeiro lembre-se de que um racional binário (ou racional diádico) em (0, infty)) é um número da forma (k grande 2n) onde (k em N). Deixe (Q) indicar o conjunto de todos os racionais binários em (0, infty)) e lembre-se de que (Q) é contável, mas também denso em (0, infty)) (ou seja, se (t in 0, infty) setminus Q) então existe (tn em Q) para (n em N) tal que (tn to t) como (n para infty)). Agora, para (n em N), deixe (Xn (t) Ut) se (t) é um racional binário da forma (k grande 2n) para alguns (k em N). Se (t) não é um racional binário, defina (Xn (t)) por interpolação linear entre os racionais binários mais próximos desta forma em ambos os lados de (t). Então (Xn (t) para U (t)) como (n para infty) para cada (t em Q) e com a probabilidade 1, a convergência é uniforme (Q cap 0, T) para cada (T gt 0) . Em seguida, segue que (bs) é contínuo em (Q) com probabilidade 1. Para o último passo, deixe (Xt lim Us) para (t in 0, infty)). O limite existe uma vez que (bs) é contínuo em (Q) com probabilidade 1. O processo (bs) é contínuo em (0, infty)) com probabilidade 1 e possui as mesmas distribuições dimensionais finitas que (bs). Execute a simulação do processo de movimento browniano padrão algumas vezes no modo de passo único. Observe o comportamento qualitativo dos caminhos da amostra. Execute a simulação 1000 vezes e compare a função de densidade empírica e os momentos de (Xt) com a função de densidade de probabilidade verdadeira e os momentos. Movimento Browniano como um Limite de Caminhadas Aleatórias Claramente, a dinâmica subjacente da partícula browniana que é atingida por moléculas sugere uma caminhada aleatória como um modelo possível, mas com pequenos passos de tempo e pequenos saltos espaciais. Deixe (bs (X0, X1, X2, ldots)) ser a caminhada aleatória simples simétrica. Assim, (Xn sum n Ui) onde (bs (U1, U2, ldots)) é uma seqüência de variáveis ​​independentes com (P (Ui 1) P (Ui -1) frac) para cada (i em N). Lembre-se de que (E (Xn) 0) e (var (Xn) n) para (n em N). Além disso, uma vez que (bs) é o processo de soma parcial associado a uma sequência IID, (bs) tem incrementos estacionários, independentes (mas, obviamente, em tempo discreto). Finalmente, lembre-se que, pelo teorema do limite central, (Xn big sqrt) converge para a distribuição normal padrão como (n para infty). Agora, para (h, d em (0, infty)) o processo de tempo contínuo bs (t) esquerda: t em 0, infty) direito é um processo de salto com saltos em () e com saltos de tamanho (pm d). Basicamente, gostaríamos de deixar (h downarrow 0) e (d downarrow 0), mas isso não pode ser feito arbitrariamente. Observe que (EleftX (t) direito 0) mas (varleftX (t) direito d2 lfloor t h rfloor). Assim, pelo teorema do limite central, se tomarmos (d sqrt), a distribuição de (X (t)) converge para a distribuição normal com média 0 e variância (t) como (h downarrow 0). Mais em geral, podemos esperar que todos os requisitos da definição sejam satisfeitos pelo processo de limitação e, em caso afirmativo, temos um movimento Browniano padrão. Execute a simulação do processo de caminhada aleatória para aumentar os valores de (n). Em particular, execute a simulação várias vezes com (n 100). Compare o comportamento qualitativo com o processo de movimento Browniano padrão. Note-se que a escala da caminhada aleatória no tempo e no espaço é efetivamente realizada através da escala dos eixos horizontais e verticais na janela do gráfico. Distribuições dimensionais finitas Deixe (bs) ser um movimento Browniano padrão. Isso decorre da parte (d) da definição que (Xt) tem função de densidade de probabilidade (ft) dada por ft (x) frac expleft (-frac right), quad x in R Esta família de funções de densidade determina as distribuições dimensionais finitas de (Bs). Se (t1, t2, ldots, tn in (0, infty)) com (0 lt t1 lt t2 cdots lt tn) então ((X, X, ldots, X)) tem função de densidade de probabilidade (f) dada por (bs ) É um processo gaussiano com função média média (m (t) 0) para (t em 0, infty)) e função de covariância (c (s, t) min) para (s, t in 0, infty)). O fato de que (bs) é um processo gaussiano segue porque (Xt) é normalmente distribuído para cada (t em T) e (bs) tem incrementos estacionários e independentes. A função média é 0 por suposição. Para a função de covariância, suponha (s,, t em 0, infty)) com (s le t). Uma vez que (Xs) e (Xt-Xs) ​​são independentes, temos cov (Xs, Xt) covleftXs, Xs (Xt-Xs) ​​direito var (Xs) 0 s Recorde que, para um processo Gaussiano, a dimensão finita (normal multivariada) As distribuições são completamente determinadas pela função média (m) e pela função de covariância (c). Assim, segue-se que um movimento Browniano padrão é caracterizado como um processo gaussiano contínuo com as funções de média e covariância no último teorema. Note também que cor (Xs, Xt) frac sqrt, quad (s, t) em 0, infty) 2 Nós também podemos dar os momentos mais altos e a função de geração de momento para (Xt). Para (n em N) e (t em 0, infty)), (Eleft (Xt direito) 1 cdot 3 cdots (2 n - 1) tn (2 n) tn grande (n 2n)) (Eleft (Xt direito) 0) Prova: esses momentos são de resultados padrão, uma vez que (Xt) é normalmente distribuído com média 0 e variância (t). Para (t em 0, infty)), (Xt) tem função de geração de momento dada por Eleft (e à direita) e, quad u em R novamente, este é um resultado padrão para a distribuição normal. Transformações simples Existem várias transformações simples que preservam o movimento Browniano padrão e nos darão uma visão de algumas de suas propriedades. Como de costume, nosso ponto de partida é um movimento Browniano padrão (bs). Nosso primeiro resultado é que refletindo os caminhos de (bs) na linha (x 0) dá outro movimento browniano padrão Let (Yt-Xt) para (t ge 0). Então (bs) também é um movimento Browniano padrão. Claramente, o novo processo ainda é um processo gaussiano, com função média (E (-Xt) - E (Xt) 0) para (t in 0, infty)) e função de covariância (cov (-Xs, - Xt) cov (Xs) , Xt) min) para ((s, t) em 0, infty) 2). Finalmente, uma vez que (bs) é contínuo, assim é (bs). Nosso próximo resultado está relacionado à propriedade de Markov, que exploramos com mais detalhes abaixo. Se reiniciar o movimento Browniano em um (s) tempo (s) fixo (s), e mudar a origem para (Xs), então temos outro movimento Browniano padrão. Isso significa que o movimento browniano é simultaneamente e espacialmente homogêneo. Fix (s in 0, infty)) e define (Yt X-Xs) para (t ge 0). Então (bs) também é um movimento Browniano padrão. Uma vez que (bs) tem incrementos estacionários, independentes, o processo (bs) é equivalente na distribuição para (bs). Claramente também (bs) é contínua desde que (bs) é. Nosso próximo resultado é uma inversão de tempo simples, mas para indicar esse resultado, precisamos restringir o parâmetro de tempo a um intervalo limitado do formulário (0, T) onde (T gt 0). O ponto final superior (T) às vezes é referido como um horizonte de tempo finito. Observe que () ainda satisfaz a definição. Mas com os parâmetros de tempo restritos a (0, T). Define (Yt X-XT) para (0 le t le T). Então (bs à esquerda) também é um movimento Browniano padrão em (0, T). (Bs) é um processo gaussiano, uma vez que uma combinação de variáveis ​​finitas e lineares deste processo reduz-se a uma combinação de variáveis ​​finitas e lineares de (bs). Em seguida, (E (Yt) E (X) - E (XT) 0). Em seguida, se (s, t em 0, T) com (s le t), comece cov (Ys, Yt) amp cov (X-XT, X-Xt) cov (X, X) - cov (X, XT) - cov (XT, X) cov (XT, Xt) amplificador (T - t) - (T - s) - (T - t) T s final Finalmente, (t mapsto Yt) é contínuo em (0, T) com Probabilidade 1, uma vez que (t mapsto Xt) é contínuo em (0, T) com probabilidade 1. Nossa próxima transformação envolve escala (bs) tanto temporal como espacialmente e é conhecida como auto-similaridade. Deixe (a gt 0) e defina (Yt frac X) para (t ge 0). Então (bs) também é um movimento Browniano padrão. Mais uma vez, (bs) é um processo gaussiano, uma vez que as combinações finitas, lineares de variáveis ​​em (bs) reduzem as combinações finitas e lineares de variáveis ​​em (bs). Em seguida, (E (Yt) a E (X) 0) para (t gt 0) e para (s,, t gt 0) com (s lt t), cov (Ys, Yt) covleft (frac X, frac X à direita) frac covleft (X, X direita) frac a2 ss Finalmente (bs) é um processo contínuo uma vez que (bs) é contínuo. Observe que o gráfico de (bs) pode ser obtido a partir do gráfico de (bs) escalando o eixo do tempo (t) por um fator de (a2) e dimensionando o eixo espacial (x) por um fator de (a). O fato de que o fator de escala temporal deve ser o quadrado do fator de escala espacial está claramente relacionado ao movimento browniano como o limite das caminhadas aleatórias. Observe também que essa transformação equivale a aumentar ou diminuir o gráfico de (bs) e, portanto, o movimento browniano tem uma qualidade fractal auto-similar, uma vez que o gráfico é inalterado por esta transformação. Isso também sugere que, embora contínuo, (t mapsto Xt) é altamente irregular. Consideramos isso na próxima subseção. Nossa transformação final é referida como inversão de tempo. Deixe (Y0 0) e (Yt t X) para (t gt 0). Então (bs) também é um movimento Browniano padrão. Claramente (bs) é um processo gaussiano, uma vez que as combinações finitas, lineares de variáveis ​​em (bs) reduzem as combinações finitas e lineares de variáveis ​​em (bs). Em seguida, (E (Yt) t E (X) 0) para (t gt 0) e para (s,, t gt 0) com (s lt t), covleft (Ys, Ytright) covleft (s X, t X direito) st covleft (X, X direita) st fraction s Uma vez que (t mapsto Xt) é contínuo em (0, infty)) com probabilidade 1, (t mapsto Yt) é contínuo em ((0, infty)) com Probabilidade 1. Assim, tudo o que resta é mostrar continuidade em (t 0). Assim, precisamos mostrar que com probabilidade 1, (t X a 0) como (t downarrow 0). Ou de forma equivalente, (Xs s a 0) como (s uparrow infty). Mas esta última declaração é válida pela lei do logaritmo iterado. dado abaixo. Irregularidade As propriedades definidoras sugerem que o movimento browniano padrão (bs) não pode ser uma função suave e diferenciável. Considere o quociente de diferença usual em (t), frac - Xt Na propriedade de incrementos estacionários, se (h gt 0), o numerador tem a mesma distribuição que (Xh), enquanto que se (h lt 0), o numerador tem o mesmo Distribuição como (-X), que por sua vez tem a mesma distribuição que (X). Assim, em ambos os casos, o quociente de diferença tem a mesma distribuição que (X grande h), e esta variável tem a distribuição normal com média 0 e variância (lefthright grande h2 1 grande esquerda). Assim, a variância do quociente de diferença diverge para (infty) as (h para 0), e, portanto, o quociente de diferença nem sequer converge na distribuição, a forma mais fraca de convergência. A transformação temporal-espacial acima também sugere que o movimento browniano não pode ser diferenciável. O significado intuitivo de diferenciável em (t) é que a função é localmente linear em (t) mdashas que zoon, o gráfico próximo (t) começa a parecer uma linha (cuja inclinação, é claro, é a derivada). Mas, quando nos aproximamos do movimento browniano, (no sentido da transformação), sempre parece ser o mesmo e, em particular, tão irregular. Mais formalmente, se (bs) é diferenciável em (t), então o processo transformado (bs), e a regra da cadeia dão (Yprime (t) a Xprime (a2 t)). Mas (bs) também é um movimento Browniano padrão para cada (um gt 0), então algo está claramente errado. Embora não sejam rigorosos, esses exemplos são motivação para o seguinte teorema: com a probabilidade 1, (bs) não é diferenciável em nenhum (0, infty)). Execute a simulação do processo de movimento Brownian padrão. Observe a continuidade, mas a qualidade muito irregular dos caminhos da amostra. Claro, a simulação não pode realmente capturar o movimento browniano com total fidelidade. Os seguintes teoremas dão uma medida mais precisa da irregularidade do movimento Browniano padrão. O movimento Brownian padrão (bs) possui um expoente de Houmllder (frac). Ou seja, (bs) é Houmllder contínuo com o expoente (alfa) para cada (alfa lt frac), mas não é Houmllder contínuo com o expoente (alfa) para qualquer fração alfa gt. Em particular, (bs) não é Lipschitz contínuo, e isso mostra novamente que não é diferenciável. O resultado a seguir indica que, em termos de dimensão Hausdorff, o gráfico do movimento Browniano padrão situa-se a meio caminho entre uma curva simples (dimensão 1) e o plano (dimensão 2). O gráfico do movimento Browniano padrão tem dimensão Hausdorff (frac). Outra indicação da irregularidade do movimento browniano é que ele tem variação total infinita em qualquer intervalo de comprimento positivo. Suponha que (a,, b em R) com (a lt b). Então, a variação total de (bs) em (a, b) é (infty). A propriedade de Markov e os tempos de parada Como de costume, começamos com um movimento Brownian padrão (bs). Lembre-se de que um processo de Markov tem a propriedade de que o futuro é independente do passado, dado o estado atual. Por causa da propriedade de incrementos estacionários e independentes, o movimento browniano possui a propriedade. Como uma nota menor, para ver (bs) como um processo de Markov, às vezes precisamos relaxar a Assunção 1 e deixar (X0) ter um valor arbitrário em (R). Deixe (mathscr t sigma), a sigma-álgebra gerada pelo processo até o tempo (t in 0, infty)). A família de (sigma) - algebras (mathfrak t: t in 0, infty)) é conhecida como uma filtração. O movimento Browniano padrão é um processo de Markov homogêneo com densidade de probabilidade de transição (p) dada por pt (x, y) ft (y - x) frac expleft-frac direita, quad t in (0, infty) x, y in R Fix (s in 0, infty)). O teorema segue do fato de que o processo (- Xs: t in 0, infty)) é outro movimento Browniano padrão, como mostrado acima. E é independente de (mathscr s). A densidade de transformação (p) satisfaz as seguintes equações de difusão. O primeiro é conhecido como a equação direta e o segundo como a equação para trás. Começar fracção pt (x, y) amp frac fracção pt (x, y) fracção pt (x, y) amp frac fracção pt (x, y) fim Estes resultados resultam do cálculo padrão. As equações de difusão são assim chamadas, porque a derivada espacial na primeira equação é em relação a (y), o estado avançado no tempo (t), enquanto a derivada espacial na segunda equação é em relação a (x), o estado Para trás no momento 0. Recorde que um tempo aleatório (tau) que toma valores em (0, infty) é um tempo de parada em relação ao processo (bs) se (em mathscr t) para cada (t in 0, infty)). Informalmente, podemos determinar se ou não (tau le t) observando o processo até o tempo (t). Um importante caso especial é a primeira vez que o nosso movimento browniano atinge um estado especificado. Assim, para (x em R) let (taux inf). O tempo aleatório (taxa) é um tempo de parada. Para um tempo de parada (tau), precisamos da (sigma) - algebra de eventos que podem ser definidos em termos do processo até o tempo aleatório (tau), análogo a (mathscr t), a (sigma) - algebra de Eventos que podem ser definidos em termos do processo até um tempo fixo (t). A definição apropriada é mathscr tau: B cap in mathscr t text t ge 0 Veja a seção sobre Filtrations e Stopping Times para obter mais informações sobre filtrações, tempos de parada e a sigma (sigma) associada a um tempo de parada. A propriedade forte de Markov é a propriedade de Markov generalizada para tempos de parada. O movimento Brownian padrão (bs) também é um forte processo de Markov. A melhor maneira de dizer isso é por uma generalização do resultado de homogeneidade temporal e espacial acima. Suponha que (tau) seja um tempo de parada e defina (Yt X-Xtau) para (t in 0, infty)). Então (bs) é um movimento browniano padrão e é independente de (mathscr tau). O Princípio da Reflexão Muitas propriedades interessantes do movimento browniano podem ser obtidas a partir de uma idéia inteligente conhecida como princípio de reflexão. Como de costume, começamos com um movimento Brownian padrão (bs). Deixe (tau) ser um tempo de parada para (bs). Define Wt begin Xt, amp 0 le t lt tau 2 Xtau - Xt, amp tau le t lt infty end Assim, o gráfico de (bs) pode ser obtido a partir do gráfico de (bs) refletindo na linha (x Xtau) Depois do tempo (tau). Em particular, se o tempo de parada (tau) for (taua), a primeira vez que o processo atinge um estado especificado (a gt 0), então o gráfico de (bs) é obtido a partir do gráfico de (bs) refletindo em A linha (xa) após o tempo (taua). Abra a simulação do movimento Browniano refletindo. Este aplicativo mostra o processo (bs) correspondente ao tempo de parada (taua), o tempo da primeira visita a um estado positivo (a). Execute a simulação no modo de etapa única até ver o processo refletido várias vezes. Certifique-se de que compreende como o processo (bs) funciona. O processo refletido (bs) também é um movimento Browniano padrão. Execute a simulação do processo de movimento Brownian refletido 1000 vezes. Compaure a função de densidade empírica e os momentos de (Wt) para a função de densidade de probabilidade real e momentos. Martingales Como de costume, deixe (bs) ser um movimento Browniano padrão e deixe (mathscr t sigma) para (t in 0, infty)), de modo que (mathfrak t: t in 0, infty)) seja a filtração natural para ( Bs). Existem várias martingales importantes associadas (bs). Estudaremos alguns deles nesta seção e outros em seções subseqüentes. Nosso primeiro resultado é que (bs) em si é uma martingale, simplesmente por ter incrementos estacionários, independentes e 0 significa. (Bs) é uma martingale em relação a (mathfrak). Mais uma vez, isso é verdade para qualquer processo com incrementos estacionários e independentes e 0 significam, mas nós damos a prova de qualquer maneira, para completude. Deixe (s,, t em 0, infty)) com (s lt t). Uma vez que (Xs) é mensurável em relação a (mathscr s) e (Xt-Xs) ​​é independente de (mathscr s) temos Eleft (Xt mid mathscr sright) EleftXs (Xt-Xs) ​​mid mathscr sright Xs E (Xt-Xs) ) Xs O próximo martingale é um pouco mais interessante. Deixe (Yt Xt2 - t) para (t em 0, infty)). Então (bs) é uma martingale em relação a (mathfrak). Deixe (s,, t em 0, infty)) com (s lt t). Em seguida, Yt Xt2 - t leftXs (Xt - Xs) right2 - t Xs2 2 Xs (Xt - Xs) (Xt - Xs) 2 - t Uma vez que (Xs) é mensurável em relação a (mathscr s) e (Xt - Xs) é Independentemente de (mathscr s), temos Eleft (Yt mid mathscr sright) Xs2 2 Xs E (Xt-Xs) ​​Eleft (Xt-Xs) ​​right2 - t Mas (E (Xt-Xs) ​​0) e (Eleft (Xt-Xs) ) 2right var (Xt - Xs) t - s) então (Eleft (Yt mid mathscr sright) Xs2 - s Ys). Máximos e tempos de ataque Como de costume, começamos com um movimento browniano padrão (bs). Para (y in 0, infty)) lembre-se de que (tauy min) é a primeira vez que o processo atinge o estado (y). Claro, (tau0 0). Para (t in 0, infty)), deixe (Yt max), o valor máximo de (bs) no intervalo (0, t). Observe que (Yt) está bem definido pela continuidade de (bs) e, claro (Y0 0). Assim, temos dois novos processos estocásticos: () e (). Ambos têm conjunto de índice (0, infty)) e (como veremos) espaço de estados (0, infty)). Além disso, os processos são inversos um do outro em um sentido: Para (t, y in (0, infty)), (tauy le t) se e somente se (Yt ge y). Uma vez que o movimento Browniano padrão começa em 0 e é contínuo, ambos os eventos significam que o processo atinge o estado (y) no intervalo (0, t). Assim, se pudermos calcular a distribuição de (Yt) para cada (t in (0, infty)), podemos calcular a distribuição de (tauy) para cada (y in (0, infty)) e vice-versa. Para (y gt 0), (tauy) tem a mesma distribuição que (y2 grande Z2), onde (Z) é uma variável padrão normal. A função de densidade de probabilidade (gy) é dada por gy (t) frac expleft (-frac à direita), quad t in (0, infty) Let (t gt 0). Do resultado anterior. Note que (Xt ge y implica Yt ge y implica tauy le t). Por isso P (Xt ge y) P (Xt ge y, tauy le t) P (Xt ge y mid tauy le t) P (tauy le t) Mas da forte propriedade Markov acima, (s mapsto X (tauy s) - Y) é outro movimento Browniano padrão. Por isso (P (Xt ge y mid tauy le t) frac). Portanto, P (tauy le t) 2 P (Xt ge y) frac intyinfty e, dx frac int infty e dz O segundo integral segue do primeiro pela mudança de variáveis ​​(z x big sqrt). Podemos reconhecer essa integral como (Pleft (y2 big Z2 le tright)) onde (Z) possui uma distribuição normal padrão. Tomar a derivada da integral em relação a (t) dá o PDF. A distribuição de (tauy) é a distribuição de Leacutevy com o parâmetro de escala (y2), e é nomeada para o matemático francês Paul Leacutevy. A distribuição Leacutevy é estudada com mais detalhes no capítulo sobre distribuições especiais. Abra o experimento de tempo de acerto. Varie (y) e note a forma e a localização da função de densidade de probabilidade de (tauy). Para valores selecionados do parâmetro, execute a simulação em modo de etapa única algumas vezes. Em seguida, execute o experimento 1000 vezes e compare a função de densidade empírica com a função de densidade de probabilidade. Abra o simulador de distribuição especial e selecione a distribuição Leacutevy. Varie os parâmetros e observe a forma e a localização da função de densidade de probabilidade. Para valores selecionados dos parâmetros, execute a simulação 1000 vezes e compare a função de densidade empírica com a função de densidade de probabilidade. O movimento Browniano padrão é recorrente. Ou seja, (P (tauy lt infty) 1) para cada (y em R). Suponha primeiro que (y gt 0). Da prova do último teorema. P (tauy lt infty) lim P (tauy le t) fracture int0infty e, dz 1 Observe que a integral acima é equivalente à integral do PDF normal padrão sobre (R). Em particular, a função (gy) dada acima é realmente um PDF válido. Se (y lt 0) então por simetria, (tauy) tem a mesma distribuição que (tau), então (P (tauy lt infty) 1). Trivialmente, (tau0 0). Assim, para cada (y em R), (bs) eventualmente atinge (y) com probabilidade 1. Na verdade, podemos dizer mais: Com probabilidade 1, (bs) visita cada ponto em (R). Por continuidade, se (bs) atingir (y gt 0) então (bs) visita cada ponto em (0, y). Por simetria, uma declaração semelhante é válida para (y lt 0). Assim, o evento que (bs) visita cada ponto em (R) é (bigcap infty left (cap inftright)). A probabilidade de uma interseção contábil de eventos com probabilidade 1 ainda tem probabilidade 1. Por outro lado, o movimento Browniano padrão é nulo recorrente. Ou seja, (E (tauy) infty) para cada (y em setminus R). Por simetria, basta considerar (y gt 0). Do resultado acima na distribuição de (tauy). E (tauy) int0infty P (tauy gt t), dt frac int0infty int0 e, dz, dt Alterar a ordem de integração dá E (tauy) frac int0infty int0 e, dt, dz frac int0infty frac e, dz Em seguida, obtemos um menor Vinculado à última integral integrando ao longo do intervalo (0, 1) e observando que (e ge e) nesta integral. Assim, E (tauy) ge frac int01 frac, dz infty O processo () tem incrementos estacionários e independentes. A prova baseia-se na homogeneidade temporal e espacial do movimento browniano e na forte propriedade de Markov. Suponha que (x, y em 0, infty)) com (x lt y). Por continuidade, (bs) deve atingir (x) antes de atingir (y). Assim, (tauy taux (tauy - taux)). Mas (tauy - taux) é o tempo de acerto para (y - x) para o processo (t mapsto X (taux t) - x), e como mostrado acima. Este processo também é um movimento Browniano padrão, independente de (mathscr (taux)). Assim (tauy - taux) é independente de (mathscr (taux)) e tem a mesma distribuição que (tau). A família de funções de densidade de probabilidade () é fechada sob convolução. Ou seja, (gx gy g) para (x, y in (0, infty)). Isso segue imediatamente do teorema anterior. Uma prova direta é um exercício interessante. Agora voltamos nossa atenção para o processo máximo (), o inverso do processo de batimento (). Para (t gt 0), (Yt) tem a mesma distribuição que (leftXtright), conhecida como a distribuição semi-normal com o parâmetro de escala (t). A função de densidade de probabilidade é ht (y) sqrt expleft (-frac right), quad y in 0, infty) Prova: da relação inversa e da distribuição de (tauy), (P (Yt ge y) P (tauy le t ) 2 P (Xt ge y) Pleft (leftXtright ge yright)) para (y ge 0). Por definição, (leftXtright) tem a distribuição média-normal com o parâmetro (t). Em particular, P (Yt ge y) frac intyinfty e, dx Tomando a derivada negativa da integral acima, em relação a (y), dá o PDF. A distribuição média-normal é um caso especial da distribuição normal dobrada. Que é estudado com mais detalhes no capítulo sobre distribuições especiais. Para (t ge 0), a média e a variância de (Yt) são Estas são seguidas de resultados padrão para a distribuição meia-normal. Na simulação de movimento Brownian padrão. Selecione o valor máximo. Varie o parâmetro (t) e anote a forma da função de densidade de probabilidade e a localização e o tamanho da barra de desvio padrão médio. Execute a simulação 1000 vezes e compare a densidade empírica e os momentos com a função de densidade de probabilidade real e momentos. Abra o simulador de distribuição especial e selecione a distribuição dobrada-normal. Vary the parameters and note the shape and location of the probability density function and the size and location of the mean-standard deviation bar. For selected values of the parameters, run the simulation 1000 times and compare the empirical density function and moments to the true density function and moments. Zeros and Arcsine Laws As usual, we start with a standard Brownian motion ( bs ). Study of the zeros of ( bs ) lead to a number of probability laws referred to as arcsine laws. because as we might guess, the probabilities and distributions involve the arcsine function. For ( s, t in 0, infty) ) with ( s lt t ), let ( E(s, t) ) be the event that ( bs ) has a zero in the time interval ( (s, t) ). That is, ( E(s, t) u in (s, t) ). Then PleftE(s, t)right 1 - frac arcsinleft(sqrt right) Conditioning on ( Xs ) and using symmetry gives PleftE(s, t)right int infty PleftE(s, t) mid Xs xright fs(x) , dx 2 int 0 PleftE(s, t) mid Xs xright fs(x) , dx But by the homogeneity of ( bs ) in time and space, note that for ( x gt 0 ), ( PleftE(s, t) mid Xs - xright P(taux lt t - s) ). That is, a process in state ( - x ) at time ( s ) that hits 0 before time ( t ) is the same as a process in state 0 at time 0 reaching state ( x ) before time ( t - s ). Hence PleftE(s, t)right int0infty int0 gx(u) fs(-x) , du , dx where ( gx ) is the PDF of ( taux ) given above. Substituting gives PleftE(s, t)right frac int0 u int0infty x expleft-frac x2 left(frac right) right , dx , du frac int0 frac , du Finally substituting ( v sqrt ) in the last integral give PleftE(s, t)right frac int0 frac , dv frac arctan left(sqrt - 1right) 1 - frac arcsinleft(sqrt right) In paricular, ( PleftE(0, t)right 1 ) for every ( t gt 0 ), so with probability 1, ( bs ) has a zero in ( (0, t) ). Actually, we can say a bit more: For ( t gt 0 ), ( bs ) has infinitely many zeros in ( (0, t) ) with probability 1. The event that ( bs ) has infinitely many zeros in ( (0, t) ) is ( bigcap infty E(0, t n) ). The intersection of a countable collection of events with probability 1 still has probability 1. The last result is further evidence of the very strange and irregular behavior of Brownian motion. Note also that ( PleftE(s, t)right ) depends only on the ratio ( s t ). Thus, ( PleftE(s, t)right PleftE(1 t, 1 s)right) and (PleftE(s, t)right PleftE(c s, c t)right ) for every ( c gt 0 ). So, for example the probability of at least one zero in the interval ( (2, 5) ) is the same as the probability of at least one zero in ( (15, 12) ), the same as the probability of at least one zero in ( (6, 15) ), and the same as the probability of at least one zero in ( (200, 500) ). For ( t gt 0 ), let ( Zt ) denote the time of the last zero of ( bs ) before time ( t ). That is, ( Zt maxleft ). Then ( Zt ) has the arcsine distribution with parameter ( t ). The distribution function ( Ht ) and the probability density function ( ht ) are given by begin Ht(s) amp frac arcsinleft(sqrt right), quad 0 le s le t ht(s) amp frac , quad 0 lt s lt t end For ( 0 le s lt t ), the event ( Zt le s ) is the same as ( lefE(s, t)rightc ), that there are no zeros in the interval ( (s, t) ). Hence the formula for ( Ht ) follows from the result above. Taking the derivative of ( Ht ) and simplifying gives the formula for ( ht ). The density function of ( Zt ) is ( u )-shaped and symmetric about the midpoint ( t 2 ), so the points with the largest density are those near the endpoints 0 and ( t ), a surprising result at first. The arcsine distribution is studied in more detail in the chapter on special distributions . The mean and variance of ( Zt ) are These are standard results for the arcsine distribution. That the mean is the midpoint (t2) also follows from symmetry, of course. In the simulation of standard Brownian motion. select the last zero variable. Vary the parameter ( t ) and note the shape of the probability density function and the size and location of the mean-standard deviation bar. For selected values of ( t ) run the simulation is single step mode a few times and note the position of the last zero. Finally, run the simulation 1000 times and compare the empirical density function and moments to the true probability density function and moments. Open the special distribution simulator and select the arcsine distribution. Vary the parameters and note the shape and location of the probability density function and the size and location of the mean-standard deviation bar. For selected values of the parameters, run the simulation 1000 times and compare the empirical density function and moments to the true density function and moments. Now let ( Z ) denote the set of zeros of ( bs ), so that ( Z ) is a random subset of ( 0, infty) ). The theorem below gives some of the strange properties of the random set ( Z ), but to understand these, we need to review some definitions. A nowhere dense set is a set whose closure has empty interior. A perfect set is a set with no isolated points. As usual, we let ( lambda ) denote Lebesgue measure on ( R ). With probability 1, ( Z ) is closed. ( lambda(Z) 0 ) ( Z ) is nowhere dense. ( Z ) is perfect. Proof: Note that ( Z) is the inverse image of the closed set ( ) under the function ( t mapsto Xt ). Since this function is continuous with probability 1, ( Z ) is closed with probability 1. For each ( t in (0, infty) ) note that ( P(t in Z) P(Xt 0) 0 ) since ( Xt ) has a continuous distribution. Using Fubinis theorem Eleftlambda(Z)right E leftint0infty bs Z(t) , dlambda(t)right int0infty Eleftbs Z(t)right , dlambda(t) 0 and hence ( Pleftlambda(Z) 0right 1 ), Since ( Z ) is closed and has Lebesgue measure 0, its interior is empty (all of these statements with probability 1). Suppose that ( s in Z ). Then by the temporal and spatial homogeneity properties, ( t mapsto X ) is also a standard Brownian motion. But then by the result above on zeros. with probability 1, ( bs ) has a zero in the interval ( (s, s 1 n) ) for every ( n in N ). Hence ( s ) is not an isolated point of ( Z ). The following theorem gives a deeper property of ( Z ). The Hausdorff dimension of ( Z ) is midway between that of a point (dimension 0) and a line (dimension 1). ( Z ) has Hausdorff dimension (frac ). The Law of the Iterated Logarithm As usual, let ( bs ) be standard Brownian motion. By definition, we know that ( Xt ) has the normal distribution with mean 0 and standard deviation ( sqrt ), so the function ( x sqrt ) gives some idea of how the process grows in time. The precise growth rate is given by the famous law of the iterated logarithm Computational Exercises In the following exercises, ( bs ) is a standard Brownian motion process. Explicitly find the probability density function, covariance matrix, and correlation matrix of ( (X , X1, X ) ).

Comments

Popular Posts