Help Calculator

Libri sui processi stocastici e variabili aleatorie

« Older   Newer »
  Share  
pier4reich
view post Posted on 29/1/2010, 15:47




Poichè tutte le volte che ho affrontato questa parte teorica la spiegazione era succinta (come se fosse un concetto scontato, nelle lezioni o nelle dispense) conoscete dei libri che espongono la teoria relativa a variabili aleatorie e processi stocastici in modo esteso?

Esteso in termini di prolisso, che ci spendono più di 4 righe. Altrimenti riesco a "vedere" il concetto solo parzialmente.

Thanks in advance.
 
Top
view post Posted on 29/1/2010, 21:44
Avatar

Advanced Member

Group:
Administrator
Posts:
1,486
Location:
Alatri (Frosinone)

Status:


Probabilmente il miglio testo sull'argomento è questo:

Probability, Random Variables, and Stochastic Processes

McGraw-Hill

Athanasios Papoulis
S. Unnikrishna Pillai

www.mhhe.com/engcs/electrical/papoulis/
 
Top
pier4reich
view post Posted on 30/1/2010, 10:00




Grazie, in atesa di conferme /altri consigli gli dò un'occhiata e casomai lo acquisto originale se è quello che cerco.
 
Top
pier4reich
view post Posted on 15/3/2010, 11:28




alla fine non l'ho ancora letto (seriamente) i quando pare che per ora non serve (in realtà la conoscenza serve sempre, e che non c'ho voglia).
Quindi per adesso rimando.
 
Top
pier4reich
view post Posted on 6/9/2010, 20:35




Che poi non mi è servito. Dovrei leggerlo per aumentare la mia conoscenza ed invece non ho mai tempo (ma che stò dicendo, voglia.... non ho voglia che sono scarso).
 
Top
view post Posted on 25/4/2023, 12:14

Member

Group:
Member
Posts:
761

Status:


Di solito si parte dallo studio del calcolo delle probabilità, se non altro poiché esso consente di chiarire alcuni "punti" fisici fondamentali di meccanica statistica (ad es. sui gradi di libertà di un oggetto macroscopico e sul principio dell'aumento dell'entropia) e pervenire, poi, alla modellazione di sistemi dinamici complessi (e quindi alla teoria del caos). E' stata proprio la fisica, attraverso la meccanica statistica di Maxwell e di Boltzmann e il moto browniano di Einstein e altri, a dare l'avvio allo sviluppo della moderna teoria dei processi stocastici. La definizione di probabilità era già chiara a Galileo (e ripresa, in seguito, da Pascal) ma il primo trattato "serio" (in cui già si parla di "legge dei grandi numeri") è dovuto a Bernoulli con l'opera (pubblicata postuma) "Ars conjectandi", ovvero l'arte del congetturare. La definizione "classica" di probabilità è dovuta a Laplace, il quale, nella sua opera "Theorie analytique des probabilité", afferma: "... in fondo, la teoria della probabilità è soltanto senso comune espresso in numeri". Nel 1919, Richard von Mises introdusse una nuova definizione di probabilità, intesa in senso "frequentista". Nel 1931 Ramsey e De Finetti, in modo indipendente l'uno dall'altro, sostennero la necessità di introdurre il concetto di probabilità inteso in senso "soggettivo". Nel 1933, infine, Kolmogorov formulò la cosiddetta "teoria assiomatica" del calcolo delle probabilità, in cui la definizione di probabilità risulta "sganciata" dal problema della misura della probabilità stessa.
Al momento non mi sono soffermato sull'evoluzione del concetto di probabilità ma ne riparlerò man mano che introdurrò nuovi concetti.
A presto ;)
 
Top
view post Posted on 26/4/2023, 12:40

Member

Group:
Member
Posts:
761

Status:


La definizione di probabilità classica, introdotta da de Moivre nel 1716, stabilisce che la probabilità di un certo evento è il rapporto tra il numero dei casi favorevoli v e il numero dei casi possibili n, supponendo che tutti gli eventi siano equiprobabili: p=v/n. Laplace, nel suo "Saggio sulle probabilità" del 1814, esprime la sua concezione deterministica della realtà: "Dobbiamo dunque considerare lo stato presente dell'universo come effetto del suo stato anteriore e come causa del suo stato futuro". La contraddizione tra la sua visione deterministica e il concetto di probabilità viene così spiegata: "La curva descritta da una semplice molecola d'aria o di vapore è regolata con la stessa certezza delle orbite planetarie: non vi è alcuna differenza tra di esse, se non quella che vi pone la nostra ignoranza. La probabilità è relativa in parte a questa ignoranza, in parte alle nostre conoscenze". In altre parole, la casualità di un evento dipende dalle inadeguate informazioni che abbiamo riguardo a quell'evento ed è in base alla quantità e alla qualità di tali informazioni che quell'evento può essere considerato più o meno probabile.
A presto ;)

P.S. La probabilità classica si basa su eventi discreti, nel caso di variabili casuali continue si espone a diverse difficoltà.

Edited by Rachid2 - 27/4/2023, 08:44
 
Top
view post Posted on 27/4/2023, 09:44

Member

Group:
Member
Posts:
761

Status:


LA LEGGE EMPIRICA DEL CASO
-----------------------------------

Il concetto di frequenza è legato a quello di evento ripetibile. Supponendo di effettuare n prove, nelle stesse condizioni, un evento può verificarsi, per ciascuna prova, o meno. Si definisce frequenza il rapporto tra il numero di successi s (il numero di volte in cui l'evento si verifica) e il numero di prove effettuate n, cioè f=s/n. Sia la frequenza che la probabilità possono assumere valori compresi tra 0 e 1 ma i due concetti sono molto differenti. La probabilità viene calcolata "a priori" (cioè in base alla conoscenza dei casi favorevoli e dei casi possibili) mentre la frequenza si calcola a posteriori (ovvero dopo una serie sufficiente di prove). La legge empirica del caso consente di assumere la frequenza, su un grande numero di prove, come misura approssimata della probabilità nel caso in cui quest'ultima non possa essere ricavata tramite la definizione (perché non è possibile individuare i casi favorevoli rispetto a quelli possibili). In altre parole, a partire dai presupposti appena citati, assumiamo la probabilità di un evento come la sua frequenza calcolata "al limite" (poiché si tratta di un vero e proprio limite) di un numero sufficientemente alto di prove: questa è la definizione "frequentista". Tale definizione (frequentista) non è scevra di difetti: ad esempio, quanto deve essere grande il numero di prove ? Come si fa a decidere il grado di approssimazione più o meno buono ? Non è semplice rispondere a tali domande, perlomeno in modo elementare.
A presto ;)
 
Top
view post Posted on 9/12/2023, 09:14

Member

Group:
Member
Posts:
761

Status:


E' stata completata la stesura dei seguenti capitoli:

1) il paradosso di Bertrand;
2) la scuola soggettivistica;
3) la teoria assiomatica di Kolmogorov;
4) teoremi sulla probabilità contraria e sulla probabilità composta;
5) concetto di dipendenza stocastica;
6) la probabilità condizionata, la disintegrazione e la formula di Bayes;
7) il paradosso del compleanno e il paradosso delle 3 panchine;
8) perché scommettere sui numeri ritardatari non funziona;
9) il paradosso dei "falsi positivi" (o del "test diagnostico");
10) il paradosso dei "tre prigionieri";
11) il paradosso di "Monty Hall";
12) variabili aleatorie continue e discrete;
13) la cdf (funzione di distribuzione) di una variabile casuale discreta;
14) il valore medio (o "valore atteso");
15) lo scostamento o "scarto";
16) la varianza (o "sigma-quadro);
17) la deviazione standard (sigma);
18) tipi di distribuzioni nel discreto: uniforme, bernoulliana (binomiale), geometrica, di Poisson (o degli "eventi rari"), ipergeometrica;
19) variabili aleatorie continue: concetto di "densità di probabilità";
20) varianza e valore atteso di una v. a. continua;
21) la disuguaglianza di Chebyshev;
22) la distribuzione gaussiana (o "normale") nel continuo;
23) il teorema di De Moivre-Laplace: convergenza della binomiale alla gaussiana;
24) la legge dei grandi numeri di Bernoulli;
25) il teorema del limite centrale (TLC).

Per "processo stocastico" si intende l'evoluzione nel tempo di un sistema che non obbedisce a leggi di tipo deterministico; ciò significa che, nel caso di moto di un sistema, la traiettoria seguita da tale sistema non dipende solo dalle condizioni iniziali. In pratica, dalla stessa condizione iniziale possono derivare diverse traiettorie, ciascuna caratterizzata da una certa distribuzione di probabilità. Ne avevo già fatto un accenno nell'introduzione al "caos deterministico", a proposito del "problema dei 3 corpi" di Newton. Prima, però, di introdurre l'argomento sui processi stocastici, in particolare del moto Browniano e della meccanica statistica, vorrei trattare brevemente della distribuzione "lognormale", presente in diverse discipline, dalla biologia alla finanza. Si tratta di una questione importante, da non trascurare.
A presto ;)
 
Top
8 replies since 29/1/2010, 15:47   315 views
  Share