Libreria Editrice OssidianeLibreria Editrice Ossidiane

I Concetti Fondamentali della Probabilità e della Statistica – 2 Volumi

I Concetti Fondamentali della Probabilità e della Statistica – 2 Volumi

Volume I : Probabilità – Volume II : Statistica

Autore/i: Hodges Joseph L. jr.; Lehmann Erich L.

Editore: Società Editrice Il Mulino

premessa e introduzione degli autori.

vol. 1 pp. 376, vol. 2 pp. 284, nn. grafici b/n, Bologna

Questo libro, che costituisce uno dei più apprezzati testi di introduzione alla statistica in uso negli Stati Uniti, è rivolto ad un pubblico assai vasto. Esso si propone di spiegare i concetti fondamentali della probabilità e della statistica presupponendo soltanto una buona conoscenza dell’algebra, cosi come viene insegnata nelle scuole medie superiori, e di illustrare tali concetti attraverso alcune semplici, ma importanti tecniche statistiche. Il libro viene presentato in edizione italiana diviso in due volumi, il primo dedicato alla probabilità, il secondo alla statistica, seguendo la distinzione in parti già operata dagli autori nel testo originale. In effetti, una introduzione alla statistica non e possibile senza un’adeguata conoscenza degli elementi fondamentali del calcolo della probabilità, per la presenza di elementi casuali nei dati da analizzare. Questo primo volume è dedicato ai concetti di base della probabilità e, in particolare, al concetto di modello probabilistico che è la rappresentazione matematica dell’aspetto casuale delle osservazioni. Gli autori, tuttavia, non si sono limitati a sviluppare l’aspetto matematico della teoria della probabilità, ma hanno cercato di fornire una motivazione delle relazioni esistenti tra il modello e la realtà che esso rappresenta.
Il volume, che si propone soprattutto come un utile strumento didattico, è arricchito da numerosi esempi ed esercizi, che seguono la fine di ogni paragrafo.

J. L. Hodges jr., insegna statistica all’’Università di Berkeley, California, e collabora alla rivista «Annales of Mathematical Statistics».

E. L. Lehmann ha insegnato presso varie università americane e, attualmente, è professore di statistica a Berkeley. E presidente dell’Institute of Mathematical Statistics e autore di Testing Statistical Hypotheses, oltre che di numerosi articoli apparsi in «Annales of Mathematical Statistics» e in «Journal of Statistical Association».

Visualizza indice

Volume 1:

Premessa

I. Modelli probabilistici

  • Esperimenti casuali
  • Basi empiriche della probabilità
  • Eventi semplici e loro probabilità
  • Definizione dei modelli probabilistici
  • Modelli con probabilità uniforme
  • L’algebra degli eventi
  • Alcune leggi di probabilità

II. Il campionamento

  • Un modello per il campionamento
  • Il numero dei campioni
  • Campionamento ordinato
  • Alcune formule per il campionamento

III. Modelli moltiplicativi

  • Modelli moltiplicativi per esperimenti di due parti
  • Realismo dei modelli moltiplicativi
  • Prove binomiali
  • L’uso dei numeri casuali per estrarre campioni

IV. Probabilità condizionata

  • Il concetto di probabilità condizionata
  • Indipendenza
  • Esperimenti a due stadi
  • Proprietà dei modelli a due stadi; legge di Bayes
  • Applicazioni della probabilità alla genetica
  • Matrimonio tra parenti
  • Probabilità personale

V. Variabili casuali

  • Definizioni
  • Distribuzione di una variabile casuale
  • Aspettativa
  • Proprietà del valore atteso
  • Leggi del valore atteso
  • Varianza
  • Leggi di Varianza
  • Distribuzioni più comuni

VI. Distribuzioni più comuni

  • Distribuzionale Binomiale
  • La distribuzione ipergeometrica
  • Unità standard
  • La curva normale e il teorema del limite centrale
  • L’approssimazione normale
  • L’approssimazione di Poisson per np = 1
  • L’approssimazione di Poisson: caso generale
  • La distribuzione uniforme e la distribuzione delle concordanze
  • La legge dei grandi numeri
  • Arresto sequenziale

VII. Distribuzioni multivariate

  • Distribuzioni congiunte
  • Covarianza e correlazione
  • La distribuzione multinomiale

Tabelle
A. Numero delle combinazioni (“) di N elementi considerandone s alla volta
B. P(B=)) per la distribuzione binomiale (n, p)
C. P(B= 5) per la distribuzione binomiale (n, 0,5)
D. Radici quadrate
E. Area ϕ(z) sotto la curva normale alla sinistra di z
F. L’approssimazione di Poisson P(T = t)

Volume 2:

Premessa
Introduzione

I. Stima

  • Stima non distorta
  • L’accuratezza di una stima non distorta
  • Ampiezza del campione

II. Problemi di stima nei modelli per le misurazioni e nei modelli per il campionamento

  • Un modello per il campionamento
  • Un modello per le misurazioni
  • Confronto fra due quantità o universi
  • Stima dell’effetto di un trattamento
  • Stima della varianza

III. Metodi ottimali di stima

  • Scelta di una stima
  • Piano degli esperimenti
  • Campionamento stratificato
  • Una disuguaglianza e sue applicazioni

IV. Tests di significatività

  • Primi concetti sui tests
  • Metodi per il calcolo della significatività
  • Il test del chi quadrato

V. Tests per esperimenti comparativi

  • Esperimenti per i confronti
  • Il test di Fisher-Irwin per le tabelle due per due
  • Il test di Wilcoxon per due campioni
  • La distribuzione di Wilcoxon
  • Il test dei segni per i confronti a coppie
  • Il test di Wilcoxon per confronti a coppie
  • Il problema delle uguaglianze

VI. Concetto di potenza

  • I due generi di errori
  • Determinazione dell’ampiezza campionaria. Potenza di un test
  • La curva di potenza
  • Tests unilaterali e bilaterali
  • La scelta dei tests statistici
  • I tests X, t e di Wilcoxon per un campione

Tabelle
A. Numero delle combinazioni (N/s) di N elementi considerandone s alla volta
B. P(B = b) per la distribuzione binomiale (n, p)
C. P(B = b) per la distribuzione binomiale (n, 0,5)
D. Radici quadrate
E. Area ϕ(z) sotto la curva normale alla sinistra di z
F. L’approssimazione di Poisson P(T = t)
G.
Probabilità di significatività approssimata P(Q ⪳ q) del test del chi quadrato
H. Distribuzione di Wilcoxon per due campioni
I. Tabella ausiliaria per il test di Wilcoxon per i confronti a coppie
J. #(V ⪳ Sv) per v ⪳ Sz nel test di Wilcoxon per i confronti a coppie
K. #(V ⪳ Sv) per v > n nel test di Wilcoxon per i confronti a coppie

Vai alla scheda libro e aggiungi al carrello Modalità di acquisto

Commenti

Comments are closed.