![Page 1: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/1.jpg)
Eine Einfuhrung in R
Silke Rolles
July 13, 2011
![Page 2: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/2.jpg)
Allgemeine Informationen zu R
I R erhalten Sie kostenlos auf der Webseite des R Project.http://www.r-project.org/
I Das Skript der “Einfuhrung in R” vom SS 2009 sowie dieR-Beispiele der “Einfuhrung in die Wahrscheinlichkeitstheorie”vom WS 2009/10 finden Sie auf der Vorlesungsseite.
I Einen Uberblick der wichtigsten Befehle gibt die R ReferenceCardhttp://cran.r-project.org/doc/contrib/Short-refcard.pdf
![Page 3: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/3.jpg)
Allgemeine Informationen zu R
I R erhalten Sie kostenlos auf der Webseite des R Project.http://www.r-project.org/
I Das Skript der “Einfuhrung in R” vom SS 2009 sowie dieR-Beispiele der “Einfuhrung in die Wahrscheinlichkeitstheorie”vom WS 2009/10 finden Sie auf der Vorlesungsseite.
I Einen Uberblick der wichtigsten Befehle gibt die R ReferenceCardhttp://cran.r-project.org/doc/contrib/Short-refcard.pdf
![Page 4: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/4.jpg)
Allgemeine Informationen zu R
I R erhalten Sie kostenlos auf der Webseite des R Project.http://www.r-project.org/
I Das Skript der “Einfuhrung in R” vom SS 2009 sowie dieR-Beispiele der “Einfuhrung in die Wahrscheinlichkeitstheorie”vom WS 2009/10 finden Sie auf der Vorlesungsseite.
I Einen Uberblick der wichtigsten Befehle gibt die R ReferenceCardhttp://cran.r-project.org/doc/contrib/Short-refcard.pdf
![Page 5: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/5.jpg)
Allgemeine Informationen zu R
I Programmstart: R
I Programmende: q()
I Hilfefunktion: help()Hilfe zur Funktion rnorm: help(rnorm)
![Page 6: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/6.jpg)
Allgemeine Informationen zu R
I Programmstart: R
I Programmende: q()
I Hilfefunktion: help()Hilfe zur Funktion rnorm: help(rnorm)
![Page 7: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/7.jpg)
Allgemeine Informationen zu R
I Programmstart: R
I Programmende: q()
I Hilfefunktion: help()Hilfe zur Funktion rnorm: help(rnorm)
![Page 8: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/8.jpg)
Verteilungen
Funktion Verteilungbeta() Beta-Verteilungbinom() Binomial-Verteilungchisq() χ2-Verteilungexp() Exponential-Verteilungf() F-Verteilunggamma() Gamma-Verteilunggeom() Geometrische Verteilunghyper() Hypergeometrische Verteilungnorm() Normalverteilungpois() Poissonverteilungt() t-Verteilungunif() Gleichverteilung
![Page 9: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/9.jpg)
Verteilungen
Dem Namen der Funktion wird ein Buchstabe vorangestellt:
I d (density) Dichtefunktion
I p (probability) Verteilungsfunktion
I q (quantiles) Quantile
I r (random) Pseudo-Zufallszahlen
![Page 10: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/10.jpg)
Verteilungen
Dem Namen der Funktion wird ein Buchstabe vorangestellt:
I d (density) Dichtefunktion
I p (probability) Verteilungsfunktion
I q (quantiles) Quantile
I r (random) Pseudo-Zufallszahlen
![Page 11: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/11.jpg)
Verteilungen
Dem Namen der Funktion wird ein Buchstabe vorangestellt:
I d (density) Dichtefunktion
I p (probability) Verteilungsfunktion
I q (quantiles) Quantile
I r (random) Pseudo-Zufallszahlen
![Page 12: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/12.jpg)
Verteilungen
Dem Namen der Funktion wird ein Buchstabe vorangestellt:
I d (density) Dichtefunktion
I p (probability) Verteilungsfunktion
I q (quantiles) Quantile
I r (random) Pseudo-Zufallszahlen
![Page 13: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/13.jpg)
Verteilungen
Dem Namen der Funktion wird ein Buchstabe vorangestellt:
I d (density) Dichtefunktion
I p (probability) Verteilungsfunktion
I q (quantiles) Quantile
I r (random) Pseudo-Zufallszahlen
![Page 14: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/14.jpg)
Eine Dichtefunktion plotten
Wir plotten die Dichte der N(0, 1)-Verteilung:
x < − seq(-5,5, by=0.005)plot(x,dnorm(x), type="l", xlab="x", ylab="f(x)",main="Dichte f der Standardnormalverteilung")
Dabei bedeutet:
I dnorm(x): Dichte der N(0,1)-Verteilung an der Stelle xDargestellt wird x 7→ dnorm(x) fur x ∈ [−5, 5] ∩ 0.005Z.
I type=l: Linien plotten
I xlab: Titel der x-Achse
I ylab: Titel der y-Achse
I main: Titel der Grafik
![Page 15: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/15.jpg)
Eine Dichtefunktion plotten
Wir plotten die Dichte der N(0, 1)-Verteilung:
x < − seq(-5,5, by=0.005)plot(x,dnorm(x), type="l", xlab="x", ylab="f(x)",main="Dichte f der Standardnormalverteilung")
Dabei bedeutet:
I dnorm(x): Dichte der N(0,1)-Verteilung an der Stelle xDargestellt wird x 7→ dnorm(x) fur x ∈ [−5, 5] ∩ 0.005Z.
I type=l: Linien plotten
I xlab: Titel der x-Achse
I ylab: Titel der y-Achse
I main: Titel der Grafik
![Page 16: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/16.jpg)
Die Verteilungsfunktion
Wir plotten die Verteilungsfunktion Φ der N(0, 1)-Verteilung:
x < − seq(-5,5, by=0.01)plot(x,pnorm(x), type="l", xlab="x", ylab="Phi(x)",main="Verteilungsfunktion Phi derStandardnormalverteilung")
Dabei ist pnorm(x)=Φ(x).Dargestellt wird x 7→ Φ(x) fur x ∈ [−5, 5] ∩ 0.01Z.
![Page 17: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/17.jpg)
Quantile
I Das α-Quantil der N(0, 1)-Verteilung bestimmt man mitqnorm(α)
I Zum Beispiel berechnet man das 95%-Quantil mit demKommando qnorm(0.95)
![Page 18: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/18.jpg)
Quantile
I Das α-Quantil der N(0, 1)-Verteilung bestimmt man mitqnorm(α)
I Zum Beispiel berechnet man das 95%-Quantil mit demKommando qnorm(0.95)
![Page 19: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/19.jpg)
Die Quantilsfunktion
Wir plotten die Quantilsfunktion z der N(0, 1)-Verteilung:
x< −seq(0,1, by=0.005)plot(x,qnorm(x), type="l", xlab="x", ylab="z(x)",main="Quantilsfunktion z derStandardnormalverteilung")
Dabei ist qnorm(x)=z(x) die Quantilsfunktion an der Stelle x.Dargestellt wird x 7→ z(x) fur x ∈ (0, 1) ∩ 0.005Z.
![Page 20: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/20.jpg)
Empirisches Mittel und empirische Varianz
I Wir erzeugen einen Vektor mit den Komponenten 3,7,5:x< −c(3,7,5)
I Empirisches Mittel von x:
x =1
n
n∑i=1
xi
mean(x)
I Empirische Varianz von x:
s2x =
1
n − 1
n∑i=1
(xi − x)2
var(x)
![Page 21: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/21.jpg)
Empirisches Mittel und empirische Varianz
I Wir erzeugen einen Vektor mit den Komponenten 3,7,5:x< −c(3,7,5)
I Empirisches Mittel von x:
x =1
n
n∑i=1
xi
mean(x)
I Empirische Varianz von x:
s2x =
1
n − 1
n∑i=1
(xi − x)2
var(x)
![Page 22: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/22.jpg)
Empirisches Mittel und empirische Varianz
I Wir erzeugen einen Vektor mit den Komponenten 3,7,5:x< −c(3,7,5)
I Empirisches Mittel von x:
x =1
n
n∑i=1
xi
mean(x)
I Empirische Varianz von x:
s2x =
1
n − 1
n∑i=1
(xi − x)2
var(x)
![Page 23: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/23.jpg)
Empirische Kovarianz
Empirische Kovarianz von x und y:
sx ,y =1
n − 1
n∑i=1
(xi − x)(yi − y)
cov(x,y)
![Page 24: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/24.jpg)
Erzeugung von Zufallszahlen
I Man kann n N(µ, σ2)-verteilte Zufallsvariablen mit demKommando
rnorm(n,mean=µ,sd=σ)
erzeugen.
I Beispiel: Erzeugung von 100 N(0, 1)-verteilten Zufallsvariablen
x< −rnorm(100,mean=0,sd=1)mean(x)var(x)
![Page 25: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/25.jpg)
Erzeugung von Zufallszahlen
I Man kann n N(µ, σ2)-verteilte Zufallsvariablen mit demKommando
rnorm(n,mean=µ,sd=σ)
erzeugen.
I Beispiel: Erzeugung von 100 N(0, 1)-verteilten Zufallsvariablen
x< −rnorm(100,mean=0,sd=1)mean(x)var(x)
![Page 26: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/26.jpg)
Lineare Regression
Modell:
Yi = γ0 + γ1xi + σξi , 1 ≤ i ≤ n.
Dabei sind
I xi ∈ R bekannt (1 ≤ i ≤ n)
I γ0, γ1 ∈ R, σ > 0 unbekannt
I ξi , 1 ≤ i ≤ n, unabhangig mit E [ξi ] = 0 und Var(ξi ) = 1.
![Page 27: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/27.jpg)
Lineare Regression
Modell:
Yi = γ0 + γ1xi + σξi , 1 ≤ i ≤ n.
Dabei sind
I xi ∈ R bekannt (1 ≤ i ≤ n)
I γ0, γ1 ∈ R, σ > 0 unbekannt
I ξi , 1 ≤ i ≤ n, unabhangig mit E [ξi ] = 0 und Var(ξi ) = 1.
![Page 28: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/28.jpg)
Lineare Regression
Modell:
Yi = γ0 + γ1xi + σξi , 1 ≤ i ≤ n.
Dabei sind
I xi ∈ R bekannt (1 ≤ i ≤ n)
I γ0, γ1 ∈ R, σ > 0 unbekannt
I ξi , 1 ≤ i ≤ n, unabhangig mit E [ξi ] = 0 und Var(ξi ) = 1.
![Page 29: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/29.jpg)
Lineare Regression
Modell:
Yi = γ0 + γ1xi + σξi , 1 ≤ i ≤ n.
Dabei sind
I xi ∈ R bekannt (1 ≤ i ≤ n)
I γ0, γ1 ∈ R, σ > 0 unbekannt
I ξi , 1 ≤ i ≤ n, unabhangig mit E [ξi ] = 0 und Var(ξi ) = 1.
![Page 30: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/30.jpg)
Lineare Regression
Modell: Yi = γ0 + γ1xi + σξi , 1 ≤ i ≤ n.Erwartungstreue Schatzer fur die unbekannten Koeffizienten γ0
und γ1 sind:
γ1 =SY ,x
s2x
γ0 =Y − γ1x = Y −SY ,x
s2x
· x
mit
Y =1
n
n∑i=1
Yi , x =1
n
n∑i=1
xi empirische Mittel
SY ,x =1
n − 1
n∑i=1
(Yi − Y )(xi − x) empirische Kovarianz
s2x =
1
n − 1
n∑i=1
(xi − x)2 empirische Varianz
![Page 31: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/31.jpg)
Lineare Regression
Ein einfaches Beispiel:x <- c(1:10)xi <- rnorm(10)y <- 1+2*x+xilinearesmodell<-lm(y∼x)coef(linearesmodell)
Das bedeutet:
I x = (1, 2, 3, . . . , 10)
I yi = 1 + 2 · xi + ξi mit unabhangigen ξi ∼ N(0, 1).
I linearesmodell< −lm(y∼ x) besagt, dass zwischen yund x ein linearer Zusammenhang wie oben beschriebenbesteht.
I coef(linearesmodell) liefert γ0 und γ1.
![Page 32: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/32.jpg)
Lineare Regression
Ein einfaches Beispiel:x <- c(1:10)xi <- rnorm(10)y <- 1+2*x+xilinearesmodell<-lm(y∼x)coef(linearesmodell)
Das bedeutet:
I x = (1, 2, 3, . . . , 10)
I yi = 1 + 2 · xi + ξi mit unabhangigen ξi ∼ N(0, 1).
I linearesmodell< −lm(y∼ x) besagt, dass zwischen yund x ein linearer Zusammenhang wie oben beschriebenbesteht.
I coef(linearesmodell) liefert γ0 und γ1.
![Page 33: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/33.jpg)
Lineare Regression
Ein einfaches Beispiel:x <- c(1:10)xi <- rnorm(10)y <- 1+2*x+xilinearesmodell<-lm(y∼x)coef(linearesmodell)
Das bedeutet:
I x = (1, 2, 3, . . . , 10)
I yi = 1 + 2 · xi + ξi mit unabhangigen ξi ∼ N(0, 1).
I linearesmodell< −lm(y∼ x) besagt, dass zwischen yund x ein linearer Zusammenhang wie oben beschriebenbesteht.
I coef(linearesmodell) liefert γ0 und γ1.
![Page 34: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/34.jpg)
Lineare Regression
Ein einfaches Beispiel:x <- c(1:10)xi <- rnorm(10)y <- 1+2*x+xilinearesmodell<-lm(y∼x)coef(linearesmodell)
Das bedeutet:
I x = (1, 2, 3, . . . , 10)
I yi = 1 + 2 · xi + ξi mit unabhangigen ξi ∼ N(0, 1).
I linearesmodell< −lm(y∼ x) besagt, dass zwischen yund x ein linearer Zusammenhang wie oben beschriebenbesteht.
I coef(linearesmodell) liefert γ0 und γ1.
![Page 35: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/35.jpg)
Lineare Regression
Ein einfaches Beispiel:x <- c(1:10)xi <- rnorm(10)y <- 1+2*x+xilinearesmodell<-lm(y∼x)coef(linearesmodell)
Das bedeutet:
I x = (1, 2, 3, . . . , 10)
I yi = 1 + 2 · xi + ξi mit unabhangigen ξi ∼ N(0, 1).
I linearesmodell< −lm(y∼ x) besagt, dass zwischen yund x ein linearer Zusammenhang wie oben beschriebenbesteht.
I coef(linearesmodell) liefert γ0 und γ1.
![Page 36: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/36.jpg)
Lineare Regression
I fitted(linearesmodell) liefert die Punkte (yi , γ0 + γ1xi )entlang der Regressionsgeraden.
I Man bezeichnet yi − (γ0 + γ1xi ), 1 ≤ i ≤ n, also dieMesswerte minus die gefitteten Werte, als Residuen.
I residuals(linearesmodell) liefert also dasselbe wief <- fitted(linearesmodell)y-f
I plot(x,y) plottet die Daten
I abline(linearesmodell) fugt die Regressionsgerade hinzu
![Page 37: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/37.jpg)
Lineare Regression
I fitted(linearesmodell) liefert die Punkte (yi , γ0 + γ1xi )entlang der Regressionsgeraden.
I Man bezeichnet yi − (γ0 + γ1xi ), 1 ≤ i ≤ n, also dieMesswerte minus die gefitteten Werte, als Residuen.
I residuals(linearesmodell) liefert also dasselbe wief <- fitted(linearesmodell)y-f
I plot(x,y) plottet die Daten
I abline(linearesmodell) fugt die Regressionsgerade hinzu
![Page 38: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/38.jpg)
Lineare Regression
I fitted(linearesmodell) liefert die Punkte (yi , γ0 + γ1xi )entlang der Regressionsgeraden.
I Man bezeichnet yi − (γ0 + γ1xi ), 1 ≤ i ≤ n, also dieMesswerte minus die gefitteten Werte, als Residuen.
I residuals(linearesmodell) liefert also dasselbe wief <- fitted(linearesmodell)y-f
I plot(x,y) plottet die Daten
I abline(linearesmodell) fugt die Regressionsgerade hinzu
![Page 39: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/39.jpg)
Lineare Regression
I fitted(linearesmodell) liefert die Punkte (yi , γ0 + γ1xi )entlang der Regressionsgeraden.
I Man bezeichnet yi − (γ0 + γ1xi ), 1 ≤ i ≤ n, also dieMesswerte minus die gefitteten Werte, als Residuen.
I residuals(linearesmodell) liefert also dasselbe wief <- fitted(linearesmodell)y-f
I plot(x,y) plottet die Daten
I abline(linearesmodell) fugt die Regressionsgerade hinzu
![Page 40: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/40.jpg)
Lineare Regression
I fitted(linearesmodell) liefert die Punkte (yi , γ0 + γ1xi )entlang der Regressionsgeraden.
I Man bezeichnet yi − (γ0 + γ1xi ), 1 ≤ i ≤ n, also dieMesswerte minus die gefitteten Werte, als Residuen.
I residuals(linearesmodell) liefert also dasselbe wief <- fitted(linearesmodell)y-f
I plot(x,y) plottet die Daten
I abline(linearesmodell) fugt die Regressionsgerade hinzu
![Page 41: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/41.jpg)
Hypothesentests und Konfidenzintervalle
x < − rnorm(20,mean=0,sd=5)t <- t.test(x)fuhrt einen zweiseitigen t-Test H0 : µ = 0 gegen µ 6= 0 aus.
Beim Output ist
I t: Teststatistik
I df: degrees of freedom, also der Parameter n der tn-Verteilung
I p.value: p-Wert
I conf.level=0.95 bedeutet, dass ein 95%-Konfidenzintervallbestimmt wird.
![Page 42: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/42.jpg)
Hypothesentests und Konfidenzintervalle
x < − rnorm(20,mean=0,sd=5)t <- t.test(x)fuhrt einen zweiseitigen t-Test H0 : µ = 0 gegen µ 6= 0 aus.Beim Output ist
I t: Teststatistik
I df: degrees of freedom, also der Parameter n der tn-Verteilung
I p.value: p-Wert
I conf.level=0.95 bedeutet, dass ein 95%-Konfidenzintervallbestimmt wird.
![Page 43: Eine Einführung in R - TUM€¦ · R-Beispiele der “Einfu¨hrung in die Wahrscheinlichkeitstheorie” vom WS 2009/10 finden Sie auf der Vorlesungsseite. I Einen Uberblick der](https://reader035.vdocuments.net/reader035/viewer/2022070808/5f06b3337e708231d4194c3d/html5/thumbnails/43.jpg)
Hypothesentests und Konfidenzintervalle
x < − rnorm(20,mean=0,sd=5)t <- t.test(x,alternative="less",conf.level=0.99)fuhrt einen einseitigen t-Test H0 : µ = 0 gegen µ < 0 aus.Es wird ein 99%-Konfidenzintervall bestimmt.