loading

Logout succeed

Logout succeed. See you again!

ebook img

Econometrie appliquee PDF

pages100 Pages
release year2005
file size0.7 MB
languageFrench

Preview Econometrie appliquee

Econométrie appliquée Maîtrise sciences économiques Cours de Claude Meidinger Whenever you can, count. Galton(1822-1911) 2 Table des matières 1 La régressionlinéaire 5 1.1 Leprincipe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.2 Interprétation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2.1 Régression linéairesimple . . . . . . . . . . . . . . . . . 7 1.2.2 Regression linèairemultiple . . . . . . . . . . . . . . . . 8 1.3 Mesure(descriptive)delaqualitédel’ajustementlinéaire . . . . . 9 1.3.1 Troisconcepts différentsdelavariationdey . . . . . . . 9 1.3.2 Mesuredelaqualitédel’ajustementlinéaire . . . . . . . 10 1.4 Uneillustration . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.5 Lamulticolinéarité . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.6 Complémentsmathématiques . . . . . . . . . . . . . . . . . . . . 16 1.6.1 Représentation géométrique . . . . . . . . . . . . . . . . 16 1.6.2 Projection et qualitédel’estimation . . . . . . . . . . . . 17 2 Estimationdes paramètres ettests d’hypothèses. Principes généraux 23 2.1 Estimation: relations entre les coefficient de régression et les pa- ramètres théoriques . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1.1 Leprincipe . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.1.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . 28 2.2 Lestestsd’hypothèses . . . . . . . . . . . . . . . . . . . . . . . 33 2.2.1 Test del’hypothèseβ = 0 :F global . . . . . . . . . . . 33 c 2.2.2 Test del’hypothèseβ = 0 :t-test . . . . . . . . . . . . . 35 k 3 Tests derestriction linéaires etvariablesmuettes 39 3.1 Testsderestrictionlinéairessurlesparamètres du modèle . . . . . 39 3.1.1 Approchegénérale . . . . . . . . . . . . . . . . . . . . . 39 3.1.2 Applications: testsdechangementstructurel . . . . . . . 44 3 TABLEDESMATIÈRES 4 Les moindres carrés généralisés : Hétéroscédasticité et Autocorréla- tion 49 4.1 LeprincipedesMCG . . . . . . . . . . . . . . . . . . . . . . . . 49 4.2 Hétéroscédasticité . . . . . . . . . . . . . . . . . . . . . . . . . . 51 4.2.1 Les tests . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.2.2 Les remèdes . . . . . . . . . . . . . . . . . . . . . . . . 53 4.3 L’Autocorrélation . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.3.2 Les testsd’autocorrélationAR(1):ε = ρε +u . . . . 57 t t 1 t − 4.3.3 Les remèdes . . . . . . . . . . . . . . . . . . . . . . . . 59 4.4 Complémentsmathématiques . . . . . . . . . . . . . . . . . . . . 62 5 Endogénéité etvariables instrumentales 65 5.1 Endogénéitédes régresseurs . . . . . . . . . . . . . . . . . . . . 65 5.1.1 Les sources del’endogénéité . . . . . . . . . . . . . . . . 65 5.2 Correction des biais: laméthodedesvariablesinstrumentales. . . 68 5.3 L’identification . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 5.4 Suridentificationet doublesmoindrescarrés . . . . . . . . . . . . 74 5.5 ComplémentsMathématiques . . . . . . . . . . . . . . . . . . . 77 5.5.1 En régressionsimple . . . . . . . . . . . . . . . . . . . . 77 5.5.2 En régressionmultiple . . . . . . . . . . . . . . . . . . . 79 A Rappels d’algèbre linéaire 83 B Tables statistiques 89 C Introduction àla théorie des probabilités 95 4 Chapitre 1 La régression linéaire 1.1 Le principe Uneétudeéconométriquec’est : – un ensemble de propositions concernant certains aspects de l’économie ⇒ spécifiedes relationsentrecertaines variables: modèle – une investigation empirique destinée à fournir des informations sur les pa- ramètres des relations fonctionnelles (estimation) et sur la validité de ces relations(tests) Pourlemoment:lemodèlelinéaireexprimeunevariabledépendanteycomme fonctiondeuneouplusieursvariablesindépendantesx ,...,x ,...,x . 1 k K – exemple1 : (Pindicket Rubinfeld1999) 5 variables : loyer (LOYER), nombre de personnes (NBREpers), nombre de chambre (NBREch), sexe (Sexe) et distance entre appartement et campus (DIST). Ajustementou regressionlinéairedeLOYER surles 4autres variables: (1.1) LOYER = β +β NBREpers+β NBREch+β Sexe+β DIST 1 2 3 4 5 qui estdu genre: y = β x +β x +β x +β x +β x 1 1 2 2 3 3 4 4 5 5 avecx1:variableconstante,prenanttoujourslavaleur1,d’où:y = β + 5 β x 1 k=1 k k S’il n’y a qu’une seule variable explicative(en plus de la constante) on a une ré- P gressionlinéairesimple,autrementil s’agitd’unerégressionlinéairemultiple. – exemple 2 (Pindick et Rubinfeld 1999): dépenses trimestriellesen voitures neuves(DeVoitN) etsalaires trimestriels(Salaires) (Ex3-3) 5 CHAPITRE1. LARÉGRESSIONLINÉAIRE DeVoitN = β +β Salaires du type: y = β +β2x 1 2 1 2 Régression linéaire sur un échantillon de n observations pour chaque variable, i [1,N] : dans le cas devariables y,x ,...,x ,...x cela donneK +1 vecteurs 1 k K ∈ colonnessuivantsdu type: y ,x ,...,x ,...x 1 1 k K y x x x 1 k K y 1 x x 1 1k 1K . . . . . . . . . : y 1 x x i ik iK : : : : y 1 x x N Nk NK TAB. 1.1– variablesy et x i Et en particulier, la matrice des observations concernant les variables indé- pendantes est notée X . D’où, étant donnés y et X : calculer les coefficients (N,K) derégression,c’est à direles paramètres delarelationlinéaire. colonnek deX : notéex k (lignei deX : notéexi Soit(β ,β ,...,β ) = β vecteurquelconque,pourl’observationi,oncompare 1 2 K y et β + K β x , généralement différents, soit e cet écart : e = y β + i 1 k=2 k ik i i i − 1 K β x L’ajustementparles moindrescarrés consiste à minimiser la somme k=2 k iPk descarrés des écarts : P 2 N K min y β β x i 1 k ik β − − ! i=1 k=2 X X Calcul des coefficientsdelarégression : Soit elevecteurdes écarts : e = y Xβ d’où lasommedes carrés desécarts − N ee = e2 = (y Xβ)(y Xβ) = (y β X )(y Xβ) = y y β X y y Xβ+β X Xβ ′ i − ′ − ′− ′ ′ − ′ − ′ ′ − ′ ′ ′ i=1 X d’où d(e′e) = X y y X+2X Xβ = 2X y+2X Xβ = 0enminimisantcela dβ − ′ − ′ ′ − ′ ′ donne: X Xβ = X y etlasolution ′ ′ βˆ = (X X) 1X y ′ − ′ 6 Econométrie appliquée y y i b y = β +β x 1 2 2 y b b i b b b b b b b b b b x 2 FIG. 1.1 – Droitederégression 1.2 Interprétation 1.2.1 Régression linéaire simple y = β +β x 1 2 2 1 x 12 X′X = xx′1 x1 x2 = x1 ...... x1  ... ...  = Nx ixx2i2 (cid:20) ′2 (cid:21) (cid:20) 12 N2 (cid:21) 1 x (cid:20) i i2 Pi i2 (cid:21) (cid:2) (cid:3) N2     P P y 1 . . . 1 ... 1   y X y = y = i i ′ x ... x i x y (cid:20) 12 N2 (cid:21) ...  (cid:20) Pi i2 i (cid:21)    y  P  N    Donc(X X)β = X y donneunsystèmededeuxéquationsnormales: ′ ′ (1.2) Nβ +( x )β = y ......(1) 1 i2 2 i i i  X X (1.3) ( x )β +( x2 )β = x y ......(2)  i2 1 i2 2 i2 i i i i X X X   (1) en divisant tout par N cela donne β +β x = y donc la droite de régression 1 2 2 passepar(y,x ) 2 Si l’onremplaceβ pary β x dans (2)onaalors : 1 2 2 − 7 CHAPITRE1. LARÉGRESSIONLINÉAIRE (2)( x )(y β x +( x2 )β = x y i i2 − 2 2 i i2 2 i i2 i d’où: P P P β [ x2 x x ] = x y y x 2 i2 − 2 i2 i2 i − i2 i i i i X X X X β [ x2 Nx2] = x y y x 2 i2 − 2 i2 i − i2 i i X X β (x x )2 = (x x )(y y) 2 i2 2 i2 2 i − − − i i X X Soitdonc βˆ2 = PiP(xii(2x−i2x−2)x(2y)i2−y) = SSy222 et βˆ1 = y −β2x2 Interprétation de βˆ :à un diviseur près (par le nombre d’observation-1) Sy 2 2 mesure la covariation entre y et x et le signe de βˆ est déterminé par le sens de 2 2 cettecovariation. y b y = β +β x 1 2 2 b b y b b b b b b b b b x 2 x 2 FIG. 1.2 –Sens des covariations LaFigure1.2montrelecasd’unecovariationpositive:lorsquey > y,leplus i souventx > x. On adonc: i S > 0 y2 1.2.2 Regression linèaire multiple cas de3 variables:y = β +β x +β x 1 2 2 3 3 x N x x ′1 i i2 i i3 X X = x x x x = x x2 x x matricesymétrique ′  ′2  1 2 3  i i2 Pi i2 Pi i2 i3  x x x x x2 ′3 (cid:2) (cid:3) Pi i3 Pi i3 i2 P i i3     P P P 8 Econométrie appliquée y i i X y = x y d’où les troiséquationsnormales suivantes: ′  Pi i2 i  x y Pi i3 i   Nβ +Pbeta x +beta x = y ...(1) 1 2 i i2 1 i i3 i i β x +β x2 +β x x = x y ...(2)  1 i i2 P2 i i2 3 Pi i2 i3 P i i2 i β x +β x x +β x2 = x y ...(3) 1Pi i3 2Pi i3 i2 P3 i i3 Pi i3 i de (1) en divisaPnt tout par NPon obtient :β1P+ β2x2 +Pβ3x3 = y donc le plan de régressionpassepary,x ,x avecβ = y β x β x remplacédans(2)et(3) 2 3 1 2 2 3 3 − − on a: β (x x )2 +β (x x )(x x ) = (x x )(y y) 2 i2 2 3 i2 2 i3 3 i2 2 i − − − − − i i i X X X β (x x )(x x )+β (x x )2 = (x x )(y y) 2 i3 3 i2 2 3 i3 3 i3 3 i − − − − − i i i X X X Ou encore: β S +β S = Sy 2 22 3 23 2 (β2S32 +β3S33 = Sy3 Donc les βˆ et βˆ sont fonction des covariations non seulement entre y et (x et 2 3 2 x )maisaussientrex et x . 3 2 3 1.3 Mesure (descriptive) de la qualité de l’ajuste- ment linéaire 1.3.1 Trois concepts différents de la variation de y On pose: K y = β + β x i 1 k ik k=2 X b b d’où y = Xb et les résidus sbont les e = y y d’où le vecteur des résidus i i i − e = y Xb. i − – Variatiobntotale: TSS = (y y)2 = S (totalsumof squares) b i i − yyb – Variatbionexpliquée:ESS = (y y)2 (explainedsumof squares) P i i − – Variation résiduelle : RSS = (y y )2 = (e )2 (residual sum of P i i − i i i squares) b P P Ces troisquantitéssontliées parlerésultatfondamental: b 9 CHAPITRE1. LARÉGRESSIONLINÉAIRE TSS = ESS+RSS Démonstration: Préliminaires : quelques propriétés des résidus. Avec e = y Xβ on a • − d’abord: – X Xβ = X y X Xβ X y = 0 = X (Xβ y) = X be = 0 ′ ′ ′ ′ ′ ′ ⇒ − − − d’où, dans le cas d’une régression avec constante : x e = 0 soit encore ′1 eb= 0et donce = 0.b b i i – Onaégalement:y = y+eet x y = x y+x e = x y donc: x y = P ′1 ′1 ′1 ′1 i ′1 i y i i P – CPomme e = y − Xβb= y − X(X′X)−b1X′y = [I −b X(X′X)−1Xb′]y, soit:e = M .M estunematricesymétriqueidempotente(M2 = M = y y y y M M ) b y′ y D’où: • RSS = e2 = ee = (M )(M ) = y M M y = y M y i ′ y ′ y ′ y′ y ′ y i X = y [I X(X X) 1X ]y = y y y X(X X) 1X y ′ ′ − ′ ′ ′ ′ − ′ − − y y y Xβ = y y y y ′ ′ ′ ′ − − Cette dernière expression est égale à TSS ESS : en effet : TSS ESS = b − − (y y)2 (y y)2 = by2 y2 puisque y = y . Or: i i− − i i− i i − i i i i i i P y2 =Py y = (Xβ)(XPβ) = β XPXβ = [(X XP) 1X y]PX Xβ i ′ b ′ ′ ′ b ′ − ′ ′ ′ b i X b = yb′Xb (X′Xb)−1(Xb′X)βb= y′Xbβ = y′y b D’où b b TSS = ESS+RSS b 2 1.3.2 Mesure de la qualité de l’ajustement linéaire Lecoefficient dedétermination: ESS R2 = RSS estcomprisentre0et1.Ilreprésentelapart delavariationtotaleexpliquéeparla régressionlinéaired’où: ESS = R2TSS (RSS = TSS ESS = (1 R2)TSS − − d’oùles deuxcas extrêmes: 10

See more

The list of books you might like