Effetti di regressione binomiale negativa sulla media e sul parametro di dispersione

0
Vote

La mia variabile dipendente è eccessivamente dispersa. Pertanto, voglio applicare una regressione binomiale negativa generalizzata ai miei dati. Inoltre, voglioesaminare gli effetti degli indicatori sui parametri di media e dispersione, come in questi due articoli:

La mia variabile dipendente è eccessivamente dispersa. Pertanto, voglio applicare una regressione binomiale negativa generalizzata ai miei dati. Inoltre, voglioesaminare gli effetti degli indicatori sul parametro di media e dispersioneesaminare gli effetti degli indicatori sul parametro di media e dispersione, come in questi due articoli:

A pagina 128: Fleming, Lee (2001): incertezza ricombinante nella ricerca tecnologica. In Management Science 47 (1), pp. 117-132. DOI: 10.1287/mnsc.47.1.117.10671.

A pagina 128: Fleming, Lee (2001): incertezza ricombinante nella ricerca tecnologica. In Management Science 47 (1), pp. 117-132. DOI: 10.1287/mnsc.47.1.117.10671.

A pagina 719: Verhoeven, Dennis; Bakker, Jurriën; Veugelers, Reinhilde (2016): Misurare la novità tecnologica con indicatori basati su brevetti. In Research Policy 45 (3), pagg. 707–723. DOI: 10.1016/j.respol.2015.11.010.

A pagina 719: Verhoeven, Dennis; Bakker, Jurriën; Veugelers, Reinhilde (2016): Misurare la novità tecnologica con indicatori basati su brevetti. In Research Policy 45 (3), pagg. 707–723. DOI: 10.1016/j.respol.2015.11.010.

Entrambi gli autori hanno fatto la regressione in STATA, quindi non posso fare affidamento sul loro codice, poiché voglio farlo in Python (o se non è possibile, in SPSS).

Entrambi gli autori hanno fatto la regressione in STATA, quindi non posso fare affidamento sul loro codice, in quanto voglio farlo in Python (o se non è possibile, in SPSS).

Il mio attuale codice Python elabora la regressione e mostra i coefficienti di regressione. Tuttavia, non vedo l'opzione per determinare l'effetto sulla media e sulla dispersione:

Il mio attuale codice Python elabora la regressione e mostra i coefficienti di regressione. Tuttavia, non vedo l'opzione per determinare l'effetto sulla media e sulla dispersione:
expr="""CIT_REC ~ SCIENCE_NOV  
+ APY + PBY + IPC_A + IPC_B + IPC_C + IPC_D + IPC_E + IPC_F + IPC_G + IPC_H + IPC_Y + NUM_CLAIMS + NUM_ID_CLAIMS + NUM_DP_CLAIMS + COMPL_CLAIMS"""

y_train, X_train=dmatrices(expr, df_train, return_type='dataframe')

X_train=sm.add_constant(X_train)

poisson_training_results=sm.GLM(y_train, X_train, family=sm.families.Poisson()).fit()
#print(poisson_training_results.summary())

import statsmodels.formula.api as smf
df_train['BB_LAMBDA']=poisson_training_results.mu

df_train['AUX_OLS_DEP']=df_train.apply(lambda x: ((x['CIT_REC'] -x['BB_LAMBDA'])**2 -x['CIT_REC'])/x['BB_LAMBDA'], axis=1)

ols_expr="""AUX_OLS_DEP ~ BB_LAMBDA -1"""
aux_olsr_results=smf.ols(ols_expr, df_train).fit()
print(aux_olsr_results.params)

nb2_training_results=sm.GLM(y_train, X_train,family=sm.families.NegativeBinomial(alpha=aux_olsr_results.params[0])).fit()
print(nb2_training_results.summary())
expr="""CIT_REC ~ SCIENCE_NOV + APY + PBY + IPC_A + IPC_B + IPC_C + IPC_D + IPC_E + IPC_F + IPC_G + IPC_H + IPC_Y + NUM_CLAIMS + NUM_ID_CLAIMS + NUM_DP_CLAIMS + COMPL_CLAIMS""" y_train, X_train=dmatrices(expr, df_train, return_type='dataframe') X_train=sm.add_constant(X_train) poisson_training_results=sm.GLM(y_train, X_train, family=sm.families.Poisson()).fit() #print(poisson_training_results.summary()) import statsmodels.formula.api as smf df_train['BB_LAMBDA']=poisson_training_results.mu df_train['AUX_OLS_DEP']=df_train.apply(lambda x: ((x['CIT_REC'] -x['BB_LAMBDA'])**2 -x['CIT_REC'])/x['BB_LAMBDA'], axis=1) ols_expr="""AUX_OLS_DEP ~ BB_LAMBDA -1""" aux_olsr_results=smf.ols(ols_expr, df_train).fit() print(aux_olsr_results.params) nb2_training_results=sm.GLM(y_train, X_train,family=sm.families.NegativeBinomial(alpha=aux_olsr_results.params[0])).fit() print(nb2_training_results.summary()) expr="""CIT_REC ~ SCIENCE_NOV + APY + PBY + IPC_A + IPC_B + IPC_C + IPC_D + IPC_E + IPC_F + IPC_G + IPC_H + IPC_Y + NUM_CLAIMS + NUM_ID_CLAIMS + NUM_DP_CLAIMS + COMPL_CLAIMS""" y_train, X_train=dmatrices (expr, df_train, return_type='dataframe') X_train=sm.add_constant (X_train) poisson_training_results=sm.GLM (y_train, X_train, family=sm.families.Poisson ()). fit () #print (poisson_training_results.summary ()) importa statsmodels.formula.api come smf df_train["BB_LAMBDA"]=poisson_training_results.mu df_train['AUX_OLS_DEP']=df_train.apply (lambda x: ((x['CIT_REC'] -x['BB_LAMBDA']) ** 2 -x['CIT_REC'])/x['BB_LAMBDA'], asse=1) ols_expr="""AUX_OLS_DEP ~ BB_LAMBDA -1""" aux_olsr_results=smf.ols (ols_expr, df_train) .fit () print (aux_olsr_results.params) nb2_training_results=sm.GLM (y_train, X_train, family=sm.families.NegativeBinomial (alpha=aux_olsr_results.params[0])). fit () print (nb2_training_results.summary ())

Questa è l'uscita corrente.

Questa è l'uscita corrente.
                 Generalized Linear Model Regression Results                  
==============================================================================
Dep. Variable:                CIT_REC   No. Observations:               120332
Model:                            GLM   Df Residuals:                   120316
Model Family:        NegativeBinomial   Df Model:                           15
Link Function:                    log   Scale:                          1.0000
Method:                          IRLS   Log-Likelihood:            -3.7912e+05
Date:                Thu, 08 Oct 2020   Deviance:                       74180.
Time:                        10:45:42   Pearson chi2:                 2.05e+05
No. Iterations:                    14                                         
Covariance Type:            nonrobust                                         
=================================================================================
                    coef    std err          z      P>|z|      [0.025      0.975]
---------------------------------------------------------------------------------
Intercept       228.8814      3.172     72.148      0.000     222.664     235.099
SCIENCE_NOV       3.3563      0.532      6.309      0.000       2.314       4.399
APY               0.0129      0.008      1.663      0.096      -0.002       0.028
PBY              -0.1385      0.008    -17.227      0.000      -0.154      -0.123
IPC_A            26.0610      0.353     73.732      0.000      25.368      26.754
IPC_B            25.3848      0.352     72.015      0.000      24.694      26.076
IPC_C            24.7705      0.356     69.669      0.000      24.074      25.467
IPC_D            24.6420      0.382     64.585      0.000      23.894      25.390
IPC_E            25.0614      0.357     70.161      0.000      24.361      25.762
IPC_F            25.3837      0.358     70.980      0.000      24.683      26.085
IPC_G            25.6531      0.352     72.802      0.000      24.962      26.344
IPC_H            25.7289      0.354     72.631      0.000      25.035      26.423
IPC_Y            26.1960      0.367     71.351      0.000      25.476      26.916
NUM_CLAIMS       -0.5566      0.178     -3.123      0.002      -0.906      -0.207
NUM_ID_CLAIMS     0.5767      0.178      3.235      0.001       0.227       0.926
NUM_DP_CLAIMS     0.5758      0.178      3.230      0.001       0.226       0.925
COMPL_CLAIMS     -0.0002   2.56e-05     -7.709      0.000      -0.000      -0.000
=================================================================================
Generalized Linear Model Regression Results ============================================================================== Dep. Variable: CIT_REC No. Observations: 120332 Model: GLM Df Residuals: 120316 Model Family: NegativeBinomial Df Model: 15 Link Function: log Scale: 1.0000 Method: IRLS Log-Likelihood: -3.7912e+05 Date: Thu, 08 Oct 2020 Deviance: 74180. Time: 10:45:42 Pearson chi2: 2.05e+05 No. Iterations: 14 Covariance Type: nonrobust ================================================================================= coef std err z P>|z| [0.025 0.975] --------------------------------------------------------------------------------- Intercept 228.8814 3.172 72.148 0.000 222.664 235.099 SCIENCE_NOV 3.3563 0.532 6.309 0.000 2.314 4.399 APY 0.0129 0.008 1.663 0.096 -0.002 0.028 PBY -0.1385 0.008 -17.227 0.000 -0.154 -0.123 IPC_A 26.0610 0.353 73.732 0.000 25.368 26.754 IPC_B 25.3848 0.352 72.015 0.000 24.694 26.076 IPC_C 24.7705 0.356 69.669 0.000 24.074 25.467 IPC_D 24.6420 0.382 64.585 0.000 23.894 25.390 IPC_E 25.0614 0.357 70.161 0.000 24.361 25.762 IPC_F 25.3837 0.358 70.980 0.000 24.683 26.085 IPC_G 25.6531 0.352 72.802 0.000 24.962 26.344 IPC_H 25.7289 0.354 72.631 0.000 25.035 26.423 IPC_Y 26.1960 0.367 71.351 0.000 25.476 26.916 NUM_CLAIMS -0.5566 0.178 -3.123 0.002 -0.906 -0.207 NUM_ID_CLAIMS 0.5767 0.178 3.235 0.001 0.227 0.926 NUM_DP_CLAIMS 0.5758 0.178 3.230 0.001 0.226 0.925 COMPL_CLAIMS -0.0002 2.56e-05 -7.709 0.000 -0.000 -0.000 ================================================================================= Risultati della regressione del modello lineare generalizzato ============================================================================== Dep. Variabile: CIT_REC No. Osservazioni: 120332 Modello: GLM Df Residuals: 120316 Famiglia di modelli: NegativeBinomial Df Model: 15 Funzione di collegamento: scala logaritmica: 1.0000 Metodo: probabilità logaritmica IRLS: -3,7912e + 05 Data: gio, 8 ottobre 2020 Devianza: 74180. Ora: 10:45:42 Pearson chi2: 2.05e + 05 No. Iterazioni: 14 Tipo di covarianza: non robusto ================================================================================= coef std err z P>| z|[0,025 0,975] --------------------------------------------------------------------------------- Intercetta 228.8814 3.172 72.148 0.000 222.664 235.099 SCIENCE_NOV 3.3563 0.532 6.309 0.000 2.314 4.399 APY 0,0129 0,008 1,663 0,096 -0,002 0,028 PBY -0.1385 0.008 -17.227 0.000 -0.154 -0.123 IPC_A 26.0610 0.353 73.732 0.000 25.368 26.754 IPC_B 25.3848 0.352 72.015 0.000 24.694 26.076 IPC_C 24.7705 0.356 69.669 0.000 24.074 25.467 IPC_D 24.6420 0.382 64.585 0.000 23.894 25.390 IPC_E 25.0614 0.357 70.161 0.000 24.361 25.762IPC_F 25.3837 0.358 70.980 0.000 24.683 26.085 IPC_G 25.6531 0.352 72.802 0.000 24.962 26.344 IPC_H 25.7289 0.354 72.631 0.000 25.035 26.423 IPC_Y 26.1960 0.367 71.351 0.000 25.476 26.916 NUM_CLAIMS -0.5566 0.178 -3.123 0.002 -0.906 -0.207 NUM_ID_CLAIMS 0,5767 0,178 3,235 0,001 0,227 0,926 NUM_DP_CLAIMS 0,5758 0,178 3,230 0,001 0,226 0,925 COMPL_CLAIMS -0.0002 2.56e-05 -7.709 0.000 -0.000 -0.000 =================================================================================

Modifica:ho chiesto agli autori di ricevere il seguente messaggio. Abbiamo utilizzato il comando"nbreg"e specificato"lnalpha (vars)"come opzione per modellare la dispersione. Esiste una funzione simile in Python o SPSS?

Modifica:Modifica: ho chiesto agli autori di ricevere il seguente messaggio. Abbiamo utilizzato il comando"nbreg"e specificato"lnalpha (vars)"come opzione per modellare la dispersione. Esiste una funzione simile in Python o SPSS?

Source

glm python statsmodels regression

-StupidWolf

1 -StupidWolf

-Nils_Denter

Waiting for the answer

Potreste essere interessati

© 2021   Risposta.org