多元線性逐步回歸分析,得出的進入方程的兩個變數是有相關性的,怎麼辦

時間 2021-05-06 04:43:44

1樓:匿名使用者

有相關性沒關係的

你關心的是相關性的大小,以及多重共線性

如果多元線性回歸方程中,變數之間具有相關性怎麼辦

2樓:匿名使用者

對變數進行剝離:

1、a是因變數,b,c,d是解釋變數。

2、b與c,d也有相關關係,可再做一次線性回歸求得b=α+β*c+γ*d,然後把b換為α+殘差,c,d的係數併入原方程中。

線性回歸方程利用數理統計中的回歸分析,來確定兩種或兩種以上變數間相互依賴的定量關係的一種統計分析方法之一。

線性回歸在回歸分析中第一種經過嚴格研究並在實際應用中廣泛使用的型別。按自變數個數可分為一元線性回歸分析方程和多元線性回歸分析方程。

3樓:寒英懷冰

我老師說可以對變數進行剝離,比如a是因變數,b,c,d,是解釋變數,若b與c,d也有相關關係,可再做一次線性回歸求得b=α+β*c+γ*d,然後把b換為α+殘差,c,d的係數併入原方程中。

spss多元線性逐步回歸分析結果顯示變數進入方程並且p<0.05 但是怎麼又出來乙個排除變數的exclude variable

4樓:

這是正常現象。在spss多元線性逐步回歸中,早先已經進入方程的變數可以又被踢出來。多元線性逐步回歸要求能留在方程中的變數必須要同時符合2個條件:

一是對模型必需要有足夠的影響力,二是對不能方程中的其他變數產生明顯的影響(也就是造成共線性)。因此,雖然乙個變數已經進入了方程,但隨後進入的方程其他變數與它形成了共線性的話,那麼原先已經入選的變數可以被剔除,尤其是在原先入選的變數沒有後面入選的變數影響力大,或者是原先入選的變數對模型中其他變數的影響力比後面入選的變數大的情況下更是如此。

spss元線性逐步回歸可以詳細列出每一步的入選或排除變數,你只有檢查一下就可以知道到底是哪乙個變數入選後就把你關注的變數剔除出來。

一般來說,被剔除出來的變數對模型的**不會造成明顯影響,如果被剔除出來的變數與後面的變數具有高度共線性的話,那麼基本就不會造成什麼影響;如果被剔除出來的變數與後面的變數具有中度共線性的話,那麼多多少少會有一些影響,並且還會造成後面變數的剔除偏倚(後面變數的影響被高估)。

多元回歸分析中,多個自變數相關性高,對結果有什麼影響

5樓:危以彤

結果裡,r值就是回歸的決定係數,代表各變數能解釋因變數的程度。anova裡,sig小於0.05證明回歸方程有效。

constant對應的b值是截距(常數項),其他變數對應b值就是變數的影響係數。變數對應的beta值就是他們的標準化影響係數,數值最高的就是影響力度最大的因素。你想知道的自變數與因變數的關係是b值,b值越高,該自變數對因變數越大

在spss逐步回歸中,最優方程中出現了乙個與因變數相關性很低的自變數,這是什麼原因? 10

6樓:呂秀才

這個原因可能是資料本身的原因,這個需要換資料再分析驗證

另外的原因可能的確是這個自變數對因變數的相關性就很低,此時的原因分析 需要你結合你的專業來分析**,也就是**的本質所在,而不是在這裡問原因

7樓:

資料本身原因,或者建模的模型設計問題,都有可能

spss相關性分析時兩變數負相關,回歸分析卻是正相關,這樣如何解釋

8樓:59分粑粑

pearson相關分析在spss中的作用是簡單地考慮變數之間的關係。 儘管可以在分析過程中同時放置多個變數,但是結果是兩個變數之間的簡單關聯,也就是不在求兩變數相關時考慮其他的控制變數。

但是,回歸是不同的。 回歸的結果是對進入回歸方程的所有自變數和因變數進行積分的結果,也就是說,在回歸當中你所看到的相關,是在控制了其他進入回歸方程的變數之後的。

因此,普通相關和回歸之間的回歸係數會有很大差異。

9樓:中子

spss裡的pearson相關分析的作用就是單純考量變數兩兩之間的關係,雖然你可以在分析時一次放入多個變數,但出來的結果都是兩個變數的簡單的相關,也就是不在求兩變數相關時考慮其他的控制變數。

然而回歸不同,回歸的結果是綜合所有進入回歸方程的自變數對因變數的結果而成的,也就是說,在回歸當中你所看到的相關,是在控制了其他進入回歸方程的變數之後的。

因此,普通相關與回歸之中的回歸係數會有比較大的差別。舉個例子,比如你考查變數a,b,c之間的關係,如果你使用一般的相關,那麼其結果呈現的是a和b的簡單相關,b和c的簡單相關,a和c的簡單相關,每乙個相關都只涉及到兩個變數,而與第三個變數無關,但如果是回歸,回歸裡a和b的相關是在減去c變數的效應之後的,b和c的相關是在減去a的效應後的,a和c的相關是減去b的效應後的。

計算方法不同,得出的結果就不同。所以相關性分析時兩變數負相關,回歸分析卻是正相關這很正常。出現任何形式的不同都不奇怪

10樓:章魚公考

在這個圖表中,你說的r值就是皮爾遜相關係數~(pearson correlation)

r>0 代表兩變數正相關,r<0代表兩變數負相關。

|r|大於等於0.8時,可以認為兩變數間高度相關;

|r|大於等於0.5小於0.8時,可以認為兩變數中度相關;

|r|大於等於0.3小於0.5時,可以認為兩變數低度相關。

小於0.3說明相關程度弱,基本不相關。

上面說了啊~**裡的pearson correlation,就是r值**裡黃色加重的幾個r值,是呈現顯著相關的。

簡單來說,

正相關是乙個變數變大,另乙個變數也變大

負相關就是乙個變數變大,另乙個變數變小

11樓:天行者

這可能是由於存在多重共線性的問題

12樓:匿名使用者

把圖貼上看一下,我不太相信你說的結果,同樣的演算法不可能出現不同的結果,你可能不太會看結果

spss做的多元回歸分析中,相關係數的大小能不能說明兩個變數對因變數的影響程度的大小之分

13樓:匿名使用者

多元回歸分bai析中,首du先要看x對y有沒有呈現zhi出顯著性影響,dao如果說自變數回x已經對因變數y產生顯著影響(p< 0.05),還想

答對比影響大小,可使用標準化係數( beta)值的大小對比影響大小,beta值大於0時正向影響,該值越大說明影響越大。beta值小於0時負向影響,該值越**明影響越大。

多元回歸分析可以用網頁版spssau中的線性回歸分析即可,同時輸出的智慧型文字分析可自動解讀分析結果。

14樓:劉得意統計服務

多元回歸中,自變數對因變數有沒有影響,影響大小,主要看顯著性檢驗,內即p值。

p值小於0.05,則通過了檢驗容,認為該因素對因變數有顯著影響。

對於通過了影響的自變數,如果要比較哪個影響大,哪個影響小,除了看符號的正負外,還可以看標準後的回歸係數。

spss中做回歸分析時出現這個問題「沒有變數進入方程.」 怎樣解決

15樓:匿名使用者

說明你的自變數裡沒有哪個變數與因變數有關係

解決辦法:1、重新做

2、先做乙個相關矩陣或畫乙個散點圖,看看你的變數之間到底是什麼關係

多元線性回歸的結果有效麼,SPSS多元線性回歸結果怎麼判斷是有效的

劉得意統計服務 有效。從f值看,非常顯著。從r方看,略小,但是對於截面資料來說,0.3左右就已經不錯了。spss多元線性回歸結果怎麼判斷是有效的 ppv課 不是,判斷有效性是看p值。就是你的只有三行的那個表,依次寫著回歸,殘差什麼的。你看那個回歸裡邊的p值。小於0.05就是模型有效 多元線性回歸分析...

急!!高分跪求matlab高手!!解多元線性迴歸模型

y1 46.78 43.42 37.64 y2 36.05 37.43 31.63 y3 10.73 5.99 6.01 x1 6.08 4.77 0.12 x2 71.32 61.85 71.14 x3 25.88 23.39 19.46 x4 0.85 11.18 12.02 x5 19.69 ...

matlab求解多元非線性方程組

建立 myfun.m 檔案 function f myfun x,a e a 1 i a 2 r0 a 3 r1 a 4 t a 5 a a 6 v a 7 rho a 8 f t rho a v 2 sin x 3 x 1 t cos x 3 rho a v 2 rho a v 2 cos x 3...