Teori Regresi Linier Berganda

Teori Regresi Linier Berganda | Analisis regresi menyatakan hubungan antara beberapa karakter yang dinyatakan dalam bentuk variabel tak bebas sebagai fungsi dari variabel bebas yang mempengaruhinya. Kebaikan persamaan regresi linier berganda adalah, untuk meramalkan besarnya pengaruh secara kuantitatif dari setiap variabel bebas apabila pengaruh dari variabel lainnya dianggap konstan (Supranto, 1992).

Hubungan antara variabel X (variabel bebas) dengan variabel Y (variabel terikat) merupakan hubungan ketergantungan statistik. Dalam variabel ini, variabel X dianggap sebagai variabel fixed (bukan variabel random) dan variabel Y dianggap sebagai variabel random. Dalam analisis regresi sebenarnya kita mencari nilai koefisien regresi sehingga terjadi perubahan nilai Xi, meningkat dengan 10% misalnya, maka nilai Y akan meningkat sebesar bi x 10%. Kemudian nilai-nilai koefisien regresi itu bersama-sama  harus diuji dengan uji F (f-test) dan secara sendiri sendiri diuji dengan uji t (t-test). Apabila dengan masing-masing uji itu hubungan regresi ditolak, maka ini berarti bahwa hubungan antar variabel yang ditunjukkan oleh nilai-nilai koefisien regresi cukup berarti (significant) (Soeparmoko, 1997).

Untuk meramalkan nilai variabel Y, lebih baik apabila diperhitungkan variabel lain yang mempengaruhi Y, yaitu variabel bebas (variabel X). Dalam memilih variabel bebas yang akan dimasukkan dalam model regresi, harus  didasarkan atas logika atau hubungan teori yang ada antara variabel bebas dengan variabel tak bebas, dan harus signifikan pengaruhnya secara statistik. Apabila pemilihan variabel bebas sudah ditentukan dengan cara sedemikian dan ternyata nilai R2 besar, ini bagus sekali. Akan tetapi kalau nilainya rendah tak berarti bahwa model regresi jelek (Supranto, 1992).

Dalam analisis regresi diperlukan juga untuk melihat berapa persen dari variabel dependen dapat diterangkan oleh variabel independen. Untuk ini digunakan koefisien determinasi R2. Harga R2 dalam jangka 0 sampai dengan 1. Dalam analisa regresi perlu juga diuji estimator terhadap parameter berbeda secara significant dari nol. Untuk itu digunakan uji t (Nazir, 1999).

Suatu fungsi regresi linier berganda yang diperoleh dari hasil perhitungan penaksiran dengan metode kuadrat terkecil biasa (OLS) yang benar, akan dipandang sebagai analisis yang baik jika dipenuhi persyaratan dalam asumsi-asumsinya. Asumsi-asumsi klasik dalam model linier berganda antara lain (Wibowo, 2001);

  • Asumsi 1; Ui adalah sebuah variabel random riil dan mempunyai distribusi normal.
  • Asumsi 2; nilai rerata dari Ui setiap periode tertentu adalah nol.

   E (Ui) = 0                      untuk i = 1,2,….n

  • Asumsi 3; varian dari Ui adalah konstan setiap periode; asumsi ini dikenal dengan asumsi homoskedastisitas.

   E (Ui2) = α2       dimana  α2 adalah konstan

  • Asumsi 4; faktor pengganggu dari pengamatan yang berbeda-beda (Ui, Uj) tidak tergantung (independent); asumsi ini dikenal dengan asumsi nirautokorelasi.

   E (Ui,Uj) = 0     untuk i tidak sama dengan j

  • Asumsi 5; variabel-variabel penjelas atau bebas adalah variabel nirstokastik dan diukur tanpa kesalahan; Ui tidak tergantung pada variabel penjelas (bebas).

   E (XiUj) = XiE(Uj) = 0             untuk seluruh i, j = 1,2,…n

            Asumsi-asumsi yang tidak dapat dipenuhi oleh fungsi regresi yang diperoleh, biasanya dikatakan sebagai penyimpangan atau pelanggaran asumsi. Apabila diperhatikan berdasarkan asumsi yang ada, penyimpangan asumsi dalam regresi linier berganda akan meliputi 4 (empat) masalah pokok, yaitu       (Wibowo, 2001);

  • Heteroskedastisitas

Yaitu suatu penyimpangan yang terjadi apabila variasi dari pengganggu  berbeda pada data pengamatan yang satu terhadap data pengamatan yang lain.

  • Autokorelasi

Yaitu gangguan pada suatu fungsi regresi yang berupa korelasi diantara faktor pengganggu.

  • Multikolinearitas

Yaitu gangguan pada suatu fungsi regresi yang berupa korelasi yang erat diantara variabel bebas yang diikutsertakan pada model regresi.

  • Ketidaknormalan

Penyimpangan asumsi ini biasanya berjalan dengan penyimpangan asumsi yang pertama, yaitu bahwa faktor pengganggu yang bersifat tidak menyebar normal akan cenderung mempunyai sifat heteroskedastik  (tidak homoskedastik).