Podczas rozwiązywania studium przypadku badacz napotyka wiele predyktorów, możliwości i interakcji. To sprawia, że wybór modelu jest skomplikowany. Za pomocą różnych kryteriów wyboru modelu mogą rozwiązać te problemy i oszacować precyzję.
AIC i BIC to dwa takie kryteria procesu oceny modelu. Składają się z selektywnych wyznaczników agregacji rozważanych zmiennych. W 2002 roku Burnham i Anderson przeprowadzili badanie dotyczące obu kryteriów.
AIC vs BIC
Różnica między AIC i BIC polega na tym, że ich wybór modelu. Są one określone dla konkretnych zastosowań i mogą dawać wyróżniające wyniki. AIC ma nieskończone i stosunkowo wysokie wymiary.
AIC skutkuje złożonymi cechami, podczas gdy BIC ma bardziej skończone wymiary i spójne atrybuty. Pierwsza jest lepsza dla negatywnych wyników, a druga dla pozytywnych.
Tabela porównawcza między AIC i BIC
Parametry porównania | AIC | BIC |
Pełne formy | Pełna forma AIC to Kryteria Informacyjne Akaike. | Pełna forma BIC to Bayesowskie Kryteria Informacyjne. |
Definicja | Ocena ciągłego i odpowiadającego przedziału między nieokreślonym, dokładnym i uzasadnionym prawdopodobieństwem faktów nazywa się kryteriami informacyjnymi Akaike lub AIC. | W ramach określonej struktury bayesowskiej dokładna ocena celu możliwości podążania za modelem nazywana jest Bayesowskimi Kryteriami Informacyjnymi lub BIC. |
Formuła | Aby obliczyć kryterium informacyjne Akaike, wzór jest następujący: AIC = 2k – 2ln(L^) | Aby obliczyć Bayesowskie kryterium informacyjne, formuła wygląda następująco: BIC = k ln(n) – 2ln(L^) |
Wybór modelu | W przypadku wyników fałszywie ujemnych w modelu wybiera się AIC. | W przypadku wyników fałszywie dodatnich w modelu wybierany jest BIC. |
Wymiar | Wymiar AIC jest nieskończony i stosunkowo wysoki. | Wymiar BIC jest skończony i niższy niż wymiar AIC. |
Okres kary | Terminy kar są tutaj mniejsze. | Terminy kar są tutaj większe. |
Prawdopodobieństwo | Aby wybrać prawdziwy model w AIC, prawdopodobieństwo powinno być mniejsze niż 1. | Aby wybrać prawdziwy model w BIC, prawdopodobieństwo powinno wynosić dokładnie 1. |
Wyniki | Tutaj wyniki są nieprzewidywalne i skomplikowane niż BIC. | Tutaj wyniki są spójne i łatwiejsze niż AIC. |
Założenia | Za pomocą założeń AIC może obliczyć najbardziej optymalny zasięg. | Za pomocą założeń BIC może obliczyć mniej optymalne pokrycie niż AIC. |
Zagrożenia | Ryzyko jest zminimalizowane dzięki AIC, ponieważ n jest znacznie większe niż k2. | BIC maksymalizuje ryzyko, ponieważ n jest skończone. |
Co to jest AIC?
Model został po raz pierwszy ogłoszony przez statystyka „Hirotugu Akaike” w 1971 roku. A pierwszy formalny artykuł został opublikowany przez Akaike w 1974 roku i otrzymał ponad 14 000 cytowań.
Kryteria informacyjne Akaike (AIC) to ocena ciągłego oprócz odpowiedniego przedziału między nieokreślonym, dokładnym i uzasadnionym prawdopodobieństwem faktów. Jest to zintegrowany cel probabilistyczny modelu. Tak więc niższy AIC oznacza, że model jest szacowany jako bardziej zbliżony do dokładności. W przypadku wniosków fałszywie ujemnych jest to przydatne.
Osiągnięcie prawdziwego modelu wymaga prawdopodobieństwa mniejszego niż 1. Wymiar AIC jest nieskończony i stosunkowo wysoki. Dzięki temu zapewnia nieprzewidywalne i skomplikowane rezultaty. Służy najbardziej optymalnemu pokryciu założeń. Jego warunki kar są mniejsze. Wielu badaczy uważa, że przynosi korzyści przy minimalnym ryzyku przy założeniu. Ponieważ tutaj n jest większe niż k2.
Obliczenie AIC odbywa się według następującego wzoru:
Co to jest BIC?
Bayesowskie Kryteria Informacyjne (BIC) to ocena celu możliwości, zgodnie z modelem jest dokładny, w określonej strukturze bayesowskiej. Tak więc niższy BIC oznacza, że model jest uważany za model precyzyjny.
Teoria została opracowana i opublikowana przez Gideona E. Schwarza w 1978 roku. Znana jest również jako Schwarz Information Criterion, w skrócie SIC, SBIC lub SBC. Aby osiągnąć prawdziwy model, wymaga to prawdopodobieństwa dokładnie 1. W przypadku wyników fałszywie dodatnich jest to pomocne.
Warunki kary są znaczne. Jego wymiar jest skończony, co daje spójne i łatwe rezultaty. Naukowcy twierdzą, że jego optymalny zasięg jest mniejszy niż AIC dla założeń. To nawet prowadzi do maksymalnego podejmowania ryzyka. Ponieważ tutaj n jest definiowalne.
Obliczenie BIC odbywa się według następującego wzoru:
„Kryterium mostowe” lub BC zostało opracowane przez Jie Ding, Vahida Tarokha i Yuhong Yanga. Publikacja kryterium miała miejsce 20 czerwca 2017 r. w IEEE Transactions on Information Theory. Jego motywem było wypełnienie fundamentalnej luki między modułami AIC i BIC.
Główne różnice między AIC i BIC
Wniosek
Zarówno AIC, jak i BIC są prawie dokładne w zależności od ich różnych celów i odrębnego zbioru asymptotycznych spekulacji. Obie grupy domniemań zostały odrzucone jako niewykonalne. Dynamika dla każdej rozproszonej alfy rośnie w „n”. Dlatego model AIC ma zazwyczaj perspektywę preferowania podobnie wysokiego modelu, pomimo n. BIC ma zbyt ograniczoną niepewność zbierania ponad modelu znaczącego, jeśli n jest odpowiednie. Chociaż ma ogromne możliwości niż AIC, dla wszystkich przedstawionych n, preferowania poza krótkim modelem.
Rozpoznanie zmienności w ich operacyjnej realizacji jest najczęstsze, jeśli uwzględni się łagodny fakt analizy dwóch skorelowanych modeli. Najbardziej niezawodną metodą zastosowania ich obu jest równoczesny zakres modeli. W przypadku fałszywie negatywnych werdyktów AIC jest bardziej korzystny. I odwrotnie, BIC jest lepszy dla wyników fałszywie dodatnich. Ostatnio utworzono „Kryterium pomostowe”, aby zniwelować istotną blokadę między modułami AIC i BIC. Poprzednia jest używana do decyzji negatywnych, a następna do pozytywnych.
Bibliografia
Ten artykuł został napisany przez: Supriya Kandekar