Kaj je predhodna verjetnost?
Predhodna verjetnost je pri Bayesovem statističnem sklepanju verjetnost dogodka pred zbiranjem novih podatkov. To je najboljša racionalna ocena verjetnosti izida na podlagi trenutnih znanj pred izvedbo eksperimenta.
Pojasnjena predhodna verjetnost
Predhodna verjetnost dogodka bo revidirana, ko bodo na voljo novi podatki ali informacije, da se ustvari bolj natančno merilo možnega izida. Ta revidirana verjetnost postane zadnja verjetnost in se izračuna po Bayesovem teoremu. V statističnem smislu je zadnja verjetnost verjetnost dogodka A, ki se zgodi, glede na to, da se je zgodil dogodek B.
Na primer, na treh hektarjih zemlje so oznake A, B in C. En hektar ima zaloge nafte pod svojo površino, drugi dve pa ne. Predhodna verjetnost, da bo olje najdeno na hektarju C, je tretjina ali 0, 333. Če pa se na jutru B opravi preizkus vrtanja in rezultati kažejo, da na lokaciji ni olja, potem zadnja verjetnost, da se nafta nahaja na hektarjih A in C, postane 0, 5, saj ima vsak hekter dve možnosti.
Bayejev izrek je zelo pogost in temeljni izrek, ki se uporablja pri pridobivanju podatkov in strojnem učenju.
Сігналы абмеркавання P (A∣B) = P (B) P (A∩B) = P (B) P (A) × P (B∣A), kjer je: P (A) = predhodna verjetnost pojava A (A∣B) = pogojna verjetnost A, glede na to, da se pojavi BP (B∣A) = pogojna verjetnost B, glede na to, da se pojavi A
Če nas zanima verjetnost dogodka, za katerega imamo predhodna opažanja; temu rečemo predhodna verjetnost. Upoštevali bomo ta dogodek A in njegovo verjetnost P (A). Če pride do drugega dogodka, ki vpliva na P (A), ki ga bomo poimenovali dogodek B, potem želimo vedeti, kakšna verjetnost A je dana. V verjetnostnem zapisu je to P (A | B) in je znan kot posteriorna verjetnost ali revidirana verjetnost. To je zato, ker je prišlo po prvotnem dogodku, od tod tudi post zadaj. Tako nam Bayejev izrek edinstveno omogoča, da svoje prejšnja prepričanja posodobimo z novimi informacijami.
