Vraag:
Wat is het verschil tussen "waarschijnlijkheid" en "waarschijnlijkheid"?
Douglas S. Stones
2010-09-14 08:24:01 UTC
view on stackexchange narkive permalink

Op de Wikipedia-pagina wordt beweerd dat waarschijnlijkheid en waarschijnlijkheid verschillende concepten zijn.

In niet-technisch taalgebruik is 'waarschijnlijkheid' meestal een synoniem voor 'waarschijnlijkheid', maar in statistisch gebruik is er een duidelijk onderscheid in perspectief: het aantal dat de waarschijnlijkheid is van sommige waargenomen uitkomsten gegeven een reeks parameterwaarden, wordt beschouwd als de waarschijnlijkheid van de reeks parameterwaarden gegeven de waargenomen uitkomsten.

Kan iemand een meer nuchtere beschrijving geven van wat dit betekent? Bovendien zouden enkele voorbeelden van hoe "waarschijnlijkheid" en "waarschijnlijkheid" het oneens zijn, mooi zijn.

Grote vraag. Ik zou daar ook "kansen" en "kans" aan toevoegen :)
Ik denk dat je deze vraag eens moet bekijken http://stats.stackexchange.com/questions/665/whats-the-difference-between-probability-and-statistics/675#675 omdat waarschijnlijkheid bedoeld is voor statistische doeleinden en waarschijnlijkheid voor waarschijnlijkheid.
Wauw, dit zijn enkele echt goede antwoorden. Dus heel erg bedankt daarvoor! Binnenkort zal ik er een uitkiezen die ik bijzonder leuk vind als het "geaccepteerde" antwoord (hoewel er verschillende zijn waarvan ik denk dat ze even verdiend zijn).
Merk ook op dat de "waarschijnlijkheidsratio" in feite een "waarschijnlijkheidsratio" is, aangezien deze een functie is van de waarnemingen.
Elf antwoorden:
#1
+381
user28
2010-09-14 11:08:03 UTC
view on stackexchange narkive permalink

Het antwoord hangt ervan af of u te maken heeft met discrete of continue willekeurige variabelen. Dus ik zal mijn antwoord dienovereenkomstig splitsen. Ik ga ervan uit dat je technische details wilt en niet per se een uitleg in gewoon Engels.

Discrete willekeurige variabelen

Stel dat je een stochastisch proces hebt dat neemt discrete waarden (bijv. resultaten van 10 keer opgooien van een munt, aantal klanten dat binnen 10 minuten in een winkel arriveert, enz.). In dergelijke gevallen kunnen we de waarschijnlijkheid berekenen van het observeren van een bepaalde reeks uitkomsten door geschikte aannames te doen over het onderliggende stochastische proces (de kans op landingskoppen van munten is bijvoorbeeld $ p $ span > en dat het opgooien van munten onafhankelijk is).

Geef de waargenomen resultaten aan door $ O $ en de set parameters die het stochastische proces beschrijven als $ \ theta $ . Als we het dus over waarschijnlijkheid hebben, willen we $ P (O | \ theta) $ berekenen. Met andere woorden, gegeven specifieke waarden voor $ \ theta $ , $ P (O | \ theta) $ is de kans dat we de resultaten zouden observeren die worden weergegeven door $ O $ .

Wanneer we echter een echt stochastisch proces modelleren, weten we vaak $ \ theta $ niet. We observeren eenvoudig $ O $ en het doel is dan om tot een schatting te komen voor $ \ theta $ dat zou een plausibele keuze zijn gezien de waargenomen resultaten $ O $ . We weten dat gegeven een waarde van $ \ theta $ de kans om $ O $ te observeren $ P (O | \ theta) $ . Een 'natuurlijk' schattingsproces is dus om die waarde van $ \ theta $ te kiezen die de kans maximaliseert dat we $ O $ . Met andere woorden, we vinden de parameterwaarden $ \ theta $ die de volgende functie maximaliseren:

$ L (\ theta | O) = P (O | \ theta) $

$ L (\ theta | O) $ span > heet de waarschijnlijkheidsfunctie. Merk op dat de waarschijnlijkheidsfunctie per definitie afhankelijk is van de waargenomen $ O $ en dat het een functie is van de onbekende parameters $ \ theta $ .

Continue willekeurige variabelen

In het continue geval is de situatie vergelijkbaar met één belangrijk verschil. We kunnen niet langer praten over de waarschijnlijkheid die we hebben waargenomen $ O $ gegeven $ \ theta $ omdat in de doorlopend hoofdlettergebruik $ P (O | \ theta) = 0 $ . Zonder in technische details in te gaan, is het basisidee als volgt:

Geef de kansdichtheidsfunctie (pdf) aan die is gekoppeld aan de resultaten $ O $ als: $ f (O | \ theta) $ . Dus in het continue geval schatten we $ \ theta $ gegeven waargenomen resultaten $ O $ door het volgende te maximaliseren functie:

$ L (\ theta | O) = f (O | \ theta) $

In deze situatie , kunnen we technisch niet beweren dat we de parameterwaarde vinden die de kans maximaliseert dat we $ O $ waarnemen terwijl we de PDF maximaliseren die is gekoppeld aan de waargenomen resultaten $ O $ .

Het onderscheid tussen discrete en continue variabelen verdwijnt vanuit het oogpunt van de maattheorie.
@whuber ja, maar een antwoord met maattheorie is niet voor iedereen zo toegankelijk.
@Srikant: Overeengekomen. De opmerking was in het belang van het OP, die een wiskundige is (maar misschien geen statisticus) om te voorkomen dat hij wordt misleid door te denken dat er iets fundamenteels aan het onderscheid is.
Je kunt een continue dichtheid op dezelfde manier interpreteren als het discrete geval als $ O $ is vervangen door $ dO $, in die zin dat als we $ Pr vragen (O \ in (O ', O' + dO ') | \ theta ) $ (dwz waarschijnlijkheid dat de gegevens $ O $ zich bevinden in een oneindig gebied van ongeveer $ O '$) en het antwoord is $ f (O' | \ theta) dO '$ (de $ dO' $ maakt dit duidelijk dat we berekenen de oppervlakte van een oneindig dunne "bak" van een histogram).
Ik ben meer dan 5 jaar te laat bij het feest, maar ik denk dat een zeer cruciale follow-up van dit antwoord zou zijn: http://stats.stackexchange.com/questions/31238/what-is-the-reason-that-a-waarschijnlijkheid-functie-is-geen-pdf, wat benadrukt dat waarschijnlijkheidsfunctie $ L (\ theta) $ geen pdf is met betrekking tot $ \ theta $.$ L (\ theta $) is inderdaad een pdf met gegevens gezien de parameterwaarde, maar aangezien $ L $ een functie is van alleen $ \ theta $ (met gegevens als constante), is het niet relevant dat $ L (\ theta) $ is een pdf met gegevens gegeven $ \ theta $.
@whuber Zeer interessante opmerking over maattheorie.Ik ben er zeker van dat ik niet de enige ben die 1) geen achtergrond heeft op dit gebied en 2) nieuwsgierig ben naar hoe uw verklaring moet worden begrepen.Zijn er enkele nuttige teksten die u kunt aanbevelen?
@DJohnson De zachtste en meest intuïtieve, maar rigoureuze introductie die ik heb gezien, is die in Steven Shreve's * Stochastic Calculus for Finance, * Volume II.Wat je nodig hebt, staat in de eerste twaalf pagina's.Als dat wiskundig te zwaar lijkt, bestudeer dan deel I. Als je interesse hebt in toepassingen die waarschijnlijk te financieren zijn, dan is deel I je tijd zeker waard - en het is wonderbaarlijk kort.
Je schreef $ L (\ theta | O) = P (O | \ theta) $ betekent dat $ P (O | \ theta) $ niet integreert met 1 omdat het geen waarschijnlijkheid is?Waarom gebruiken we dan $ P $ hier, we zouden het op $ L $ moeten houden, anders is het verwarrend.
OP: * Kan iemand een meer nuchtere beschrijving geven *.Dit antwoord: * hier op Cloud 11 kun je zien .. *
#2
+158
whuber
2010-09-14 20:45:09 UTC
view on stackexchange narkive permalink

Dit is het soort vraag dat zowat iedereen zal beantwoorden en ik zou verwachten dat alle antwoorden goed zijn. Maar je bent een wiskundige, Douglas, dus laat me een wiskundig antwoord geven.

Een statistisch model moet twee verschillende conceptuele entiteiten met elkaar verbinden: data , dit zijn elementen $ x $ van een set (zoals een vectorruimte), en een mogelijk kwantitatief model van het datagedrag. Modellen worden meestal weergegeven door punten $ \ theta $ op een eindig-dimensionaal spruitstuk, een spruitstuk met grens of een functieruimte (de laatste wordt een 'niet-parametrische' probleem).

De gegevens $ x $ zijn verbonden met de mogelijke modellen $ \ theta $ door middel van een functie $ \ Lambda (x, \ theta) $ . Voor elk gegeven $ \ theta $ is $ \ Lambda (x, \ theta) $ bedoeld de kans (of waarschijnlijkheidsdichtheid) van $ x $ . Voor een willekeurige $ x $ daarentegen $ \ Lambda (x, \ theta) $ kan worden gezien als een functie van $ \ theta $ en wordt meestal verondersteld bepaalde leuke eigenschappen te hebben, zoals continu op de tweede plaats te differentiëren. De intentie om $ \ Lambda $ op deze manier te bekijken en deze aannames te doen, wordt aangekondigd door $ \ Lambda $ span> de "waarschijnlijkheid."

Het lijkt veel op het onderscheid tussen variabelen en parameters in een differentiaalvergelijking: soms willen we de oplossing bestuderen (d.w.z. we concentreren ons op de variabelen als argument) en soms willen we bestuderen hoe de oplossing varieert met de parameters. Het belangrijkste onderscheid is dat we in de statistiek zelden de gelijktijdige variatie van beide reeksen argumenten hoeven te bestuderen; er is geen statistisch object dat natuurlijk overeenkomt met het wijzigen van zowel de gegevens $ x $ als de modelparameters $ \ theta $ span>. Daarom hoor je meer over deze tweedeling dan in een analoge wiskundige setting.

+1, wat een gaaf antwoord. Analogie met differentiaalvergelijkingen lijkt zeer geschikt.
Hoewel dit antwoord als econoom niet zo nauw verband houdt met de concepten die ik heb geleerd als het vorige, was het in intuïtieve zin het meest informatieve.Erg bedankt.
Eigenlijk is deze bewering niet echt waar "er is geen statistisch object dat van nature overeenkomt met het wijzigen van zowel de data x als de modelparameters θ.".Er is, het wordt "afvlakken, filteren en voorspellen" genoemd, in lineaire modellen is dit het Kalman-filter, in niet-lineaire modellen hebben ze de volledige niet-lineaire filters, https://en.wikipedia.org/wiki/Kushner_equation enz.
Ja, geweldig antwoord!Hoe zwak dit ook klinkt, door $ \ Lambda \ left (x, \ theta \ right) $ te kiezen in plaats van de standaardnotatie van $ P \ left (x, \ theta \ right) $, werd het gemakkelijker voor mij om te ziendat we beginnen met een gezamenlijke kans die kan worden gedefinieerd als een waarschijnlijkheid of een voorwaardelijke kans.Bovendien hielp de opmerking "bepaalde leuke eigenschappen".Bedankt!
@Mike Graag gedaan.Maar houd er rekening mee dat $ \ Lambda $ gewoonlijk geen "gezamenlijke waarschijnlijkheid" is, behalve in Bayesiaanse modellen.Ik hoop dat mijn account daarover niet verwarrend was.
@whuber Ja, ik weet dat $ \ Lambda $ niet de gebruikelijke notatie is.Dat is precies waarom het hielp!Ik dacht niet meer dat het een bepaalde betekenis moest hebben en volgde in plaats daarvan gewoon de logica.;-p
Wordt $ \ Lambda $ hier beschouwd als een voorwaardelijke kansverdeling (afhankelijk van de parameters $ \ theta $)?
@Iamanon Niet noodzakelijk: het parametriseert een familie van kansverdelingen.Je zou het kunnen zien als een functie (tenminste continu) van een parameterruimte $ \ Theta $ naar een ruimte van kansverdelingen, waarbij $ \ theta \ in \ Theta $ naar de verdeling met dichtheid $ x \ naar \ Lambda (x, \ theta). $ Dit vereist een gemeenschappelijke maat waarbij alle verdelingen daadwerkelijk een dichtheid hebben.
#3
+126
Thylacoleo
2010-09-14 13:45:33 UTC
view on stackexchange narkive permalink

Ik zal proberen de wiskunde in mijn uitleg te minimaliseren, aangezien er al een aantal goede wiskundige verklaringen zijn.

Zoals Robin Girard opmerkt, hangt het verschil tussen waarschijnlijkheid en waarschijnlijkheid nauw samen met het verschil tussen waarschijnlijkheid en statistieken. In zekere zin houden waarschijnlijkheid en statistieken zich bezig met problemen die tegengesteld of omgekeerd aan elkaar zijn.

Overweeg een toss. (Mijn antwoord is vergelijkbaar met Voorbeeld 1 op Wikipedia.) Als we weten dat de munt eerlijk is ( $ p = 0,5 $ ), is een typische Kansvraag is: Wat is de kans om twee koppen op een rij te krijgen. Het antwoord is $ P (HH) = P (H) \ maal P (H) = 0.5 \ times0.5 = 0.25 $ .

Een typische statistische vraag is: is de munt eerlijk? Om dit te beantwoorden, moeten we ons afvragen: in hoeverre ondersteunt onze steekproef onze hypothese dat $ P (H) = P (T) = 0,5 $ ?

Het eerste punt om op te merken is dat de richting van de vraag is omgekeerd. Bij waarschijnlijkheid beginnen we met een veronderstelde parameter ( $ P (head) $ ) en schatten we de waarschijnlijkheid van een gegeven steekproef (twee koppen op een rij). In statistieken beginnen we met de waarneming (twee koppen op een rij) en maken INFERENTIE over onze parameter ( $ p = P (H) = 1- P (T) = 1 - q $ ).

Voorbeeld 1 op Wikipedia laat ons zien dat de maximale waarschijnlijkheidsschatting van $ P (H) $ na 2 koppen op rij $ p_ {MLE} = 1 $ . Maar de gegevens sluiten op geen enkele manier de werkelijke parameterwaarde $ p (H) = 0,5 $ uit (laten we ons op dit moment niet bezighouden met de details). Inderdaad slechts zeer kleine waarden van $ p (H) $ en in het bijzonder $ p (H) = 0 $ kan redelijkerwijs worden geëlimineerd na $ n = 2 $ (twee keer gooien met de munt). Nadat de derde worp staarten omhoog komt, kunnen we nu de mogelijkheid elimineren dat $ P (H) = 1.0 $ (dwz het is geen twee -headed coin), maar de meeste waarden ertussen kunnen redelijk ondersteund worden door de gegevens . (Een exact binominaal betrouwbaarheidsinterval van 95% voor $ p (H) $ is 0,094 tot 0,992.

Na 100 keer opgooien en (laten we zeggen) 70 hoofden, hebben we nu een redelijke basis voor het vermoeden dat de munt in feite niet eerlijk is. Een exact 95% BI op $ p (H) $ is nu 0,600 tot 0,787 en de kans om een ​​resultaat te zien dat zo extreem is als 70 of meer kop (of munt) uit 100 worpen gegeven $ p (H) = 0,5 $ is 0,0000785.

Hoewel ik niet expliciet waarschijnlijkheidsberekeningen heb gebruikt, geeft dit voorbeeld het concept van waarschijnlijkheid weer: Waarschijnlijkheid is een maatstaf voor de mate waarin een steekproef ondersteuning biedt voor bepaalde waarden van een parameter in een parametrisch model .

Goed antwoord!Vooral de drie laatste alinea's zijn erg handig.Hoe zou u dit uitbreiden om het voortdurende geval te beschrijven?
Voor mij het beste antwoord.Ik vind wiskunde helemaal niet erg, maar * voor mij * is wiskunde een * hulpmiddel * dat wordt beheerst door wat ik wil (ik geniet niet van wiskunde omwille van zichzelf, maar voor wat het me helpt te doen).Alleen met dit antwoord ken ik het laatste.
#4
+73
ars
2010-09-14 10:16:18 UTC
view on stackexchange narkive permalink

Ik zal je het perspectief geven vanuit de weergave van de Likelihood Theory die zijn oorsprong vindt bij Fisher - en die de basis vormt voor de statistische definitie in het geciteerde Wikipedia-artikel.

Stel dat je willekeurige variaties $ X $ hebt die voortkomen uit een geparametriseerde distributie $ F (X; \ theta) $, waarbij $ \ theta $ de parameter is die $ F $ kenmerkt. Dan zou de kans op $ X = x $ zijn: $ P (X = x) = F (x; \ theta) $, met bekende $ \ theta $.

Vaker heb je gegevens $ X $ en $ \ theta $ is onbekend. Gegeven het veronderstelde model $ F $, wordt de waarschijnlijkheid gedefinieerd als de waarschijnlijkheid van waargenomen gegevens als functie van $ \ theta $: $ L (\ theta) = P (\ theta; X = x) $. Merk op dat $ X $ bekend is, maar $ \ theta $ onbekend is; in feite is de motivatie voor het definiëren van de waarschijnlijkheid het bepalen van de parameter van de verdeling.

Hoewel het lijkt alsof we de waarschijnlijkheidsfunctie simpelweg hebben herschreven, is een belangrijk gevolg hiervan dat de waarschijnlijkheidsfunctie niet gehoorzamen aan de waarschijnlijkheidswetten (het is bijvoorbeeld niet gebonden aan het [0, 1] interval). De waarschijnlijkheidsfunctie is echter evenredig met de waarschijnlijkheid van de geobserveerde gegevens.

Dit concept van waarschijnlijkheid leidt eigenlijk tot een andere denkrichting, "likelihoodists" (verschillend van frequentist en bayesian) en je kunt googlen om te zoeken naar alle verschillende historische debatten. De hoeksteen is het waarschijnlijkheidsprincipe dat in wezen zegt dat we inferentie rechtstreeks kunnen uitvoeren vanuit de waarschijnlijkheidsfunctie (noch Bayesianen, noch frequentisten aanvaarden dit omdat het geen op waarschijnlijkheid gebaseerde inferentie is). Tegenwoordig is veel van wat op scholen als "frequentist" wordt onderwezen, in feite een amalgaam van frequentistisch en waarschijnlijkheidsdenken.

Voor een dieper inzicht is Edwards ' Likelihood een goed begin en historische referentie. Voor een moderne kijk zou ik de prachtige monografie van Richard Royall, Statistical Evidence: A Likelihood Paradigm, aanbevelen.

Interessant antwoord, ik dacht eigenlijk dat de "waarschijnlijkheidsschool" in feite de "frequentisten die geen voorbeeldschool ontwerpen" waren, terwijl de "ontwerpschool" de rest van de frequentisten was. Ik vind het eigenlijk zelf moeilijk om te zeggen welke "school" ik ben, aangezien ik van elke school een beetje kennis heb. De school "Waarschijnlijkheid als uitgebreide logica" is mijn favoriet (duh), maar ik heb niet genoeg praktische ervaring om het op echte problemen toe te passen om er dogmatisch over te zijn.
+1 voor "de waarschijnlijkheidsfunctie voldoet niet aan de waarschijnlijkheidswetten (het is bijvoorbeeld niet gebonden aan het [0, 1] -interval). De waarschijnlijkheidsfunctie is echter evenredig met de waarschijnlijkheid van de waargenomen gegevens."
"de waarschijnlijkheidsfunctie voldoet niet aan de waarschijnlijkheidswetten" zou wat verdere verduidelijking kunnen gebruiken, vooral omdat het is geschreven als θ: L (θ) = P (θ; X = x), d.w.z. gelijkgesteld aan een waarschijnlijkheid!
Bedankt voor je antwoord.Kunt u alstublieft ingaan op de opmerking die @locster heeft gemaakt?
Voor mij als geen wiskundige leest dit als religieuze wiskunde, met verschillende overtuigingen die resulteren in verschillende waarden voor de kans dat gebeurtenissen plaatsvinden.Kun je het formuleren, zodat het gemakkelijker is om te begrijpen wat de verschillende overtuigingen zijn en waarom ze allemaal logisch zijn, in plaats van dat de ene gewoon onjuist is en de andere school / overtuiging correct is?(aanname dat er * één juiste manier * is om de kansen op gebeurtenissen te berekenen)
#5
+66
Gypsy
2013-04-14 01:49:40 UTC
view on stackexchange narkive permalink

Laat me, gezien alle fijne technische antwoorden hierboven, teruggaan naar de taal: waarschijnlijkheid kwantificeert anticipatie (van uitkomst), waarschijnlijkheid kwantificeert vertrouwen (in model).

Stel dat iemand ons uitdaagt tot een 'winstgevende gokspel '. Dan zullen kansen ons helpen om zaken te berekenen als het verwachte profiel van uw winsten en verliezen (gemiddelde, modus, mediaan, variantie, informatieverhouding, risicovolle waarde, ruïnering van gokkers, enzovoort). Daarentegen zal de waarschijnlijkheid ons helpen om te kwantificeren of we die waarschijnlijkheden überhaupt vertrouwen; of dat we 'een rat ruiken'.


Overigens - aangezien iemand hierboven de religies van de statistiek noemde - denk ik dat de waarschijnlijkheidsratio een integraal onderdeel is van de Bayesiaanse wereld en van de frequentist één: in de Bayesiaanse wereld combineert de Bayes-formule alleen prior met waarschijnlijkheid om posterieur te produceren.

Dit antwoord vat het voor mij samen.Ik moest nadenken over wat het betekende toen ik las dat waarschijnlijkheid geen waarschijnlijkheid is, maar het volgende geval kwam bij me op.Hoe waarschijnlijk is het dat een munt eerlijk is, aangezien we vier koppen op een rij zien?We kunnen hier eigenlijk niets zeggen over waarschijnlijkheid, maar het woord "vertrouwen" lijkt toepasselijk.Vinden we dat we de munt kunnen vertrouwen?
Aanvankelijk was dit misschien het historisch beoogde doel van waarschijnlijkheden, maar tegenwoordig zijn waarschijnlijkheden elke bayesiaanse berekening, en het is bekend dat waarschijnlijkheden overtuigingen en plausibiliteit kunnen samensmelten.Daarom is de Dempster-Shafer-theorie gemaakt om beide interpretaties ondubbelzinnig te maken.
#6
+58
Yaroslav Bulatov
2010-09-14 11:04:27 UTC
view on stackexchange narkive permalink

Stel dat u een munt heeft met een kans $ p $ om hoofden te landen en $ (1-p) $ span> om staarten te landen. Laat $ x = 1 $ koppen aangeven en $ x = 0 $ staarten aangeven. Definieer $ f $ als volgt

$$ f (x, p) = p ^ x ( 1-p) ^ {1-x} $$

$ f (x, 2/3) $ is de kans op x gegeven $ p = 2/3 $ , $ f (1, p) $ is waarschijnlijkheid van $ p $ gegeven $ x = 1 $ . In wezen vertelt waarschijnlijkheid versus waarschijnlijkheid u welke parameter van dichtheid wordt beschouwd als de variabele.

Leuke aanvulling op de theoretische definities die hierboven zijn gebruikt!
Ik zie dat $ C ^ n_kp ^ n (1-p) ^ {k-n} $ de kans geeft om $ n $ heads te hebben in $ k $ -proeven.Je $ p ^ x (1-p) ^ {1-x} $ ziet eruit als $ k $ -de wortel daarvan: $ x = n / k $.Wat betekent het?
@LittleAlien wat is $ C_k ^ n $ in uw vergelijking?
@GENIVI-LEARNER $ C ^ n_k $ is de binominale coëfficiënt (zie https://en.wikipedia.org/wiki/Binomial_coefficient).Hiermee kunt u de kans berekenen dat u verschillende combinaties van kop en munt ziet (bijvoorbeeld: $ HTT $, $ THT $, $ TTH $ voor $ n = 3 $, $ k = 1 $), in plaats van alle koppen of allestaarten met behulp van de eenvoudigere $ f (x, p) = p ^ x (1-p) ^ {nk} $ formule.
#7
+55
John
2010-09-14 08:44:11 UTC
view on stackexchange narkive permalink

Als ik een eerlijke munt (parameterwaarde) heb, dan is de kans dat deze op de kop komt 0,5. Als ik een munt 100 keer omdraai en hij komt 52 keer boven, dan is de kans groot dat hij eerlijk is (de numerieke waarde van de waarschijnlijkheid neemt mogelijk een aantal vormen aan).

Dit en het antwoord van Gypsy zouden bovenaan moeten staan!Intuïtie en helderheid boven droge wiskundige strengheid, om nog maar te zwijgen van iets minachters.
is er een intuïtieve verklaring voor de formule voor het berekenen van de waarschijnlijkheid, zoals we hebben voor de binominale verdelingsformule die de kans berekent?
Dat klinkt alsof het moet worden gepost als zijn eigen vraag
#8
+31
Lenar Hoyt
2015-11-27 19:41:29 UTC
view on stackexchange narkive permalink

$ P (x | \ theta) $ kan vanuit twee gezichtspunten worden gezien:

  • Als een functie van $ x $, behandelt $ \ theta $ als bekend / waargenomen. Als $ \ theta $ geen willekeurige variabele is, wordt $ P (x | \ theta) $ de ( geparametriseerde ) kans van $ x $ genoemd, gegeven de modelparameters $ \ theta $, dat soms ook wordt geschreven als $ P (x; \ theta) $ of $ P _ {\ theta} (x) $. Als $ \ theta $ een willekeurige variabele is, zoals in Bayesiaanse statistieken, dan is $ P ( x | \ theta) $ is een voorwaardelijke kans, gedefinieerd als $ {P (x \ cap \ theta)} / {P (\ theta)} $.
  • Als een functie van $ \ theta $, $ x $ behandelen zoals waargenomen. Bijvoorbeeld, wanneer u een bepaalde toewijzing $ \ hat \ theta $ voor $ \ theta $ probeert te vinden die $ P (x | \ theta) $, dan heet $ P (x | \ hat \ theta) $ de maximale waarschijnlijkheid van $ \ theta $ gegeven de gegevens $ x $, soms geschreven als $ \ mathcal L (\ hoed \ theta | x) $. Dus de term waarschijnlijkheid is slechts een afkorting om te verwijzen naar de waarschijnlijkheid $ P (x | \ theta) $ voor sommige gegevens $ x $ die het resultaat zijn van het toewijzen van verschillende waarden aan $ \ theta $ (bijv. Als men door de zoekruimte $ \ theta $ voor een goede oplossing). Het wordt dus vaak gebruikt als een objectieve functie, maar ook als een prestatiemaatstaf om twee modellen te vergelijken, zoals in Bayesiaanse modelvergelijking.

Vaak is deze uitdrukking nog steeds een functie van beide argumenten, dus het is eerder een kwestie van nadruk.

Voor het tweede geval dacht ik dat mensen meestal P (theta | x) schrijven.
Oorspronkelijk dacht ik intuïtief al dat het beide woorden waren voor hetzelfde met een verschil in perspectief of natuurlijke taalformulering, dus ik heb het gevoel "Wat? Ik had al die tijd gelijk ?!"Maar als dit het geval is, waarom is het dan zo belangrijk om ze te onderscheiden? Omdat Engels niet mijn moedertaal was, groeide ik op met slechts één woord voor schijnbaar beide termen (of heb ik gewoon nooit een probleem gekregen waarbij ik de termen moest onderscheiden?) En wist ik nooit dat er enig verschil was.Pas nu ik twee Engelse termen ken, begin ik te twijfelen aan mijn begrip van deze dingen.
Uw antwoord lijkt erg uitgebreid en is gemakkelijk te begrijpen.Ik vraag me af waarom het zo weinig upvotes kreeg.
Merk op dat P (x | $ \ theta $) alleen een ** voorwaardelijke ** kans is als $ \ theta $ een willekeurige variabele is, als $ \ theta $ een parameter is, dan is het gewoon de waarschijnlijkheid van x geparametriseerd door $ \ theta$.
ik denk dat dit het beste antwoord is
#9
+7
schotti
2019-06-28 03:37:29 UTC
view on stackexchange narkive permalink

ken je de piloot van de tv-serie "num3ers" waarin de FBI de thuisbasis probeert te vinden van een seriemisdadiger die zijn slachtoffers willekeurig lijkt te kiezen?

De wiskundige adviseur van de FBI en de broer van de verantwoordelijke agent lossen het probleem op met een maximale waarschijnlijkheidsbenadering. Ten eerste gaat hij ervan uit dat de misdaden plaatsvinden op locaties een "gugelhupf-vormige" probability $ p (x | \ theta) $ $ x $ als de crimineel op locatie $ \ theta $ woont. (de gugelhupf-aanname is dat de crimineel geen misdaad zal begaan in zijn directe omgeving, noch extreem ver zal reizen om zijn volgende willekeurige slachtoffer te kiezen.) dit model beschrijft de probabilities voor verschillende $ x $ gegeven een vaste $ \ theta $ . met andere woorden, $ p _ {\ theta} (x) = p (x | \ theta) $ is een functie van $ x $ met een vaste parameter $ \ theta $ .

natuurlijk kent de FBI de woonplaats van de crimineel niet, noch wil ze de volgende plaats delict voorspellen. (ze hopen eerst de crimineel te vinden!) het is andersom, de FBI kent de plaats delict al $ x $ en wil de domicilie van de crimineel vinden $ \ theta $ .

dus de briljante broer van de FBI-agent moet proberen de meest likely $ \ theta $ van alle mogelijke waarden te vinden, dwz de $ \ theta $ die $ p (x | \ theta) $ maximaliseert voor de werkelijk waargenomen $ x $ . daarom beschouwt hij nu $ l_x (\ theta) = p (x | \ theta) $ als een functie van $ \ theta $ met een vaste parameter $ x $ . figuurlijk gesproken schuift hij zijn bugel op de kaart totdat deze optimaal "past" bij de bekende plaats delict $ x $ . de FBI klopt dan op de deur in het midden $ \ hat {\ theta} $ van de gugelhupf.

om deze verandering van perspectief te benadrukken, wordt $ l_x (\ theta) $ de likelihood (functie) van $ genoemd \ theta $ , terwijl $ p _ {\ theta} (x) $ de probability (functie) was van $ x $ . beide zijn eigenlijk dezelfde functie $ p (x | \ theta) $ maar gezien vanuit verschillende perspectieven en met $ x $ en $ \ theta $ wisselen van rol als respectievelijk variabele en parameter.

#10
+5
Response777
2017-11-06 15:45:56 UTC
view on stackexchange narkive permalink

Wat mij betreft is het belangrijkste onderscheid dat waarschijnlijkheid geen kans is (van $ \ theta $).

Bij een schattingsprobleem wordt de X gegeven en de waarschijnlijkheid $ P (X | \ theta) $ beschrijft een distributie van X in plaats van $ \ theta $.Dat wil zeggen, $ \ int P (X | \ theta) d \ theta $ heeft geen betekenis, aangezien waarschijnlijkheid geen pdf is van $ \ theta $, hoewel het tot op zekere hoogte $ \ theta $ karakteriseert.

Zoals het antwoord van @Lenar Hoyt aangeeft, als theta een willekeurige variabele is (wat het ook kan zijn), dan is waarschijnlijkheid een waarschijnlijkheid.Het echte antwoord lijkt dus te zijn dat de waarschijnlijkheid een waarschijnlijkheid kan zijn, maar soms niet.
@MikeWise, Ik denk dat theta altijd kan worden gezien als een "willekeurige" variabele, terwijl de kans groot is dat het gewoon niet zo "willekeurig" is ...
#11
+2
Ahmad
2019-11-06 18:00:39 UTC
view on stackexchange narkive permalink

Als we de voorwaardelijke kansinterpretatie terzijde schuiven, kun je het als volgt denken:

  • In kans wil je meestal de kans op een mogelijke gebeurtenis vinden op basis van een model / parameter / kansverdeling, etc.

  • In waarschijnlijkheid heb je een resultaat waargenomen, dus je wilt de meest waarschijnlijke bron / model / parameter / kansverdeling vinden / maken / schatten van waaruitdeze gebeurtenis is opgeworpen.

Dit lijkt mij het punt volledig te missen.Waarschijnlijkheid en waarschijnlijkheid zijn op deze manier niet te onderscheiden.(Mijn bewerkingen zijn alleen taalkundig.)
@NickCox Wat is het probleem?het is gewoon een intuïtie, geen formeel antwoord, anderen gaven de formele antwoorden.
@NickCox Ik heb het een beetje aangepast, controleer het opnieuw.
Sorry, maar formele of informele stijl is niet het probleem.Het onderscheid is niet in termen van verleden en toekomst.Dit voegt alleen maar verwarring toe aan de thread, en ik heb naar beneden gestemd als het fout was.
@NickCox Ik ben geen statisticus, maar is de kans op gebeurtenissen waarvan we het resultaat niet ** vooraf ** niet weten?en waarschijnlijkheid over waarnemingen?En observatie is dat er een gebeurtenis heeft plaatsgevonden!Ik wil zelf niet erg pedant zijn, alleen een intuïtie die in de meeste situaties werkt.
De thread heeft al een aantal uitstekende, veel geprezen antwoorden.Dat is niet een situatie waarin iemand die niet zeker is van zijn expertise, een andere moet of moet toevoegen.Geen enkel belang in de toekomst is aan de orde, aangezien in de praktijk zowel waarschijnlijkheid als waarschijnlijkheid worden berekend op basis van reeds beschikbare gegevens.
@NickCox Ik heb ze gelezen, maar het was de manier waarop ik het intuïtiever vond voor mezelf en ik plaats mijn antwoord voor degenen die de situatie misschien vanuit mijn standpunt bekijken.Ja, we hebben beide gegevens, deze zijn alleen voor het berekenen van de waarschijnlijkheid, ze zijn niet voor het gebruik van pdf.De manier waarop u over waarschijnlijkheid denkt, verschilt van de manier waarop u over waarschijnlijkheid denkt.Dat is mijn punt.Zoals ik al schreef, is waarschijnlijkheid de waarschijnlijkheid van een gebeurtenis.Hoe waarschijnlijk is het dat die gebeurtenis zich voordoet;de mate van onzekerheid over een uitkomst (iets wat we niet deterministisch kunnen voorspellen).
@NickCox maar voor de waarschijnlijkheid maken we ons geen zorgen over een gebeurtenis die zal plaatsvinden en hoe waarschijnlijk het is, de gebeurtenis heeft al plaatsgevonden en heeft ons enige observatie nagelaten om te speculeren over het onderliggende probabilistische proces.
-1 Intuïtieve antwoorden zijn goed - als ze juist zijn.Deze is gewoon misleidend en verkeerd.
@whuber een andere persoon had ook jouw idee, maar ik probeerde hem te overtuigen, maar hij voegde niets toe.Lees alsjeblieft onze discussie en als je iets toe te voegen hebt, hoor je dat graag.Gewoon zeggen dat er iets mis is, maakt het niet verkeerd.Mijn doel is echter niet om een formeel of volledig antwoord te geven.Even een korte hint en de verantwoording aan de gebruiker overlaten.U bent dus ook vrij om het punt te snappen of punctueel te proberen.
@whuber trouwens, ik heb enkele woorden veranderd volgens meer technische woorden voor degenen die misleid kunnen zijn en de relatie niet begrijpen
@whuber Ik heb geprobeerd mijn antwoord te verbeteren, maar het verloor alle intuïtieve punten totaal om weer een smakeloze definitie te zijn, dus ik ga het verwijderen.Ik kan alleen maar zeggen dat je website erg ontmoedigend en primitief is.
Ik ben niet blij dat je een negatieve indruk hebt van onze site, maar het ontmoedigen van verkeerde of irrelevante antwoorden maakt deel uit van hoe de site werkt, helaas voor jou in dit geval.Het verslag van mijn opmerkingen kan staan voor andere lezers als een poging om beknopt uit te leggen hoe uw antwoord niet heeft geholpen.
@NickCox bedankt voor uw begrip!Geen probleem.Ik weet dat jij je werk ook doet met goede bedoelingen.Ik leerde een aantal punten, en ik moest meer tijd besteden aan mijn antwoord, maar mijn focus was gewoon om een nieuw, zelfs niet precies, perspectief te geven in plaats van voor de hand liggende of gebruikelijke interpretaties te herhalen, maar het bleek omslachtig te zijn.In ieder geval bedankt
Je hebt de directionaliteit verkeerd, Ahmad: een verkeerd antwoord rechtvaardigt dat het verkeerd is.Om te begrijpen waarom uw bericht onjuist is - aangezien de antwoorden van @Nick's niet voldoende zijn - hoeft u alleen maar naar een autoriteit te verwijzen voor definities of beschrijvingen van waarschijnlijkheid en waarschijnlijkheid.(Het zal echter moeilijk zijn er een te vinden die uw tijdelijke onderscheid maakt, omdat noch waarschijnlijkheid noch waarschijnlijkheid enig onderscheid maken tussen verleden, heden of toekomst.) Het lezen van de andere antwoorden in deze thread zou een goed begin zijn.
@whuber "antwoord" is een vaag object voor de term fout.Hoe dan ook, op basis van uw logica kan ik gewoon zeggen dat u het bij het verkeerde eind hebt!je snapte het niet en het gaat niet over verleden, toekomst, enz. Als je wilt weten waarom je de discussie tussen mij en Nick Cox kunt lezen.Ik heb dat genoeg uitgelegd!Ik ga echter mijn antwoord verwijderen.
Ik begrijp waarom je je nog steeds erg verdrietig voelt over deze uitwisseling, maar dat is geen excuus om onbeleefd te zijn tegen @whuber.Hij heeft duidelijk mijn opmerkingen gelezen, zoals hij ernaar verwijst, en het is absurd om te suggereren dat hij te dom of onwetend is om uw punt te begrijpen.Zelfs als je antwoord drastisch wordt herzien, roept het meer problemen op dan het oplost.In het begin verwijst de karakterisering dat "in waarschijnlijkheid u gewoonlijk de waarschijnlijkheid van een mogelijke gebeurtenis speculeert" hooguit verwijst naar eerdere waarschijnlijkheid en in het algemeen niet zo nuttig is.Ik stop daar.
@whuber, NickCox, sorry, ik denk dat ik impulsief was in mijn vorige opmerking en ik heb geen enkele hints opgemerkt die je hebt gegeven.Ten eerste was mijn impuls te wijten aan de eerste zin, Ja, "een verkeerd antwoord rechtvaardigt dat het fout is, maar zeggen dat iets fout is, betekent niet dat het fout of juist is".Hoe dan ook, ik houd niet van discussiëren, ik leer liever en ik dacht dat je je redenering niet had aangeboden.Nu zie ik echter dat het woord "temporeel onderscheid" een aanwijzing was.Het is iets dat kan worden besproken.
En mijn onderscheid was meer een vuistregel / hint / (ik ken de zin niet) om ze gemakkelijker te kunnen onderscheiden voor een niet-expert. Ik ben het er echter mee eens dat er een meer precieze terminologie nodig is.Ik kan mijn antwoord later herzien of verwijderen, maar op dit punt moet ik het daar laten.Bedankt.
@Nick controleer mijn nieuwe opmerkingen.
het is jouw keuze, tenzij verdere stemmen voor verwijdering de kwestie beslissen .. Momenteel heb je twee stemmen omlaag (@whuber en ik verklaarden onszelf) en één stem omhoog van iemand die heel anders is
@NickCox, maakt de huidige wijziging van dit antwoord het "enigszins correct"?Naar mijn mening denk ik van wel, omdat de waarschijnlijkheid is om te bepalen wat de reeks hypothesen is van een waargenomen uitkomst en de maximale waarschijnlijkheid wordt ingesteld om een enkele hypothese te bepalen die de uitkomst het beste verklaart.In deze context schreef hij "meest waarschijnlijk" om waarschijnlijkheid te definiëren en niet maximale waarschijnlijkheid, wat volgens mij het "enige" misleidende concept hier is.Rechtsaf?
@GENIVI-LEARNER Ik denk niet dat het nog een nuttig antwoord is.Geen van beide hoeveelheden wordt goed gedefinieerd door de houding die u zogenaamd aanneemt wanneer u het gebruikt.Waarschijnlijkheden kunnen bijvoorbeeld beschrijvend worden geschat zonder enig formeel model in gedachten.
@NickCox, Het ziet er naar uit dat de kans dan iets ingewikkelder is.Je hebt er een goed inzicht in, kijk of je ook kunt bijdragen aan [dit] (https://stats.stackexchange.com/questions/445928/probability-and-likelihood-from-another-angle).Ik heb het opnieuw ontworpen met een concreet scenario.
@NickCox, Ook als u zei: ** kansen kunnen beschrijvend worden geschat zonder een formeel model in gedachten **, zegt u dan dat er voor waarschijnlijkheid altijd een hypothese of een analytisch of numeriek model voorhanden moet zijn?Als dat zo is, dan denk ik dat dit modelgebaseerde aspect van waarschijnlijkheid op unieke wijze kan definiëren hoe waarschijnlijkheid verschilt van waarschijnlijkheid.Rechtsaf?
Mijn standpunt blijft dat er hier verschillende buitengewoon goede antwoorden zijn en ik heb niets te zeggen dat anders is of beter zou kunnen worden geformuleerd.Er is ook empirische waarschijnlijkheid, niet dat ik er genoeg van weet om te posten.


Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 2.0-licentie waaronder het wordt gedistribueerd.
Loading...