Vraag:
Praktische gedachten over verklarende versus voorspellende modellen
wahalulu
2010-08-04 01:19:57 UTC
view on stackexchange narkive permalink

In april woonde ik een lezing bij op de groepsseminarserie van de UMD Math Department Statistics genaamd "To Explain or To Predict?". De lezing werd gehouden door Prof. Galit Shmueli die lesgeeft aan de Smith Business School van UMD. Haar lezing was gebaseerd op onderzoek dat ze deed voor een paper met de titel "Predictive vs. Explanatory Modelling in IS Research", en een vervolgwerkdocument met de titel "To Explain or To Predict?" een>.

Dr. Het argument van Shmueli is dat de termen voorspellend en verklarend in een statistische modelleringscontext verward zijn geraakt, en dat er in de statistische literatuur een grondige bespreking van de verschillen ontbreekt. In de paper stelt ze beide tegenover elkaar en vertelt ze over hun praktische implicaties. Ik moedig je aan om de kranten te lezen.

De vragen die ik zou willen stellen aan de beoefenaarsgemeenschap zijn:

  • Hoe definieer je een voorspellende oefening versus een verklarende / beschrijvende oefening? Het zou handig zijn als u over de specifieke toepassing zou kunnen praten.
  • Bent u ooit in de val gelopen om de ene te gebruiken terwijl u de andere wilt gebruiken? Dat heb ik zeker. Hoe weet u welke u moet gebruiken?
Deze vraag wordt voorgesteld om te worden gesloten. Zie: http://meta.stats.stackexchange.com/questions/213/list-of-candidate-questions-to-be-closed Ik zie dat het 2 stemmen heeft. Kunnen de up-stemmers of het OP commentaar geven op waarom ze graag zouden willen dat de vraag open blijft bij de metadraad?
In plaats van te zeggen "dit moet worden gesloten. Iemand zou het moeten verdedigen", kunt u beginnen met uit te leggen waarom u het gesloten wilt hebben. Te vaag? Vraag dan om opheldering. Dit lijkt mij een redelijke vraag. De vragensteller presenteert een paper en vraagt ​​naar het verschil tussen voorspellende en verklarende statistieken. De enige wijziging die ik in de vraag zou aanbrengen, is om de vraag precies te verduidelijken, waardoor het gemakkelijker wordt om te stemmen.
Ik heb al een reden gegeven over de metadraad. Ik denk dat 'metadiscussies' over de vraag deze specifieke pagina onoverzichtelijk zouden maken.
@Srikant @JD Ik zal de vraag versterken. Bedankt voor de feedback. Ik denk dat dit een onderwerp is dat discussie verdient.
Uw vraag zou goed zijn voor de gemeenschap als u, in plaats van ons uw leven te vertellen, zou kunnen definiëren wat (volgens u) voorspellend model en verklarend model is. Ik denk dat mooie debatten beginnen met duidelijke definities ...
Kunt u hier een vraag stellen? Is de vraag of het papier klopt?
@srikant u lijkt de aard van de opmerkingen onder de vragen niet te begrijpen. Ze zijn per definitie meta. Het zijn geen antwoorden. Het zijn geen vragen. Ze zijn meta. Het hebben van een conventie waar opmerkingen een verwijzing worden naar meta-gesprekken op een andere locatie, is verkwistend en dwaas.
@JD Misschien. Maar om enige controle te krijgen over het proces van het sluiten van vragen, is er een metadraad gewijd aan dit probleem. Als ik het feit niet vermeld dat deze vraag wordt voorgesteld om te worden gesloten, krijgt de gemeenschap geen kans om te zeggen of ze open moet blijven of niet. Een ander probleem is: denk aan iemand die in de verre toekomst over deze vraag struikelt. Al deze discussie over of en waarom we de vraag open moeten houden, is een beetje irrelevant. Ik vind dat opmerkingen moeten worden gebruikt om de vraag te verduidelijken en niet om de verdiensten ervan te bespreken.
@srikant. Dat is duidelijk gesteld en duidelijk. Deze discussie hoort waarschijnlijk thuis in het Meta-gebied, omdat het niet specifiek is voor de bovenstaande vraag. :) ja, oké, dat was een beetje een idiote opmerking ... ik kon het niet weerstaan! Je maakt een goed punt. Ik denk dat we het erover eens kunnen zijn dat @wahalulu zijn vraag moest verduidelijken. Ik denk dat hij de goede kant op gaat.
Zeer productieve vraag, aangezien we deze behandelen als een vraag zonder correct antwoord.
@rolando2 Hoewel delen hiervan een reeks antwoorden uitnodigen, vraagt ​​de kern van de vraag om een ​​onderscheid tussen een "voorspellende" en een "verklarende / beschrijvende" oefening. Dat heeft potentieel een objectief correct antwoord. CW lijkt niet de juiste keuze voor deze vraag.
Deze vraag is sterk gerelateerd aan de kwestie van significantietests na modelselectie op basis van generalisatiefouten. Zie: http: //stats.stackexchange.com/q/17825/6961
mogelijk duplicaat van [Praktische gedachten over verklarende versus voorspellende modellering] (http://stats.stackexchange.com/questions/18896/practical-thoughts-on-explanatory-vs-predictive-modelling)
Het lijkt mij dat hier en hieronder uitleg en beschrijving ten onrechte als synoniemen worden gebruikt.Lees hieronder mijn opmerkingen over het antwoord van Prof Shmueli.
Zestien antwoorden:
#1
+40
probabilityislogic
2011-11-26 15:15:58 UTC
view on stackexchange narkive permalink

In één zin

Bij voorspellende modellen gaat het allemaal om "wat is er waarschijnlijk?", terwijl bij verklarende modellen alles draait om "wat kunnen we eraan doen?"

In veel zinnen

Ik denk dat het belangrijkste verschil is wat er met de analyse moet gebeuren. Ik zou willen voorstellen dat uitleg veel belangrijker is voor interventie dan voorspelling. Als je iets wilt doen om een ​​uitkomst te veranderen, kun je het beste proberen uit te leggen waarom het zo is. Verklarende modellen, indien goed gedaan, zullen u vertellen hoe u moet ingrijpen (welke input moet worden aangepast). Als je echter gewoon wilt begrijpen hoe de toekomst eruit zal zien, zonder enige intentie (of mogelijkheid) om in te grijpen, dan is voorspellende modellen waarschijnlijker geschikt.

Als een ongelooflijk los voorbeeld, gebruik je ' kankergegevens ".

Voorspellende modellen met behulp van" kankergegevens "zouden geschikt (of op zijn minst nuttig) zijn als u de kankerafdelingen van verschillende ziekenhuizen financierde. U hoeft niet echt uit te leggen waarom mensen kanker krijgen, maar u heeft alleen een nauwkeurige schatting nodig van hoeveel diensten nodig zijn. Verklarende modellen zouden hier waarschijnlijk niet veel helpen. Als u bijvoorbeeld weet dat roken leidt tot een hoger risico op kanker, weet u niet of u meer geld moet geven aan afdeling A of afdeling B.

Een verklarend model van 'kankergegevens' zou geschikt zijn als je wilde het nationale aantal kankergevallen verlagen - voorspellende modellen zouden hier redelijk achterhaald zijn. Het vermogen om de kankercijfers nauwkeurig te voorspellen, zal u waarschijnlijk niet helpen beslissen hoe u deze kunt verminderen. Wetende dat roken leidt tot een hoger risico op kanker is echter waardevolle informatie - want als je het aantal rokers verlaagt (bijvoorbeeld door sigaretten duurder te maken), leidt dit tot meer mensen met minder risico, wat (hopelijk) leidt tot een verwachte afname van kanker tarieven.

Als ik op deze manier naar het probleem kijk, zou ik denken dat verklarende modellering zich voornamelijk zou richten op variabelen die de gebruiker direct of indirect in de hand hebben. Het kan nodig zijn om andere variabelen te verzamelen, maar als u geen van de variabelen in de analyse kunt wijzigen, betwijfel ik of verklarende modellen nuttig zullen zijn, behalve misschien om u de wens te geven controle of invloed over die variabelen te krijgen. die belangrijk zijn. Voorspellend modelleren, grof gezegd, zoekt alleen naar associaties tussen variabelen, of deze nu door de gebruiker worden beheerd of niet. Je hoeft alleen de inputs / features / onafhankelijke variabelen / etc .. te kennen om een ​​voorspelling te doen, maar je moet de inputs / features / onafhankelijke variabelen / etc .. kunnen aanpassen of beïnvloeden om in te grijpen en een uitkomst te veranderen .

+1, mooi gedaan! Ik haat muggenzifterij, maar ik wil opmerken dat voorspelling niet over de toekomst hoeft te gaan. Een archeoloog kan bijvoorbeeld het niveau van regenval in een gebied op een punt in het verleden willen bepalen (d.w.z. voorspellen) door kennis van de sporen (d.w.z. effecten van regenval) die zijn achtergelaten.
@gung - Ik dacht dat ik mijn antwoord zo verwoordde dat dit niet gebeurde. Ik heb duidelijk een plekje gemist :-)
Goed antwoord.Ik denk dat we in veel gevallen moeten weten hoe de toekomst eruit ziet en waarom.Stel dat u bij het bestuderen van klantverloop wilt weten hoeveel klanten (en precies welke klant) volgende N maand churn en dan waarom ze churn zodat marketing kan ingrijpen om ze te behouden.Dan hebben we zowel voorspellend (om toekomstige aantallen en klanten te leren) als verklarend nodig om ons te vertellen waarom, zodat we de churners kunnen verminderen.Dus, hebben we een hybride model van beide of is één voldoende?Varty licht het toe door te zeggen: "De bekende relatie kan voortkomen uit een verklarende / beschrijvende analyse of een andere techniek"
@gung Ik * hou * van muggenzifterij: de archeoloog wil ervaringen in * haar * toekomst voorspellen (d.w.z. voorspellen waar ze op een bepaald moment in de toekomst sporen van eerdere hevige regenval zal vinden).
@Alexis, dat is zeker mogelijk, maar het is ook mogelijk dat dat niet het primaire onderzoeksbelang van de archeoloog is, en dat die gegevens al zijn verzameld door andere onderzoekers (paleoklimatologen) & de archeoloog wil die gegevens gewoon gebruiken om theorieën te testen die hun primairetheoretische interesse ([Gill, 200] (https://www.worldcat.org/title/great-maya-droughts-water-life-and-death/oclc/43567384)).
#2
+31
varty
2011-11-26 01:23:50 UTC
view on stackexchange narkive permalink

Naar mijn mening zijn de verschillen als volgt:

Verklarend / beschrijvend

Bij het zoeken naar een verklarend / beschrijvend antwoord ligt de primaire focus op de gegevens waarover we beschikken en we proberen de onderliggende relaties tussen de gegevens te ontdekken nadat er rekening is gehouden met ruis.

Voorbeeld: is het waar dat regelmatig sporten (bijvoorbeeld 30 minuten per dag) leidt bloeddruk verlagen? Om deze vraag te beantwoorden, kunnen we gegevens van patiënten verzamelen over hun trainingsregime en hun bloeddrukwaarden in de loop van de tijd. Het doel is om te zien of we variaties in bloeddruk kunnen verklaren door variaties in trainingsregime.

De bloeddruk wordt niet alleen beïnvloed door lichaamsbeweging door een groot aantal andere factoren, maar ook als de hoeveelheid natrium die een persoon eet, enz. Deze andere factoren zouden in het bovenstaande voorbeeld als ruis worden beschouwd, aangezien de nadruk ligt op het ophelderen van de relatie tussen trainingsregime en bloeddruk.

Voorspelling sterk >

Wanneer we een voorspellende oefening doen, extrapoleren we naar het onbekende met behulp van de bekende relaties tussen de gegevens die we bij de hand hebben. De bekende relatie kan voortkomen uit een verklarende / beschrijvende analyse of een andere techniek.

Voorbeeld: als ik 1 uur per dag sport, in welke mate zal mijn bloeddruk dan waarschijnlijk dalen? Om deze vraag te beantwoorden, kunnen we een eerder ontdekte relatie tussen bloeddruk en trainingsregime gebruiken om de voorspelling uit te voeren.

In de bovenstaande context ligt de focus niet op uitleg, hoewel een verklarend model kan helpen bij de voorspellingsproces. Er zijn ook niet-verklarende benaderingen (bijv. Neurale netten) die goed zijn in het voorspellen van het onbekende zonder noodzakelijkerwijs onze kennis over de aard van de onderliggende relatie tussen de variabelen toe te voegen.

+1 Dit antwoord vermijdt grotendeels verwarring met causaliteit door de taal van uitleg, beschrijving en relatie te gebruiken. Dit geeft het een gewenste mate van duidelijkheid.
Onder Uitleg schreef je "de primaire focus ligt op de gegevens die we hebben" - ik denk dat je probeert te zeggen dat de taak retrospectief is (in tegenstelling tot de prospectieve aard van voorspelling). Bij uitleg (lees "causale verklaring") is er eigenlijk een grote focus op theorie en domeinkennis en worden de data gebruikt om deze aannames / theorieën te toetsen. In voorspelling daarentegen is het meer datagedreven en sta je meer open voor relaties, omdat je niet op zoek bent naar causaliteit maar eerder naar correlatie.
@GalitShmueli Reg theorie / domeinkennis - ja, ik ben het met dat punt eens. Ik probeerde gewoon de voorspelling tegenover de verklaring te zetten door me te concentreren op wat mij het belangrijkste onderscheid lijkt: het extrapoleren van de waarde van een variabele versus het blootleggen van de relatie tussen variabelen. Daarbij maak ik me natuurlijk schuldig aan het verwaarlozen van subtiele nuances tussen de twee paradigma's.
@varty Ik ben het eens met je punt: in uitleg / beschrijving ben je geïnteresseerd in een algehele / gemiddelde relatie / effect, terwijl je bij voorspelling geïnteresseerd bent in het voorspellen van individuele waarden (niet noodzakelijk extrapolatie)
#3
+19
Rob Hyndman
2010-08-04 04:36:09 UTC
view on stackexchange narkive permalink

Een praktisch probleem dat hier naar voren komt, is de variabele selectie bij het modelleren. Een variabele kan een belangrijke verklarende variabele zijn (is bijvoorbeeld statistisch significant), maar is mogelijk niet bruikbaar voor voorspellende doeleinden (dat wil zeggen, de opname ervan in het model leidt tot een slechtere voorspellende nauwkeurigheid). Ik zie deze fout bijna elke dag in gepubliceerde artikelen.

Een ander verschil is het onderscheid tussen hoofdcomponentenanalyse en factoranalyse. PCA wordt vaak gebruikt bij voorspellingen, maar is niet zo bruikbaar als uitleg. FA omvat de extra stap van rotatie die wordt gedaan om de interpretatie (en dus uitleg) te verbeteren. Er is vandaag een leuke post op Galit Shmueli's blog hierover.

Update: een derde geval doet zich voor in tijdreeksen wanneer een variabele een belangrijke verklarende variabele kan zijn, maar het is gewoon niet ' t beschikbaar voor de toekomst. Woningkredieten kunnen bijvoorbeeld sterk gerelateerd zijn aan het bbp, maar dat heeft niet veel zin om toekomstige woningkredieten te voorspellen, tenzij we ook goede voorspellingen hebben over het bbp.

Waarom / hoe zou een belangrijke verklarende variabele de voorspellende nauwkeurigheid verminderen?
@Srikant. Dit kan gebeuren wanneer de verklarende variabele een zwakke maar significante relatie heeft met de responsvariabele. Dan kan de coëfficiënt statistisch significant zijn, maar moeilijk in te schatten. Bijgevolg kan de MSE van voorspellingen toenemen wanneer de variabele wordt opgenomen in vergelijking met wanneer deze wordt weggelaten. (De bias wordt verminderd met de opname, maar de variantie is groter.)
De eerste alinea is een heel, heel goed punt. Toch is het soms nog erger; hier PMID: 18052912 is een geweldig voorbeeld dat er soms een beter model gemaakt kan worden op het ruisgedeelte van de set dan op een echt model - het is duidelijk dat men een goed model kan maken op willekeurige data, maar dit is een beetje schokkend .
vergeef me mijn onwetendheid, maar maakt rotatie normaal gesproken niet deel uit van zowel PCA als FA?
Een statistisch sig. maar een zwakke voorspeller is zelden effectief voor voorspelling of verklaring. Als een lineaire regressieoplossing bijvoorbeeld een RSQ heeft van 0,40 zonder de voorspeller X1 op te nemen, en als opname van X1 0,01 toevoegt aan die RSQ, dan is X1 "belangrijk" noch voor voorspelling, noch voor verklaring.
Wat betreft uw eerste alinea: u kunt dit aan de hand van een voorbeeld laten zien: de gemiddelde kwadratische fout van een voorspelling bestaat meestal uit twee delen: de onzekerheid van de parameterschatting en de onverklaarde variatie-onzekerheid. Voor OLS-regressie worden deze componenten gegeven als $ s ^ 2x_i ^ T (X ^ TX) ^ {- 1} x_i $ (parameter) en $ s ^ 2 $ (onverklaard). Hier is $ s ^ 2 $ de geschatte variantie in de residuen en $ X $ is de ontwerpmatrix die wordt gebruikt om in het model te passen en $ x_i $ is een vector van regressoren voor de voorspellingen.
@rolando2 - dit kan waar zijn voor de kwaliteit van de voorspelling, maar het opnemen van een nieuwe variabele kan de voorspellingen zelf sterk beïnvloeden.
@probabilityislogic - Kunt u op dat punt uitweiden? Dankje.
Hierboven, toen ik 'belangrijk' schreef, noch voor voorspelling noch verklaring, 'negeerde ik het geval waarin een belangrijke causale variabele bijna volledig voorspelbaar is op basis van een reeks andere, minder causale variabelen.
@rolando2 - mijn punt was dat het opnemen van X1 tot verschillende voorspellingen kan leiden. Dus je hebt misschien $ | \ hat {y} _ {X1} - \ hat {y} _ {niet X1} | >> 0 $. Dus hoewel we verwachten dat beide voorspellingen vergelijkbare afstanden zullen hebben als de "werkelijke waarde" (van vergelijkbare $ R ^ 2 $), verwachten we niet dat ze dicht bij elkaar zullen liggen. Bovendien, als u $ 1000 $ datapunten hebt, betekent het verhogen van $ R ^ 2 $ van $ 0,4 $ naar $ 0,41 $ een zeer significante voorspeller (de 'conservatieve' BIC is $ 10 $ eenheden kleiner onder het grote model, of Bayes-factor van ongeveer $ 20.000 $ in het voordeel van het grotere model).
@probabilityislogic - bedankt voor uw extra punten. Ik word meer beïnvloed door de eerste, die andere inhoudelijke conclusies over voorspelde waarden inhoudt, dan de tweede, die over stat gaat. sig. in plaats van iets wezenlijks, als ik het goed lees.
#4
+17
Galit Shmueli
2011-11-26 10:50:32 UTC
view on stackexchange narkive permalink

Hoewel sommige mensen het gemakkelijkst vinden om het onderscheid te zien in termen van het gebruikte model / algoritme (bijv. neurale netten = voorspellend), is dat slechts één specifiek aspect van het onderscheid verklaren / voorspellen. Hier is een reeks dia's die ik gebruik in mijn dataminingcursus om lineaire regressie vanuit beide hoeken te leren. Zelfs met alleen lineaire regressie en met dit kleine voorbeeld komen er verschillende problemen naar voren die leiden tot verschillende modellen voor verklarende versus voorspellende doelen (keuze van variabelen, variabeleselectie, prestatiemaatstaven, enz.)

Galit

Is het uit nieuwsgierigheid opzettelijk dat u in uw bespreking van regressie voor voorspelling (vanaf p. 33) voorspellers kiest (stap 1) * voordat u * opsplitst in trainings- en validatiedatasets (stap 3)? Ik dacht dat de meest objectieve en eerlijke procedure zou zijn om vanaf het begin te partitioneren, zelfs voordat we naar scatterplots kijken (stap 2). Als regressors worden gekozen op basis van de volledige dataset, zou dat dan niet de schijnbare significantieniveaus op veel tests verhogen, zelfs als ze vervolgens worden toegepast op de validatiedata?
Ik denk dat de meer algemene vraag is of je datavisualisatie uitvoert voordat je vasthoudt. Als de dataset groot is, maakt het eigenlijk niet uit. Met een kleine steekproef is het gebruik van visualisatie om voorspellers te kiezen inderdaad gevaarlijk. Met mijn dia's bedoel ik niet het gebruik van visualisatie voor variabele selectie. De "selecteer voorspellers" is meer in het algemeen "selecteer een potentiële set van beschikbare voorspellers die redelijk zijn". Het gaat meer om het opnemen van domeinkennis voor het selecteren van een redelijke set.
Voortbordurend op het onderwerp "Uitleggen of voorspellen", heb ik een verwante vraag [hier] (http://stats.stackexchange.com/questions/177391/paradox-in-model-selection-aic-bic-to-explain-of-te-voorspellen).Ik zou het op prijs stellen als u een kijkje neemt, aangezien de vraag grotendeels op uw paper is gebaseerd.
Professor Shmueli, u zegt op pagina 291 van uw artikel over dit onderwerp dat u alleen ‘niet-stochastische voorspelling’ overweegt, zoals gedefinieerd door Geisser, 1993. Waar zou ik heen gaan om de volledige definitie van niet-stochastische voorspelling te vinden?Blij om ook een nieuwe post te beginnen, maar ik dacht dat ik het hier eerst zou vragen.
@GalitShmueli, Professor, uw artikel was enorm nuttig voor mij.Naar mijn mening heeft het een aantal obscure punten aan het licht gebracht over statistische modellen en tools, vooral regressie.Bedankt!Er is hier echter een punt dat mij niet duidelijk is.Uw artikel is gericht op verklarende modellen, bedoeld als causaal en voorspellend model.U noemt alleen een derde type modellen, de beschrijvende: "Hoewel niet de focus van dit artikel, is een derde type modellering, dat het meest wordt gebruikt en ontwikkeld door statistici, beschrijvende modellering."pag 291.
In de dia's die u hier hebt gedeeld, lijkt uitleg en beschrijving echter als synoniem te worden gebruikt.Waarom? Bovendien las ik nog een set van uw dia's waarin de drie concepten duidelijk te onderscheiden zijn.Ik schreef hier een gerelateerde vraag (https://stats.stackexchange.com/questions/464261/regression-causation-vs-prediction-vs-description). Uw opmerkingen worden zeer op prijs gesteld.
@markowitz - bedankt dat je me opnieuw hebt gewaarschuwd voor deze thread.Hier is een recente serie dia's die onderscheid maakt tussen uitleg / voorspelling / beschrijving, en je zult specifiek een regressievoorbeeld zien.https://www.slideshare.net/gshmueli/to-explain-to-predict-or-to-describe
@GalitShmueli, Bedankt voor het delen van deze recente dia's hier.Ik heb ze echter al gelezen, ook om deze reden was ik ervan overtuigd dat uitleg en beschrijving geen synoniemen zijn.Bovendien heb ik nog enige twijfels over de rol van beschrijving bij regressie.Zoals al gezegd in mijn vorige opmerking (met link), heb ik hier een vraag over geschreven.Uw suggesties daarover worden zeer op prijs gesteld.
#5
+11
Jeromy Anglim
2010-08-04 11:16:41 UTC
view on stackexchange narkive permalink

Voorbeeld: een klassiek voorbeeld dat ik heb gezien, is in de context van het voorspellen van menselijke prestaties. zelfeffectiviteit (dwz de mate waarin een persoon denkt dat hij een taak goed kan uitvoeren) is vaak een sterke voorspeller van taakuitvoering. Dus als je zelfeffectiviteit in een meervoudige regressie samen met andere variabelen zoals intelligentie en mate van eerdere ervaring plaatst, zul je vaak merken dat zelfeffectiviteit een sterke voorspeller is.

Dit heeft sommige onderzoekers ertoe gebracht suggereren dat zelfeffectiviteit taakuitvoering veroorzaakt. En dat effectieve interventies die zijn die gericht zijn op het vergroten van iemands gevoel van self-efficacy.

Het alternatieve theoretische model ziet self-efficacy echter grotendeels als een gevolg van taakuitvoering. D.w.z., als je goed bent, zul je het weten. In dit kader zouden interventies gericht moeten zijn op het vergroten van de feitelijke competentie en niet op het vergroten van de feitelijke competentie.

Het opnemen van een variabele zoals self-efficacy zou dus de voorspelling kunnen verhogen, maar aangenomen dat je het self-efficacy-as-consequentie-model toepast zou niet als voorspeller moeten worden opgenomen als het doel van het model is om causale processen op te helderen die de prestatie beïnvloeden.

Dit roept natuurlijk de vraag op hoe een causaal theoretisch model ontwikkeld en gevalideerd moet worden. Dit is duidelijk afhankelijk van meerdere onderzoeken, idealiter met wat experimentele manipulatie, en een samenhangend argument over dynamische processen.

Proximaal versus distaal : ik heb soortgelijke problemen gezien wanneer onderzoekers geïnteresseerd zijn in de effecten van distale en proximale oorzaken. Proximale oorzaken hebben de neiging om beter te voorspellen dan distale oorzaken. Theoretische interesse kan echter uitgaan naar het begrijpen van de manieren waarop distale en proximale oorzaken werken.

Variabele selectie kwestie : Ten slotte is een groot probleem in sociaalwetenschappelijk onderzoek de variabele selectie kwestie. In een bepaald onderzoek is er een oneindig aantal variabelen die kunnen worden gemeten maar waren het niet. Bij de interpretatie van modellen moet dus rekening worden gehouden met de implicaties hiervan bij het maken van theoretische interpretaties.

Er is ook een probleem in de sociale wetenschap van "zwakke hypothese" (bijv. Effect is positief versus negatief). En in dat 'zelfeffectiviteit'-voorbeeld zou je dat kunnen zien als een interne voorspeller van prestaties die elke persoon heeft opgebouwd. Het is dus waarschijnlijk vergelijkbaar met het gebruik van een "black box" -voorspelling als verklarende variabele.
#6
+9
Nikita Zhiltsov
2011-11-27 03:03:37 UTC
view on stackexchange narkive permalink

Statistical Modelling: Two Cultures (2001) door L. Breiman is misschien wel het beste artikel op dit punt. Zijn belangrijkste conclusies (zie ook de antwoorden van andere prominente statistici aan het einde van het document) zijn als volgt:

  • "Hogere voorspellende nauwkeurigheid wordt geassocieerd met meer betrouwbare informatie over het onderliggende datamechanisme. Zwakke voorspellende nauwkeurigheid kunnen tot twijfelachtige conclusies leiden. "
  • " Algoritmische modellen kunnen een betere voorspellende nauwkeurigheid geven dan datamodellen en betere informatie verschaffen over het onderliggende mechanisme. "
Om een ​​link te leggen met een eerder gerelateerde vraag: [The Two Cultures: Statistics vs. machine learning?] (Http://stats.stackexchange.com/q/6/930)
Het probleem met algoritmische modellen is dat ze moeilijk te begrijpen zijn. Dit maakt het moeilijk om mogelijke problemen te diagnosticeren en op te lossen. Een constructiemodel is veel gemakkelijker te beoordelen omdat u weet hoe elk onderdeel eruit moet zien.
#7
+8
John Myles White
2010-08-04 01:39:20 UTC
view on stackexchange narkive permalink

Ik heb haar werk niet verder gelezen dan de samenvatting van het gekoppelde artikel, maar ik heb het gevoel dat het onderscheid tussen 'uitleg' en 'voorspelling' moet worden weggegooid en vervangen door het onderscheid tussen de doelstellingen van de beoefenaar, die zijn ‘causaal’ of ‘voorspellend’. Over het algemeen vind ik 'uitleg' zo'n vaag woord dat het bijna niets betekent. Is de wet van Hooke bijvoorbeeld verklarend of voorspellend? Zijn aan de andere kant van het spectrum voorspellend nauwkeurige aanbevelingssystemen goede causale modellen van expliciete itembeoordelingen? Ik denk dat we allemaal de intuïtie delen dat het doel van wetenschap uitleg is, terwijl het doel van technologie voorspelling is; en deze intuïtie gaat op de een of andere manier verloren bij het overwegen van de tools die we gebruiken, zoals algoritmen voor leren onder supervisie, die kunnen worden gebruikt voor zowel causale inferentie als voorspellende modellen, maar die in feite puur wiskundige apparaten zijn die niet intrinsiek verbonden zijn met 'voorspelling' of 'verklaring' .

Dit alles gezegd hebbende, is misschien het enige woord dat ik op een model zou toepassen, interpreteerbaar. Regressies zijn meestal interpreteerbaar; neurale netten met veel lagen zijn dat vaak niet. Ik denk dat mensen er soms naïef van uitgaan dat een interpreteerbaar model causale informatie geeft, terwijl niet-interpreteerbare modellen alleen voorspellende informatie geven. Deze houding lijkt me gewoon verward.

#8
+7
user28
2010-08-04 02:32:41 UTC
view on stackexchange narkive permalink

Ik ben nog steeds een beetje onduidelijk wat de vraag is. Dat gezegd hebbende, is het fundamentele verschil tussen voorspellende en verklarende modellen naar mijn mening het verschil in hun focus.

Verklarende modellen

Per definitie hebben verklarende modellen als hun primaire focus het doel om iets in de echte wereld uit te leggen. In de meeste gevallen proberen we eenvoudige en duidelijke uitleg te geven. Met simpel bedoel ik dat we de voorkeur geven aan spaarzaamheid (leg de verschijnselen uit met zo min mogelijk parameters) en met clean bedoel ik dat we uitspraken willen doen van de volgende vorm: "het effect van het veranderen van $ x $ met één eenheid verandert $ y $ door $ \ beta $ terwijl al het andere constant wordt gehouden ". Gezien deze doelen van eenvoudige en duidelijke uitleg, proberen verklarende modellen complexe modellen te bestraffen (door geschikte criteria zoals AIC te gebruiken) en geven ze er de voorkeur aan orthogonale onafhankelijke variabelen te verkrijgen (hetzij via gecontroleerde experimenten of via geschikte datatransformaties).

Voorspellende modellen

Het doel van voorspellende modellen is om iets te voorspellen. Ze richten zich dus minder op spaarzaamheid of eenvoud, maar meer op hun vermogen om de afhankelijke variabele te voorspellen.

Het bovenstaande is echter een enigszins kunstmatig onderscheid, aangezien verklarende modellen kunnen worden gebruikt voor voorspelling en soms kunnen voorspellende modellen iets verklaren.

+1 voor het vermelden van ** complexiteit ** die niet direct werd genoemd in de bovenste antwoorden. De uitdaging ontstaat echter wanneer verklarende modellen worden gebruikt voor interventies. Hoe zorg je ervoor dat de geschatte coëfficiënten niet vertekend zijn, wat een veelvoorkomend probleem is als gevolg van spaarzaamheid?
#9
+5
Shane
2010-08-04 02:30:22 UTC
view on stackexchange narkive permalink

zoals anderen al hebben gezegd, is het onderscheid enigszins zinloos, behalve voor zover het de doelstellingen van de onderzoeker betreft.

Brad Efron, een van de commentatoren op het artikel The Two Cultures, maakte de volgende observatie (zoals besproken in mijn eerdere vraag):

Voorspelling op zichzelf is slechts af en toe voldoende. Het postkantoor is blij met elke methode die de juiste adressen voorspelt op basis van handgeschreven krabbels. Peter Gregory deed zijn onderzoek voor voorspellingsdoeleinden, maar ook om de medische basis van hepatitis beter te begrijpen. De meeste statistische onderzoeken hebben de identificatie van oorzakelijke factoren als hun uiteindelijke doel.

Bepaalde velden (bijv. Geneeskunde) hechten veel waarde aan modelaanpassing als verklarend proces (de distributie, enz.), als een middel om het onderliggende proces dat de gegevens genereert te begrijpen. Andere velden zijn hier minder mee bezig en zullen blij zijn met een "black box" -model dat een zeer hoog voorspellend succes heeft. Dit kan ook zijn weg vinden naar het modelbouwproces.

#10
+5
gung - Reinstate Monica
2011-11-26 09:23:21 UTC
view on stackexchange narkive permalink

Met respect, deze vraag zou beter gefocust kunnen zijn. Hebben mensen ooit de ene term gebruikt terwijl de andere meer geschikt was? Ja natuurlijk. Soms is het duidelijk genoeg vanuit de context, of wil je niet pedant zijn. Soms zijn mensen gewoon slordig of lui in hun terminologie. Dit geldt voor veel mensen, en ik ben zeker niet beter.

Wat hier van potentiële waarde is (uitleg versus voorspelling op CV bespreken), is om het onderscheid tussen de twee benaderingen te verduidelijken. Kort gezegd draait het onderscheid om de rol van causaliteit . Als je een of andere dynamiek in de wereld wilt begrijpen en wilt uitleggen waarom iets gebeurt zoals het doet, moet je de causale verbanden tussen de relevante variabelen identificeren. Om te voorspellen, kun je causaliteit negeren. U kunt bijvoorbeeld een effect voorspellen op basis van kennis over de oorzaak; u kunt het bestaan ​​van de oorzaak voorspellen op basis van de wetenschap dat het gevolg is opgetreden; en u kunt het geschatte niveau van een effect voorspellen door kennis van een ander effect dat wordt aangedreven door dezelfde oorzaak. Waarom zou iemand dit willen kunnen? Om hun kennis te vergroten over wat er in de toekomst kan gebeuren, zodat ze dienovereenkomstig kunnen plannen. Een paroolcommissie wil bijvoorbeeld de kans willen voorspellen dat een veroordeelde bij voorwaardelijke vrijlating terugkeert. Dit is echter niet voldoende voor uitleg. Het schatten van het werkelijke causale verband tussen twee variabelen kan natuurlijk buitengewoon moeilijk zijn. Bovendien zijn modellen die de werkelijke causale verbanden vastleggen (waarvan wordt aangenomen dat ze zijn) vaak slechter voor het doen van voorspellingen. Dus waarom zou je het dan doen? Ten eerste gebeurt het meeste hiervan in de wetenschap, waar begrip wordt nagestreefd omwille van het eigen belang. Ten tweede, als we op betrouwbare wijze de ware oorzaken kunnen uitkiezen en het vermogen kunnen ontwikkelen om ze te beïnvloeden, kunnen we enige invloed uitoefenen op de gevolgen.

Met betrekking tot de statistische modelleringsstrategie is er geen groot verschil. Het verschil zit hem voornamelijk in de manier waarop het onderzoek moet worden uitgevoerd. Als het uw doel is om te kunnen voorspellen, kijk dan welke informatie beschikbaar zal zijn voor gebruikers van het model wanneer ze de voorspelling moeten doen. Informatie waartoe ze geen toegang hebben, heeft geen waarde. Als ze hoogstwaarschijnlijk willen kunnen voorspellen op een bepaald niveau (of binnen een smal bereik) van de voorspellers, probeer dan het steekproefbereik van de voorspeller op dat niveau te centreren en daar te oversamplen. Als een voorwaardelijke vrijlating bijvoorbeeld vooral wil weten over criminelen met 2 grote veroordelingen, kunt u informatie verzamelen over criminelen met 1, 2 en 3 veroordelingen. Aan de andere kant vereist het beoordelen van de causale status van een variabele in feite een experiment. Dat wil zeggen, experimentele eenheden moeten willekeurig worden toegewezen aan vooraf gespecificeerde niveaus van de verklarende variabelen. Als er bezorgdheid bestaat of de aard van het causale effect al dan niet afhankelijk is van een andere variabele, moet die variabele in het experiment worden opgenomen. Als het niet mogelijk is om een ​​echt experiment uit te voeren, staat u voor een veel moeilijkere situatie, een die te complex is om hier op in te gaan.

Ik vraag me af wat de rol is van causaliteit. Stel dat we een dataset hebben met de afmetingen en volumes van een set blokken, $ (x, y, z, v) $, en we modelleren hun associatie door $ z $ terug te brengen op $ (x, y, v ) $ (en interacties daarvan). In welke zin kan er worden gezegd dat twee dimensies en een volume de derde dimensie 'veroorzaken'? Het onderscheid tussen verklaring en voorspelling lijkt daarom op iets fundamenteel anders te zijn gebaseerd; namelijk het * doel * van de analyse. Wat betreft uw laatste alinea, er zijn veel verslagen op deze site die getuigen van grote verschillen in strategie.
Je hebt gelijk, dit hangt af van het doel van de studie. Ik veronderstel dat ik dat niet expliciet heb gemaakt (ik had het alleen over wat je * wilt * bereiken). Het is ook waar dat de verklaring niet precies betrekking hoeft te hebben op causaliteit - iets dat analoog is aan causaliteit past ook (bijv. De afmetingen - het geval van het volume is er een van logische / wiskundige implicaties). De meeste verklarende modellen richten zich echter op causaliteit; Ik denk dat ik dacht dat ik dat soort dingen voor de eenvoud kon overslaan. Ten slotte verschilt de strategie tijdens het ontwerp van de studie en het verzamelen van gegevens, maar het terugbrengen van y op x is vrijwel hetzelfde.
Bedankt voor het antwoord. Door andere uitwisselingen op deze site heb ik geleerd om universele uitspraken te begrijpen als "meest verklarende modellering draait om causaliteit" om de achtergrond en ervaring van de schrijver weer te geven, in plaats van dat ze letterlijk waar zijn. In de fysische en "harde" wetenschappen kan deze bewering juist zijn, maar in de sociale en "zachte" wetenschappen betwijfel ik of beoefenaars zo'n sterke bewering zouden maken. Vaak wordt aangenomen dat de relaties die worden bestudeerd gemeenschappelijke verborgen oorzaken hebben, maar geen directe causaliteit weerspiegelen tussen regressoren en de regressie.
@whuber het is zeker waar dat mijn ideeën worden beïnvloed door mijn achtergrond en ervaring. Als dit antwoord niet nuttig is (ik merk dat het geen stemmen heeft gekregen), kan ik het verwijderen. Een aantal anderen heeft antwoorden gegeven die betrekking hebben op de ideeën die ik wilde overbrengen.
@whuber - een goed voorbeeld van zachte causaliteit is "roken veroorzaakt kanker" - hoewel ik zeker weet dat je een kettingroker kunt vinden die geen kanker heeft. Het begrip causaliteit hangt samen met de timing van gebeurtenissen. De oorzaak moet vóór het effect plaatsvinden - wat verklaart waarom het kubusvoorbeeld geen zin heeft.
#11
+4
Brett
2011-11-30 00:22:57 UTC
view on stackexchange narkive permalink

De meeste antwoorden hebben geholpen duidelijk te maken wat modellering voor uitleg en modellering voor voorspelling zijn en waarom ze verschillen. Wat tot dusverre niet duidelijk is, is hoe ze verschillen. Dus ik dacht dat ik een voorbeeld zou geven dat nuttig zou kunnen zijn.

Stel dat we geïnteresseerd zijn in het modelleren van College GPA als een functie van academische voorbereiding. Als maatstaf voor academische voorbereiding hebben we:

  1. Aptitude Test Scores;
  2. HS GPA; en
  3. Aantal behaalde AP-tests.

Strategie voor voorspelling

Als het doel voorspelling is, zou ik gebruik al deze variabelen tegelijkertijd in een lineair model en mijn voornaamste zorg zou de voorspellende nauwkeurigheid zijn. Welke van de variabelen het meest bruikbaar blijkt voor het voorspellen van College GPA, zou in het uiteindelijke model worden opgenomen.

Strategie voor uitleg

Als het doel uitleg is, kan ik me meer zorgen maken over datareductie en goed nadenken over de correlaties tussen de onafhankelijke variabelen. Mijn voornaamste zorg zou het interpreteren van de coëfficiënten zijn.

Voorbeeld

In een typisch multivariaat probleem met gecorreleerde voorspellers zou het niet ongebruikelijk zijn om regressiecoëfficiënten te zien die zijn "onverwacht". Gezien de onderlinge relaties tussen de onafhankelijke variabelen, zou het niet verrassend zijn om voor sommige van deze variabelen gedeeltelijke coëfficiënten te zien die niet in dezelfde richting zijn als hun nulde-orde relaties en die misschien contra-intuïtief en moeilijk uit te leggen lijken.

Veronderstel bijvoorbeeld dat het model suggereert dat (rekening houdend met de Aptitude Test Scores en het aantal met succes voltooide AP-tests in aanmerking genomen) hogere middelbare school GPA's worden geassocieerd met lagere college GPA's. Dit is geen probleem voor voorspelling, maar het levert wel problemen op voor een verklarend model waar een dergelijke relatie moeilijk te interpreteren is . Dit model levert misschien het beste uit steekproefvoorspellingen, maar het helpt ons weinig om de relatie tussen academische voorbereiding en College GPA te begrijpen.

In plaats daarvan zou een verklarende strategie kunnen streven naar een vorm van variabele reductie, zoals principal componenten, factoranalyse of SEM om:

  1. zich te concentreren op de variabele die de beste maatstaf is voor "academische prestaties" en College GPA te modelleren op die ene variabele; of
  2. gebruik factorscores / latente variabelen afgeleid van de combinatie van de drie maten van academische voorbereiding in plaats van theoretische variabelen.

Strategieën zoals deze kunnen de voorspellende kracht van het model, maar ze kunnen een beter begrip opleveren van hoe Academische Voorbereiding verband houdt met College GPA.

Wat betreft het contra-intuïtieve teken, ik vraag me af of het komt omdat je intuïtie de verkeerde bivariate interpreteert - als een hoofdeffect alsof het genest is of een interactie-effect.
#12
+3
Lionel Henry
2012-10-16 14:05:15 UTC
view on stackexchange narkive permalink

Ik zou graag een modelgerichte kijk op de kwestie willen bieden.

Voorspellende modellen zijn wat er gebeurt in de meeste analyses. Een onderzoeker zet bijvoorbeeld een regressiemodel op met een heleboel voorspellers. De regressiecoëfficiënten vertegenwoordigen dan voorspellende vergelijkingen tussen groepen. Het voorspellende aspect komt van het waarschijnlijkheidsmodel: de inferentie wordt gedaan met betrekking tot een superpopulatiemodel dat mogelijk de waargenomen populatie of steekproef heeft voortgebracht. Het doel van dit model is om nieuwe resultaten te voorspellen voor eenheden die uit deze superpopulatie komen. Vaak is dit een ijdele doelstelling omdat dingen altijd veranderen, vooral in de sociale wereld. Of omdat uw model over zeldzame eenheden gaat, zoals landen, en u geen nieuwsvoorbeeld kunt trekken. Het nut van het model wordt in dit geval overgelaten aan de waardering van de analist.

Wanneer je de resultaten probeert te generaliseren naar andere groepen of toekomstige eenheden, is dit nog steeds een voorspelling, maar van een ander soort. We kunnen het bijvoorbeeld voorspellen noemen. Het belangrijkste punt is dat de voorspellende kracht van geschatte modellen standaard beschrijvend van aard is. Je vergelijkt een uitkomst tussen groepen en stelt een waarschijnlijkheidsmodel voor deze vergelijkingen voor, maar je kunt niet concluderen dat deze vergelijkingen causale effecten zijn.

De reden is dat deze groepen last kunnen hebben van selectiebias . Dat wil zeggen, ze kunnen natuurlijk een hogere score hebben op de uitkomst van interesse, ongeacht de behandeling (de hypothetische causale interventie). Of ze kunnen onderhevig zijn aan een ander behandelingseffect dan andere groepen. Dit is de reden waarom, vooral voor observationele gegevens, de geschatte modellen over het algemeen gaan over voorspellende vergelijkingen en niet over uitleg. Uitleg gaat over de identificatie en schatting van causale effecten en vereist goed opgezette experimenten of een doordacht gebruik van instrumentele variabelen. In dit geval worden de voorspellende vergelijkingen losgekoppeld van elke selectiebias en vertegenwoordigen ze causale effecten. Het model kan dus worden beschouwd als verklarend.

Ik ontdekte dat het denken in deze termen vaak heeft verduidelijkt wat ik werkelijk deed bij het opzetten van een model voor bepaalde gegevens.

+1, hier is goede informatie. Ik zou echter voorzichtig zijn met de stelling "Voorspellende modellen zijn wat er in de meeste analyses gebeurt". Of voorspellende modellen vaker voorkomen, verschilt per discipline, enz. Ik vermoed dat de meeste modellen in de academische wereld verklarend zijn, en dat er veel modellering / datamining wordt gedaan in de privésector (bijvoorbeeld het identificeren van potentiële terugkerende klanten) is voorspellend. Ik zou gemakkelijk ongelijk kunnen hebben, maar het zal moeilijk te zeggen zijn, a priori, wat meestal gebeurt.
Welnu, naar mijn mening is de meeste modellering van observationele gegevens voorspellend, zelfs als het doel verklarend is. Als u de toewijzing van de behandeling niet willekeurig verdeelt en daadwerkelijk een verandering in een experimentele opzet induceert, zullen uw regressiecoëfficiënten alleen een beschrijvende waarde hebben, dwz ze bieden alleen de middelen voor voorspellende vergelijkingen. U kunt bijvoorbeeld succes op school voorspellen op basis van demografische kenmerken, maar dat betekent niet dat deze demografische gegevens verklarende oorzakelijke effecten zijn. De reden is dat vergelijkende voorspellingen worden blootgesteld aan selectiebias.
#13
+1
Guest with A thought
2014-09-03 00:22:27 UTC
view on stackexchange narkive permalink

We kunnen veel meer leren dan we denken van Black box "voorspellende" modellen. De sleutel is het uitvoeren van verschillende soorten gevoeligheidsanalyses en simulaties om echt te begrijpen hoe model OUTPUT wordt beïnvloed door veranderingen in de INPUT-ruimte. In die zin kan zelfs een puur voorspellend model verklarende inzichten opleveren. Dit is een punt dat vaak over het hoofd wordt gezien of verkeerd wordt begrepen door de onderzoeksgemeenschap. Alleen omdat we niet begrijpen waarom een ​​algoritme werkt, wil nog niet zeggen dat het algoritme geen verklarende kracht heeft ...

Over het algemeen is het beknopte antwoord van probabilityislogic absoluut correct ...

Het is onduidelijk welke "verklarende inzichten" op deze manier kunnen worden verkregen, als u met die uitdrukking causaliteit impliceert.
#14
+1
Aksakal
2017-09-01 17:22:45 UTC
view on stackexchange narkive permalink

Er is een onderscheid tussen wat zij verklarende en voorspellende toepassingen in statistieken noemt. Ze zegt dat we elke keer dat we een of ander gebruiken, moeten weten welke precies wordt gebruikt. Ze zegt dat we ze vaak door elkaar halen, vandaar conflation .

Ik ben het ermee eens dat in social science-toepassingen het onderscheid verstandig is, maar in de natuurwetenschappen zijn ze hetzelfde en zouden ze hetzelfde moeten zijn. Ik noem ze ook inferentie versus prognoses , en ben het ermee eens dat je ze in social sciences niet door elkaar moet halen.

Ik begin met de natuurwetenschappen. In de natuurkunde zijn we gefocust op uitleggen, we proberen te begrijpen hoe de wereld werkt, wat wat veroorzaakt, etc. Dus de focus ligt op causaliteit, gevolgtrekking en dergelijke. Aan de andere kant is het voorspellende aspect ook een onderdeel van het wetenschappelijke proces. De manier waarop je een theorie bewijst die observaties al verklaarde goed (denk aan in-sample), is door nieuwe observaties te voorspellen en vervolgens te kijken hoe voorspelling werkte. Elke theorie die geen voorspellende vermogens heeft, zal grote moeite hebben om geaccepteerd te worden in de natuurkunde. Daarom zijn experimenten zoals Michelson-Morley 's zo belangrijk.

In de sociale wetenschappen zijn de onderliggende verschijnselen helaas onstabiel, niet te herhalen, niet reproduceerbaar.Als je naar het verval van kernen kijkt, krijg je elke keer dat je ze waarneemt dezelfde resultaten, en dezelfde resultaten die ik of een kerel honderd jaar geleden kreeg.Niet in economie of financiën.Ook is de mogelijkheid om experimenten uit te voeren zeer beperkt, bijna niet aanwezig voor alle praktische doeleinden, we observeren en voeren willekeurige steekproeven van waarnemingen uit.Ik kan doorgaan, maar het idee is dat de verschijnselen waarmee we te maken hebben erg onstabiel zijn, vandaar dat onze theorieën niet van dezelfde kwaliteit zijn als in de natuurkunde.Daarom is een van de manieren waarop we met de situatie omgaan, ons te concentreren op ofwel gevolgtrekking (wanneer je probeert te begrijpen wat wat veroorzaakt of wat beïnvloedt) of voorspellingen (zeg gewoon wat je denkt dat er met dit of dat zal gebeuren, negeer de structuur)./ p>

#15
  0
Brijesh
2017-09-01 17:00:10 UTC
view on stackexchange narkive permalink

Een structureel model zou uitleg geven en een voorspellend model zou voorspelling geven.Een structureel model zou latente variabelen hebben.Een structureel model is een gelijktijdig hoogtepunt van regressie en factoranalyse

De latente variabelen komen tot uiting in de vorm van multi-collineariteit in voorspellende modellen (regressie).

#16
-1
Poidah
2020-01-10 09:10:33 UTC
view on stackexchange narkive permalink

Verklarend model is ook gebruikt in de geneeskunde en op gezondheidsgebied, met een heel andere betekenis.In wezen kan wat mensen als interne overtuigingen of betekenissen hebben, behoorlijk verschillen van geaccepteerde verklaringen.Een religieus persoon kan bijvoorbeeld een verklarend model hebben dat een ziekte te wijten was aan straf of karma voor gedrag uit het verleden, samen met het accepteren van de biologische redenen.

https://thehealthcareblog.com/blog/2013/06/11/the-patient-explanatory-model/

https://pdfs.semanticscholar.org/0b69/ffd5cc4c7bb2f401be6819c946a955344880.pdf

Kunt u op zijn minst een samenvatting geven van wat er op deze links te vinden is?- anders is dit meer een opmerking dan een antwoord.
Ik dacht niet dat mensen geïnteresseerd zouden zijn.Omdat dit nogal een wiskundegroep is.Dus ik hield mijn antwoord beperkt.


Deze Q&A is automatisch vertaald vanuit de Engelse taal.De originele inhoud is beschikbaar op stackexchange, waarvoor we bedanken voor de cc by-sa 2.0-licentie waaronder het wordt gedistribueerd.
Loading...