Jag har varit oförmögen att hitta någon som riktigt prioriterat because den uppmärksamhet ordet mycket möjligt förtjänar. Speech and Language Processing ger oss det mest grundläggande:
"For extracting coherence relations, we rely on cue phrases called connectives, which are often conjunctions or adverbs, and which give us a cue to the coherence relations that hold between segments. For example, the connective because strongly suggests the EXPLANATION relation in [...]."
Prentice Hall Series in Artificial Intelligence
Pearson international edition
Authors Dan Jurafsky, James H. Martin
Edition 2, illustrated
Publisher Prentice Hall, 2008
ISBN 0135041961, 9780135041963
Length 1024 pages
Men visar som vi kommer till en begränsning i Hobbs coherence relations för EXPLANATION.
Statistical language processing är ju väl inarbetat med olika varianter av markov-modeller, maximum / minimal entropy / informatin modeller, bayesian decision networks m.m. Det samma gäller neuroscience bl.a. för att tolka och förstå avbildningar av avbildningarna. Samtidigt tror jag inte någon modell försökt att mer allmängiltigt ta konsekvensen av markov-antagandena från perspektiv av den som uttalar information d.v.s. här använder ordet because.
Vi noterar först att strukturen grovt-förenklat ungefär följer:
- [Beskrivning / fakta / påstående] because [Påstående som kan inkludera det mesta]
Vad vi söker avbilda med markov-modellerna följer väl arbetsminne också rörande kända beskrivningar. Känt är ju också att kontext just nu, humör, tidigare nära-liggande men utanför egentligt kontext m.m. inverkar på hur vi förklarar saker och ting också när det är helt irrelevant.
Det känns därför som en vettig hypotes att det sätt vi hellre bör betrakta because om vi ska använda informationen det ger till att:
- Skatta ett tillstånd hos den som uttalar.
- Ex. givet känd kontext och skattning av nuvarande markov-tillstånd.
- Försöka skatta fram (tillsammans med givetvis mycket liknande information) preferenser bakomliggande rörande värderingar m.m.
Vara vad som indikerar information som följer markov-antagandet p.s.s. allt annat. D.v.s. förklaringen som ges byggs med stark preferens på det aktiverade tillståndet givet kontext medan kunskap, idéer, attityder m.m. närmare vad vi kan kalla långtidsminne påverkar i den det är relevant aktiverat.
Jämför gärna med hindsight bias som jag tror följer nära nog samma mekanism (i den mening att bedömer att samma algoritmer och metodik används där för att söka likartade skattningar). Aktuellt vid hindsight bias är informationen just då starkt aktuellt, och för att praktiskt försöka undvika dess effekt måste vi gå bakåt i våra anteckningar och aktivera upp efter bästa förmåga minnen och förutsättningar (en anledning till att jag försökt bibehålla också emotionella loggar med musik på Hans Husman om Prylar).
Se gärna också Sampling bias i Scholarpedia. Sampling bias beskriver givetvis också detta. D.v.s. att förklara världen från det data vi ser just nu men där detta data inte är riktigt lämpat för det. En förklaring är att vi låtit vårt tillstånd och våra egna idéer påverka hur data samlats in. Vi passerar då från ett markov-tillstånd med detta bias till ett tillstånd där vi bedömer det. Eftersom vi "lider" av markov-antagandets värld styrt av vad vi står med föregående tillstånd som indata är förklaring because ger vad som bekräftar vårt bias snarare än att säga sampling bias.
"Sampling bias means that the samples of a stochastic variable that are collected to determine its distribution are selected incorrectly and do not represent the true distribution because of non-random reasons. Let us consider a specific example: we might want to predict the outcome of a presidential election by means of an opinion poll. Asking 1000 voters about their voting intentions can give a pretty accurate prediction of the likely winner, but only if our sample of 1000 voters is 'representative' of the electorate as a whole (i.e. unbiased). If we only poll the opinion of, 1000 white middle class college students, then the views of many important parts of the electorate as a whole (ethnic minorities, elderly people, blue-collar workers) are likely to be underrepresented in the sample, and our ability to predict the outcome of the election from that sample is reduced."
Givetvis är det i praktiska värdet because kan ge inte förklaringen i sig utan vilket markov-tillstånd givet den nod vi står på som förklaringen indikerar också finns, och de associationer mellan dem och föregående tillstånd, och kontext. Vad som ges via because är vad personen med aktivt hindsight bias själv skattar kan vara ett tillstånd innan som givit vad som sägs innan because.
Förutom konkret-analys-värde i den mån de intresserar är det också ett fint test av de vanligaste algoritm-grupperna i dom här sammanhangen. Och det är väl kanske så att en lösning av ex. Kullbacks divergence, bayes-sats (lättsamt utan just någon matematik annat än lite för syns skull: Statistiska språkmodeller
med klass | Uppsala Universitet) i någon variant, distribuerad similarity m.m. inte räcker riktigt till (jag kombinerar flera av varianter av de två sista med ytterligare en form av algoritm men har inte trots många försök av och till sett att Kullbacks divergence någonsin presterar bättre än varianter av bayes sats om än inte mycket sämre heller: kanske är dennes preferens mot chi-2-fördelningar för H(x) termen inte helt optimalt som approximation av språket i dom här sammanhangen).
Emellertid har jag inte tillämpat indikerade lösnings-modellen nämnd på specifikt because vilket var orsaken till att jag sökte efter vad som redan kunde ha varit dokumenterat. Det är ju praktiskt en fråga om because med dess tillstånd ska hanteras särskilt ner till Drifting thoughts och Dreamer eller om det kanske inte tillför större värde än att det ändå blir inkluderat utan särskild behandling.