Visar inlägg med etikett Tid. Visa alla inlägg
Visar inlägg med etikett Tid. Visa alla inlägg

Hur vi värderar information II: Fem tidsdimensioner

2013-05-01

Vi fortsätter och avslutar Hur vi värderar information: [Direkt perception, Resonera, Kollektivt språk] och [Representativ makt, Tid] genom att kort diskutera värde / belöning som funktion av tid d.v.s. det område dit vi räkna reward discounting oavsett om det handlar om apor som får små jos-belöningar om de väljer rätt eller när samma princip i ekonometri har försökts ett antal gånger att tas generellt för människan i grupp (i PNAS nyligen publicerade Behavioral economics: Reunifying psychology and economics ger en kortfattad introduktion tillsammans med besläktade områden utan särskilda krav på kunskap matematik, ekonomi eller neuropsykologi).


Min praktiska erfarenhet av att ha försökt ta reward discounting som princip praktiskt som del av en väsentligt större arkitektur av förändringsprinciper för prediktion är minst sagt omfattande. Nyligen efter att jag först läste Time Discounting for Primary Rewards 2010 (publicerad Journal of Neuroscience, Society for Neuroscience, några år innan jag träffade på den: notera relativt diskussionen som kommer att ev. återvända till skillnaden i tidsperspektiv mellan minuter, dagar och veckor) såg jag att principen oavsett om vi nu skattar med hyperbola eller exponentiella-funktioner beskriver det en aspekt av förändring när vi värderar relativt avstånd.


Problemet är att trots att funktionerna tycks enkla (typiskt är de ju bara funktion av motsvarande tidsperspektiv och det markov-tillstånd vi står på avseende aktivitet för objekt vi önskar och verkligheten just nu i övrigt) är de praktiskt ganska svåra att göra något bra av. Något förvånande (inte helt troligt relaterad att det var tämligen många år sedan jag hade sista matematik-kursen på Tekniskt fysik) fick jag praktiskt lättare bättre resultat genom att istället utgå från en äldre besläktad princip från psykologin:


  • Forskning från den fascinerande övergångsperiod när vi tydligt kunde se båda pre-science paradigm psykologi där man reflekterar över sig själv eller enskilda patienter (ex. Freud) men även forskning med kontrollerade metoder närmare dagens statistiskt stabilare forskningsmetodik (ex. Thurtone).
  • Dessutom har vi psykologisk forskning där vi kan se både sidorna samtidigt ex. reflekterande sig själv där man samtidigt söker uttrycka det i matematikens konkretisering.
  • Att det ej är vanligt förstår vi från hur avskräckande misslyckat det normalt nästan alltid bör bli eftersom verifiering direkt på andra personer blir enkelt vilket demonstrerar pre-science-metodikens enorma svårighet att leverera faktiskt värde trots att dess "slutsatser" ofta låter väldigt rimliga.

För Hermann Ebbinghaus's studie av sitt eget minne har vi just båda sidorna. Att resultaten kommer från en person gör det oerhört begränsat samtidigt som försöket att uttrycka matematiska regler gav många efterföljande ett idésystem som i varianter visat sig väldigt meningsfullt och fungerande. Vi kan nog tänka oss att också reward discounting hör till Hermann's kulturella arv via några mellan-steg.


Att se problemet i perspektiv från Hermann's enklare värld gjorde det lättare att lämna att fasta för hårt i att söka återanvända ytan i relationer där inget föreslagit gör annat än att approximativt skatta kurvans typiska siluett.


Området görs också mer utmanande än endast som påverkat praktiskt av vad vi har som faktorer i vad vi kan mäta i kollektivt språk genom att vi i det kortare tidsperspektivet vilket ju större delen av nyheter vi samplar en dag är relaterat bär förändringsvektorer som sämre fångas i reward discounting där reward discounting faktiskt ligger för populationen människor bättre fungerande på det längre tidsperspektivet trots att reward discounting som mekanism för en apa eller människa tenderar att fel-produktera reward allt mer ju större tidsperspektivet är (ett funktionellt samband med fenomenet där vi kan övervärdera svårigheter i utmaningar relativt värde ska absolut mediteras: Detroit-sjukan i nya branscher: Amerikansk defaitism kräver ansvar av medborgare såväl som politiker).


Kortsiktigt betraktande enskilda dagar och deras relativa förändring är det snarast mer funktionellt att hellre se intensiteten relativt tidsperspektivet vilket jag löste genom att mer grundläggande under se kunskapen i sig skapad i flera tidsperspektiv (etablerad kunskap som uttryckt i Blue light, nyheternas tidspespektiv i mitten och vardagens snabba yttranden som vi kan skatta t.ex. från Twitter rörande dess förändring om än ej i absoluta nivåer).


D.v.s. för att kunna tillämpa principer närmare reward discouting är det nödvändigt att se mätvärdet vi skattar just nu från kollektivt språk som data stört av det snabba tidsperspektivet just nu där vi först behöver ställa dagens samplade data mot gårdagens och gårdagens mot dagen innan o.s.v. (differential ekvationer om vi vill skatta funktioner mer än mäta och prediktera). Hur kraftfullt eller deprimerat uttröttat vi uttrycker en händelse i språk (jämför gärna den aktuella nyhetshändelsen Revolution i Syrien som nu pågått länge där vi nu kan se att vi just fått det fenomen jag varnade för 2010: ständiga uppgifter dödsfall har skapat inflation och nivåerna upprör mindre per död än tidigt d.v.s. samma varning jag givit flera gånger och ger igen till de bland Tibets munkar som funderar på att tända eld på sig: effekten det har är nu som jag varnat för drabbad av abnorm hög inflation och har ytterst liten effekt på hur uppgifter om nya fall påverkar mottagaren - om sådant, och jag betvivlar att det som företeelse är värd kostnaden, alls ska göras görs det med kraftig intensitet i en tidsrymd där man har ett antal andra aktiviteter att introducera samlat för att nå förändring d.v.s. när vi gör allt vi kan för att kalla ut folk övergripande i Kina för att störta diktaturen: och hör mig innan diktaturen har fallit kommer Tibet aldrig uppnå något).


Metod för hantering kortsiktig tid har jag haft värde att ta inspiration från Webers banbrytande arbete inom perception för. Vidare kom jag direkt väldigt rätt genom att utgå från hur artikelbeställningen såg ut när jag under ett antal år levererade till IDG. Dessa var ju strukturerade i artikelkomponenter ex. titel, ingress, tre kommenter, bild med bildtext, faktaruta, brötext, knorr, faktaruta: intervju o.s.v. med antal tecken för resp. Vi har ju nämligen i tiden just nu ett samspel mellan etablerad inlärdning av de mer varaktiga egenskaperna hos aktuella symboler d.v.s. dess inlärda reward-associationen och hur symbolen uttrycks just nu relativt dagen innan och närstående (var intensiteten hög igår krävs att den är extra-hög som exponentiell funktion av det idag för att bibehålla samma grad av uppmärksamhet).


Att ifrågasätta och förändra etablerad inlärning för förändring är per individ kostsamt. Konkret är indikerat från forskning (men för vilket vi inte alls har en särskilt fullständig bild) att i det längsta perspektivet hanteras det både av att uttryck samband mellan neuroner avlägsnat genom att "äta upp dem" (motsvarande pruning i graf-teori) resp. etablera nya kopplingar mellan neuroner och neuron-grupper väldigt flexibelt där genetiska och andra egenheter i hur stor andel resp. metod påverkar kan variera en hel del. Stor andel det senare kan vara associerat med mer kreativ fri association runt ett ämne medan mer av det första ger ökad exakthet d.v.s. att investera kostnad komplexitet i neuronnätet genom att antingen:


  • Koppla neuroner tidigt i en konvergens väg till fler vägval.
  • Uttrycka ökad exakthet för konvergens vägarna rörande fler längre sådana med istället färre vägval tidigt.

D.v.s. i algoritm-världens markov-modeller vad som ex. motsvarar om vi arbetar med en två-gram-modell där vi skattar sannolikheter från i till i+1 för tusen alternativ eller om vi stället väljer en tre-gram-modell med färre sannolikheter sparade för resp. övergång.


När vi motsvarande som i Hur vi värderar information: [Direkt perception, Resonera, Kollektivt språk] och [Representativ makt, Tid] vill koppla detta till grammatisk funktion i lokalt kontext och se likhet meller övergripande en individ i dom biologiska neuronnäten resp. skattning för en population är denna:


  • Väljer vi att se lokkal menings-grammatik som rekursiva "Chumsky-parse-träd" är ju dessa just tillstånds-övergångar mellan t.ex. NP- och VP- fras.
  • Genom att sammanfatta ner faktiska ord ex. till NP-fras har vi kastat bort enorma mängder information.
  • För att istället söka det för mer minsta gemensamma troligare i övergång.
  • D.v.s. vi har etablerat en markov-modell.
  • Men där markov-modellen ej gör några särskilda från lingvistiken idé-bidrag till hur vi tränar modellen.
  • Modell-träning är ju istället vad människor gjort genom att beskriva och förklara grammatiska "regler".
  • Där dessa regler är långsiktigt stabila inlärda relationer mellan neuroner.
  • Och i balansering mellan kreativ-bredd eller exakthet-framåt:

    • Desto mer information vi tar hänsyn till i varje övergång när det rekursiva parse-trädet vandras.
    • Ju större komplexitet måste vi investera i att bibehålla tillstånd bakåt som påverkande just nu för att detta ska vara meningsfullt att göra.
    • Och ju större sådan komplexitet vi investerar desto mindre associativ friare påverkan har vi aktivitets-utrymme för i arbetsminne från kontinuerligt fortlöpande kontext.

Jämför gärna avvägning kreativ-bredd och exakthet-framåt med ADHD och dyslexi. En förklaring (ej alla former) vi kan se av dyslexi är att vu har problematisk låg exakthet-framåt där övergripande upparbetat kontext hela tiden distraherar. Möjligen om den förklaringsmodellen håller för flera former (vilket jag inte betvivlar men har ju viss personlig valence preferens från att skapat modellen samt använt den framgångsrikt i prediktion populationen me aldrig test-körd på enskilda individer för tillämpning dyslexi) kan vi tänka oss att det av samma bakomliggande orsaker eller som direkt konsekvens också förklarar de mönster för ögonrörelser man har dokumenterat d.v.s. att de något i feedback påverkas av de distraherande impulser från upparbetat kontext som kommer och approximerar i förändring hur vi samlat ligger tidsmässigt relativt vad vi läser.

Konceptet tycks faktiskt gå att tillämpa för att lära sig nya språk vilket jag alltid funnit väldigt utmanande. Genom att istället för som det vanligen görs just i inlärning fodrande väldigt starkt kontext i exakt-framåt för att lära och förstå samband mellan enskilda ord kan vi lära oss språket och området genom att reducera hur det stör och skapa positiv inlärnings-feedback från övergripande discourse-kontext.

Ett sätt att göra det på är att presentera det nya språket praktiskt via do-koncept ex. motsvarande nyhetsrubriker och enskilda fraser medan övrigt presenteras inte nödvändigtvis perfekt översatt svenska. D.v.s. som en del av er minns lärde jag mig japanska när jag nyhetssamplade Japan med en metod som fodrade göga andelar manuella insatser tidigt i modell-arbetet. Detta involverade att jag läste press-meddelanden, nyheter m.m. lokalt hos en mängd entiteter i Japan för att välja ut bra punkter att fortlöpande sampla en mer komprimerad mindre mängd av än som för engelskan större delen av alla engelskspråkiga tryckta tidningar. Praktiskt gjorde jag det med Translate.google.com och lärde mig märkbart redan efter någon vecka mycket av de japanska tecknen som oftare kvarstod för just komponenter med do-symboler vilka dessutom vanligare för dom tidiga nyhetskällorna uttrycktes med dom japanska tecknen istället för deras istället motsvarighet till våra bokstäver som används mer i brödtextens describe.

När projektet avslutades glömde jag tämligen snabbt det mesta. Men det återanvänder snabbt när man börjar samma sak igen. Jag tror att går man från denna metod där man orkar vidare att börja läsa i describe etableras en stabilare inlärning där man naturligt uppfattar fortlöpande att man behärskar språket d.v.s. som "andra steg" gå till vad som för icke-dyslexier tycks vara det första steget.

Do-symbolerna är ju också just vår etablerade långsiktiga inlärning. Vad som ej allokerar och kräver lika mycket av konkurrent hantering i arbetsminne. D.v.s. vi kan se det funktionella i metoden att denna stabilitet gör det enklare att hantera symbolerna i arbetsminne relativt upparbetat kontext genom att de är starkare uttryckta från den etablerade inlärningen. ADHD och/istället uttryckt för tids-förändrings-dimensionerna kan vi om nu just detta också vore de aktuella dimensionerna för dyslexi (jag tror det är olika dimensioner men att båda typerna av större bredd istället för djup kan komma oftare tillsammans beroende av arbetsanslag delade mellan preferenserna) att kontext upparbetat distraherar från meningen vi läser just nu. Se Bart Simpson som ex. när han fått en forskningsmedicin mot ADHD utskriven:

  • När hästen utanför fönstret dyker upp sitter Bart kvar i skolbänken.
  • Exakthet att fortlöpande framåt fortsätta det som pågår utan att flytta uppmärksamhet hästen värderas mer.
  • Hästens etablerade spännings- och intresse-värde för barn inlärt som do-symboler i långsiktig inlärning gör att vi utan impulskontroll kan investera tid på den trots irrelevant just nu.
  • Ökat prioritet djup gör att vi lättare kan skatta värdet av vad vi gör just nu framåt i tiden.
  • Vår prediktion i reward discounting etableras från ett praktiskt i uttryckt intensitet kortare avstånd som funktion av tid.

Även om ADHD som givet just av ökad prioritet distraherande symbol med högre i inlärning etablerad belöning (eller alt. bara nytt som ju alltid som diskuterat ex. i Detroit-sjukan i nya branscher: Amerikansk defaitism kräver ansvar av medborgare såväl som politiker värderas men vägs praktiskt mot allmänt uppfattad risknivå där kravet på konkretisering är låg därför att området är nytt och mer handlar om allmänna känslor - i modell paradigm scouting) bör öka risken för missbruk (värdering belöning stark-öl på pub relativt behovet att vara utvilad under söndagen för att besöka kyrkan och insupa religionen och kulturens flera tusen år långa tidsperspektiv) är missbruks-personligheten vad jag tror är väsen skild även om den kan komma tillsammans. Missbrukspersonligheten är vidare vad som först etableras med missbruk och är som genetiskt preferens det samma vi i andra sammanhang uttrycker som vinnar-personlighet. Ett ex. från värnplikten och F21:s tjänstehundar illustrerar:

  • Den bästa tjänstehunden har enorm motivation att vinna.
  • Vad den vill vinna är bitstocken som är belöning för att ha följt spåret.
  • Hungern är hög.
  • Och de kan bli närmast abstinenta efter att jag när de ser tecken på att det kommer ske under dagen.
  • Och deprimerat förslöade när de inte drogats med spårande regelbundet på ett tag.
  • De är belöningssökande aktivt utåt istället för att tycka att det är trevligast att stanna hemma i buren och pyssla med halmen eller träspånet.

Men prediktion reward discounting framåt är samtidigt hög. De minns och uttrycker framgången under längre tid om de är etablerat bland de bästa spårhundarna. Den hunger på distraktion och med reducerad reward-discounting skattad efter vinstens belöning, och samtidigt också med större abstinent iver att börja spåra innan och större depression under ex. jul-ledigheternas beredskap med endast två värnpliktiga att promenera alla hundar begränsat istället för normalt en förare fortlöpande.

Om vinnar-personlighet / missbruks-personlighet kommer samtidighet med ADHD innebär det kortare tidsperspektiv framåt med istället kraftigt utökad prediktion av hur belöning kommer se ut relativt hur länge denna belöning får verka innan hungern återvänder. Vi förstår från det att hur vi behöver se på tid också är mångdimensionellt. Den mångdimensionella tiden har jag dock ännu - tack och lov därför att här har vi redan sedan länge passerade gränsen för när matematiken börjar bli direkt torterande komplex för en hederlig man som jag - lyckats undvika genom att hellre frysa perspektiv och dublicera beräkningsresultat från mätvärden längs olika vägar (vilket konkret kommer med kostnaden att vi på samma dator ej kan ta hänsyn till data från en lika lång tidsperiod bakåt ex. en månads engelskspråkiga nyheter publicerade på webben istället för sex månader om vi som aktuellt när distinktionen gjordes endast har ett arbetsminne: d.v.s. beräknar symbolernas långsiktiga do-värde färskt utan hänsyn historik, medan skillnaden annars ligger ungefär en faktor två).

Att skatta och prediktera involverar därför det korta tidsperspektivet för att klara att se det långa framåt i tiden. Men för att kunna uttrycka och förstå det kortare tidsperspektivet i vad intensiteten den ena och nästa dag egentligen är behöver vi resp. involverad symbols långsiktiga redan etablerad inlärning. Är symbolerna naturligt alltid volativa och med väldigt låg realiserad faktiska reward uttryck över tiden betyder det mindre. D.v.s. vi har ekvationssystem av differential ekvationer och differential ekvationer som tar dessa ekvationssystem som parametrar in (därav av att jämförde min realiserade modell för analys av engelska nyheter samlat för hela populationen människor med en tesseract: mång-dimensionella kuber som i sin tur ansluts med varandra mångdimensionellt).

Den viktigaste relevanta repetitionen för data mining och intelligens i politiskt prediktion gömd i det implicita

2013-02-20


Ett urdrag och sammanfattning av längre artikelserie planerad till denna vecka i Nyfiken vital - Människans språk.


En av de mest - personligt - betydelsefulla artiklar jag läst de sista fyra åren är Information, Communication, and Meaning, George A. Miller (jag lämnar som övning till läsaren att försöka hitta på nätet om alls där) där han i sammanfattning föregriper informationsteorin inom de kognitiva psykologin ändå framtill idag (praktiskt ex. rörande image analysis av fmri rörande tester med i hans tidiga arbete närmare informationsanalysen vid mer "manuella" psykologiska tester). Miller var ju också en av de tidiga stora tänkarna och grundläggarna till den kognitiva psykologin, psykolingvistiken och informationsvetenskapen.


Närmare slutet av artikeln skriver Miller:


"It is resonable to asky why we are so redundant. The answer lies in the fact that redundancy is an unsurrance against mistakes. [Jämför gärna också med risk management förövrigt varande det områden där jag mötte informationsteorin först.]. The only way to catch an error is to repeat. Redundant information is an autoatic mistake-catcher built into all natural languages. Of course, if there is no chance of error, then there is no need for redundancy. The large amount of redundancy that we seem to insist on reflects our basic ineffeiciency as information-handling systems. Compared with the thousands or millions of bits per second that electronic devices can handle [...] can chariably be called puny [Miller var förövrigt först med att notera 5 - 7 "gränsen" för arbetsminne vilket är en bra utgångspunkt för att bättre förstå vad han avser]. By making our languages redundant we are able to decrease the rate, Hx(y), to a point where we can cope with what is being said."

När vi ska lära oss sekvenser "utantill" vilket är mycket nära de konkreta försök Millers förklaring avser är detta när det pekats ut med "enkla" formler klart för oss lätt att uppleva lite självklart.


Vår kunskap, vårt intresse och hur vi tänker och känner styr allt övergripande

Övergripande inte bara för individen över intressen, kunskap, humör, vad han eller hon läser m.m. utan också vänner han möter före eller efter idéer utbyts med.


När kunskapen konkret samverkar för uttrycka de komplexa som går långt utanför varje enskilt dokument eller ens alla av våra största välkända corpus. Är vi inte längre i den givna enkla sekvensen vi upprepar tills vi lärt den.


Ungefärlig förståelse av vad t.ex. Stockholm eller en kemisk reagens gör. Dessutom när meningsfull relevans finns samverkar våra konkreta objekt med vad vi redan är, vet och informationen vi fortsatt tar in.


Denna implicita repetition mer kontinuerlig där delar av relationer mellan många koncept kan förstärkas, skapas eller offras för effektivisering via prouning (lättsam sammanfattning pruning inkl. relaterat med referenser The Brain and Consciousness) går långt utanför de vanliga (men likväl innebär verklig praktisk-utmaning) discourse modeller som analysera data nära enskilda meningar i en text normalt använda för att extrahera förståelse från text. Det är väsensskilt genom att dessa i sig inte går att ta vidare till analys av implicit repetition (även om datat de ger givetvis är användbart) därför att deras algoritmer växer icke-linjär i komplexitet.


Snarare är deras ev. motsvarighet i vår kognition just att tolka informationen vi just nu tar in energieffektivt medan andra annorlunda utmaningar kräver att man tänker ytterst annorlunda för att kunna se utan att dränkas i det vansinne i dimensioner enormt komplexa datamängder skapar. Hela det praktiska området för hur vi i det konkreta extraherar enklare data från enskilda dokument finns utmärkt sammanfattat i Speech and Language Processing, Dan Jurafsky och James H. Martinm resp. kompletterat ex. T. Givón två Syntax I och II, eller någon av ett flertal liknande böcker kan ge lite fördjupat perspektiv från en annan vetenskapstradition kompletterande. Att extrahera data bra är även om det ligger utanför huvudintresset här nog så viktigt för att få in data att behandla och av ett idag mycket omfattande referensbibliotek över hela området menar på det allvarligaste att rekommenderad bok är den viktigaste att ha att slå i upp kring allt praktiskt.


Mitt ex. av Speech and Language Processing klarar att visualisera sitt verkliga värde i hur brutalt sliten den hunnit bli på kanske 1.5 år. Klicka för att förstora bilderna.


Relevans i military och business intelligence: Darpa och FBI

Dessa två perspektiv - implicit resp. närmare sekventieull redundans - kan vi fundera över när vi tittar på ex. Darpa's senaste projekt relaterat språkanalys eller tidigare FBI's upphandling för text mining av bloggar, sociala media, forum, instant messaging och allt i övrigt tänkbart över tiden att bli aktuellt i gigantiska internet corpus med ständigt "nya" tekniker och lösningar (själv sorterar jag fortfarande sociala media som antingen mer nära forum eller eg. ganska likt bloggar men med kortare text).


Tittar på vi text och mening vi hittar på internet: hur mycket värdefull konkret information hittar vi troligt direkt (om vi antar att korrektheten för sådant gör det energieffektivt att följa upp den allmänt)? En del del konkret värde finns: Inte minst bara vilka entiteter (ex. personer, organisationer, företag) som har relationer med varandra. Däremot givetvis ingen faktisk kunskap vi bättre extraherar från utvalda datakällor mer än internet generellt.


Och det explicita är vi när vi uttrycker oss oftare också mer noggranna med. Alternativt slarviga där det egentligen betyder föga. Att du ändå behöver tänka efter och sätta koncentrationskraft eller är i affekt.


Båda polerna kan påverka mottagarens värdering av oss (ex. hans är tråkig och berättar aldrig något intressant och hans skämtteckningar är fyllda med racial slures om tyskar och danskar: ska svenskarna aldrig komma över sin historia när du nu vann och tog hela Skåne. Både arg och uttråkad.)


Människan blir enklare mänsklig när flocken växer (lagom)

Tänker vi oss säkert intressant för de som söker reward i pengar implicita eller explicita läckor om företagsaffärer genom analys av information på nätet publicerat av sotra populationer är det föga normalt adderande något inte redan jämförbara eller bättre metoder finns för (ekonomin för en region eller bransch är en annan sak bl.a. därför att vi kan ta ut indikationer av innovation och hur väl sådana orkar tas emot av kund och allt där emellan vilket konkret når väldigt långt med ex. bara med ryggrad i patentansökningar). Ett till ex. jämförbart med patentansökningarna är dataanalysen som får en allt större viktigare roll inom biomedicin: Google: Kvalitetsproblem och Statistik samförekomst koncept: Enkel metod för att förstärka värdet statistik från generellt språk ger vid tillämpning inom specialistområden


Däremot att söka den implicita repetitionen eller de emotionella uttrycken relativt händelser vi objektivt kan beräkna korrelation till (t.ex. förändring av företagsledning) kan vara funktionellt (jag har aldrig prövat det på ett större företag i väsentlig skala men däremot en del 2011 och tidigt 2012 inom det politiska inte utan värde även med då snarast prototyper testande praktiska implementationer) - eller mer vågat (möjligt omoraliskt och ej vad jag själva skulle göra automatiserat) som koncept kanske addera informationskanaler in i populationen för att addera motsvarande priming koncept och mäta reaktionen ("All the people here in Uppsala says Google is afraid of Microsoft and noone really anyway does anything at Google but watching the stock news. How does that make you feel being the new Google CEO and one of the founders? Please anser in a RSS-feed indicated in the meta-data of this page. Thank you, and good luck with your great blog I always read almost daily.").


Praktiskt värde begränsas dock i mängden vi betraktar. Ju större population vi meningsfullt kan avgränsa desto mindre exaktare blir det men samtidigt mer troligt korrekt i det mindre vi kan se. Analyserar vi den lokala livsmedelsbutikens medarbetares bloggar efter implicita uttryck säger det föga troligt något om en ev. kommande upphetsande rea utan troligare något från familjelivet. För däremot t.ex. samtliga politiker i Sverige ev. inkl. tjänstemän som publiceras är det görligt, eller p.s.s. i mer intressant lämpligt i det engelska språkområdet.


Största utmaningen: Tidens hastighet har lite med klockan att göra - Förändringen av intensiteten för språk och händelser är tiden

Ytterligare en begränsning i analys praktiskt och teoretiskt åtminstone så långt jag klarat att se är görligheten att synkronisera hastigheten på tiden in i framtiden när vi predikterat för en punkt nu eller i historien. Utmaningen är att hastigheten här i den mening av hur vi upplever det är relativt ungefär hastigheten saker sker med rent allmänt och inte bara just vad vi analyserar och följer. Finns motivation runt det senare blir fenomenet av och till väldigt märkbart också utan textanalys över stora populationer när olika entiteter försöker överrösta varandra över den kollektiva gemensamma kommunikationskanalyen media, TV, reklam, dagligt tal, tidningar m.m. representerar.


Vi som är åldrade och närmare oss 40 år minns ju också Sverige före internet och fler än två tevekanaler när en populär teve-serie kunde få landet att tystna i fascination över något annorlunda (innan televisionen blev nedring av upprörda medborgare oroade över amerikansk post-Vietnamkrigs-kultur-imperialism, fördumning av the common man of the street man nu hade monopol för att hjälpa att komma rätt, otäcka rednecks i ständigt återkommande serier säsong på säsong utan att folkförflyttningen från hemmet i byn till staden någonsin blev klart, eller radhusområdenas psykologiska-extrempunkter i dramatiserade trivialiteter koncentrerade till extrem hastighet, eller det vulgära Carola uttryckte musikaliskt och kanske på fler sätt: strunt i brist på bättre förutom kanske Onedin-linjen jag som tio åring tyckte var hade många goda artistiska värden).


Att också prediktera sådant brett d.v.s. gå utanför just vårt intresse över kanske i "värsta" fall närmare en miljon koncept är dock mycket mer beräkningskrävande samtidigt som det kraftigt ökar risken för att fel ska propagera från områden där vi inte har riktigt lika bra data (vår kapacitet för mining är ju också begränsad). Samtidigt som sådant om vi håller det separerat i varje ny verklig tidpunkt är typ av data att kontrollera vad vi fortlöpande predikterar mot när det ej tillräckligt tydligt kan verifieras upp till den punkten.


När vi begränsar vad vi analyserar finns risk för nasty surprise

P.s.s. kan sådant när vi ej insett att det ska ses överraska oss. Det blev ju fallet ganska nyligen när revolutionen i Syrien bröt ut som tidigt inte alls fanns på min karta. Om något var det där bara lite mur framför Persien (iran men just sett lite flexiblare över gränserna följande kulturhistorien). Tid är klurigt precis som när vi är upptagna fokuserat själva på något. Vi märker inte tydligt att den behöver passera och kanske missar en buss.


Det störde mig oerhört mycket vid tillfället därför att det var en så fin kedja innan från Syd-Sudan och framåt. Libyen var ju också verkligen så lyckat: viktigt för både Arabvärlden och Västerlandet på väldigt många sätt. Det är konkret viktigt att Libyen lyckas bra i år. Att börja rätt är gör allt enklare därefter. Syrien riskerar att inte bli annat än det otäcka exemplet. Worst-case när diktaturens upplevda huvud i vansinne inte klarar att röra sig. En varning för andra diktaturer ej så förtappade att de hellre förstör hela sitt land för att hindra vad alla utom han själv vill kunna göra. Libyen är mycket mer om saker inte går sämre än nu: En viktig möstespunkt med Västerlandet. Ett ex. på att det går att ta ett förtryckt folk till ett stabilt land. I år är Libyen viktigt.


"Hx(y) can be thought of as the additional information we can expect from each new word in the sequence. Thus Hx(y) is closely related to the rate at which informationen is generated by the source: it measures the average number of bits per unit (per word)".

George A. Miller

Relevans - om vi alls ska förenkla ett begrepp som också måste inkludera vår förmåga att ställa intressanta frågor d.v.s. en kreativ-process där vi ser möjlighet i data att söka djupare utan behov av detektions-baserade regler - behöver därför om det ska vara mer än analys av indata vara vad man kan verifiera ur quality assurance mening på andra sätt än att endast jämföra det med listor av givet korrekta nyckelfakta. Sådana har vi ju redan, och oavsett hur intressant att ta ut bredare, behöver vi för det implicita mäta relevans genom datats förmåga att prediktera världen i konkret mening.


I prediktion är det som för mig verkligen ett privilegium att prestigelöst av och till våg referera det här samtidigt som jag vankligen sedan 2010 påminner om utmaningen synknronisering innebär. Konkret just nu är det "ett antal" månader sedan jag tappat asiatiska publikationer i någon bredd annat än vad jag själv noterat. En känsla jag har sedan någon månad är dock att jag kanske snarast bedömer tiden som för långsam. Jag upplever det inte som fel att mena att det är en karaktärs-defekt hos mig att jag inte vettigt sett till att jag har bandbredd och några till datorer men det är lätt för mig upplever jag att komma i ineffektivt arbete när jag splittrar upp oavsett hur egentligen trivialt det är att lösa för att sampla parallellt.



Relaterat



En till populärvetenskaplig ej länkad i brödtexteb och mer praktiskt användbar guide utan krav på förkunskaper är CIA:s genomarbetade översikt om hur attityder, bias, faktorer relaterat perception, information m.m. påverkar bedömningar vi gör.



Läsvärd är inte minst Chapter 13 Hindsight Biases in Evaluation of Intelligence Reporting och det är värt också att tänka till om hur detta bias tenderar att påverka bedömningar som görs i populationer och när det får betydelse. Kognitiva bias har den styra att vi kan kvantisera dem för populationer d.v.s. uttrycka hur närmare med vilken sannolikhet populationen är till ett beslut (vilken hastighet de fattar beslutet med). Vill man experimentera lite men inte är över-ambitiös i vilket fall man kan göra väldigt spännande saker räcker det bra att när någonr eagerar på en news event berättar du steg för steg att de redan insett det långt tidigare. Inte allt på en gång. Utan bit för bit med små-steg där de första stämmer näras nog helt med verkligheten. Därefter är ni tillsammans på markov-vandring där det bara handlar om att ingenting ska signalera nytt, fara, oväntat, unknown o.s.v. för då söks nu referenspunkt. När det vandrats ett tag har stabila minnen skapats ganska så. Ta också chansen att addera lite vetskap att de är skickliga på ett område de kan men kanske inte direkt överpresterat i tidigare. Korrekt och utan problematik för experimentet ber du om tillstånd en månad i förväg men utan detaljer relaterat metodik. Utanför det är det möjligen rent av olagligt.