Reward discounting skattad från évolués: Hur många år på ett år får vi när Belgiska Kongo blir Kongo-Léopoldville?

2014-06-21

Tänker vi oss att antalet certifierade Évolué sista åren i Kongo innan självständigheten är vad vi för en genomsnittlig individ kan skatta reward discounting mellan och till en genomsnittlig vanlig innevånare i den mening att yttre form uttrycker det värde, den relativa makt, det negativa värde, den motivation, och det hat man mer allmänt upplever mot kolonialmakten.


Kan vi lika förenklat så klart tänka oss att självständigheten är vad man gärna vill uppleva är själva symbolen för att hantera och lösa problem med dessa upplevda dispergenser.


Och från tidigare diskuterat i och där refererade inlägg Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning och Subadditive reward discounting har vi förenklingen att vi betraktar distans som inte mer än reduktion i aktivitet givet en utgångspunkt i dom biologiska neuronnäten (ex. dopamin decay). Särskilt ligger det givetvis nära att tänka tid här eftersom det är den domän där vi vanligen tänker och diskuterar reward discounting bredare.


Men här ser vi det inte som ett antal år in i framtiden vi försöker skatta en vrädeförändring för utan som en fast inlärd given discounting som kommer in i dynamiken under befrielden. D.v.s. ett antal år i reward discounting som ska uttryckas i en absolut tid extremt kort. Minns jag rätt kom befrielsen ett fåtal månader efte rdom första förhandlingarna inleddes. En distans i upplevd värde grundlagd sedan inte fullt 100 år (État indépendant du Congo och Congo Belge avslutades 30 June 1960 när République du Congo grundades som ett fåtal år senare efter statskupp blev mer känt under namnet Zaire: "Zaire derives from the Portuguese word 'zaire', itself an adaptation of the Kongo word nzere or nzadi ('river that swallows all rivers')".


Jag har inte försökt mig på att försöka göra en skattning grovt förhand här (någon relevant statistik språk tvivlar jag på att jag har i tillräcklig mängd från tiden) men kan tänka mig att göra ett försök i morgon eller nästa vecka. Här blir det viktiga - mycket människovänliga - antaganden att p.s.s. vi i Subadditive reward discounting i enklaste fallet tänker oss samma symbol vi skattar discounting för gäller att det här när vi söker faktiskt funktionell skattning av dynamik nära befrielsen att évolués, vit man från Belgien, vilken som helst etniskgrupp i Kongo och alla i övrigt varande i landet ser vad helst man upplever har mer värde än balanserat jämfört med dem är approximativt samma symbol i mening att jämförelsen är fungerande att göra.


Att jämförelsen är ej fungerande att göra är vid denna tid tror jag huvudsakligen en passerad promsande faktor. En av mina böcker rörande kolonialtiden i Kongo inkluderar bl.a. intrycket från individer som besöker utställning i Belgien ganska nära inpå i tiden och får sin världsbild redan på rätt väg sunt normaliserat rörande det belgiska folket (inkl. ingen apartheid i Beligen för dem som besökare oavsett restauranger eller mer moraliskt och folkhälso-problematiska affärsverksamheter där kvinnnan snarare än specifikt färgade tenderar att oftare förtryckas). Men i allt från cargo-cult till att att ha lärt sig förlora riktigt dåligt mot tejniskt bättre utrustade kolonialtrupper kan bromsande faktorer där man inte riktigt ser förtryckaren fullt som vad som har samma dimension att jämföra värde i. Passerar sådana bromsande filter kan man tänka sig att det kan innebära att tiden nivå reward discounting beräknas för kanske delvis kortas ner? I mening att det etablerats oerhört snabbt i om jag tänker rätt nu färre antal diskreta tidpunkter men byggande från intensitet etablerad många fler år men i samma riktning när "pengarna växer sig större genom att gå bakåt i tiden" från exemplet i Subadditive reward discounting. Ett antagande jag kan se att vi inte behöver blanda in tror jag: saker lär bli inexakta nog ändå.


Den roade kan givetvis fundera över det. Jag kommer ej ihåg riktigt hur många certifierade évolués kontrollerade bl.a. inklusive stickprov i hemmet för att bedöma nivå civilisation (udda delar av servis ges som exempel i en av böcker om Kongo) det fanns vid tiden men jag tror ej jag minns fel om jag säger att de inte var över 2000 st. Och hela Kongo cirka 16.6 miljoner 1960. Tänkbart stort för en riktigt explosivt snabb direkt given kraft när så upparbetad "inflation" i människovärde som jag spontant kan tänka mig det i all rimlighet måste handla om med så här tydlig "diskriminerbarhet" i ytligt enkelt att se och märka i vardagen såväl som motsvarande konkreta värden.


Musik tidstypisk från befrielsen av Kongo.

Perception tid: Komplexitet och kontext

Likt Do - Describe från forskning under första halvan av 1900-talet utnyttjar vi här "vetskap" från äldre studier men annorlunda vad som utmärkt överlevt hela vägen till färsk refereslitteratur och är väsentligt bekräftat i andra studier.


Jag utgår endast från vad refererat bland mina referensböcker inom psykologi och söker hålla det som uttryckt och refererat i Sensation and Perception (Schiffman) för att slippa referera studierna eller bedöma dem.


Kemisk "down": Kortare tidsupplevelse

Välkänt är att centralstimulerande droger förlänger tidsupplevelse medan lugnande och sömngivande droger förkortar upplevd tid. Båda i mening av hur vi skattar längden på en absolut tidsmängd.


Detta ligger med andra ord nära (men egentligen inte direkt motsvarande) hur jag ser på tid som intensitet per diskret samplingspunkt när nyheter m.m. tas in för automatiserad analys. Snarare än att direkt motsvara detta gäller att mängden neuroner som naturligt involveras i varje konvergens kan vara större och föreligger inlärning mot en annan basnivå bör det utan någon tvekan alls inverka tydligt på hur vi upplever tid i sig jämförbart med hur mycket eller hur lite vi gör när kraftigt avvikande från normalt för oss påverkar hur vi upplever tid.


Lustgas

Lämnande pentobarbital m.fl. droger där det är dokumenterat noterar vi det istället särskilt för lustgas. Lustgas verkar ytterst neuron-nära på själva mekanismerna för inlärning och just genom att inverka så pass lokalt och samtidigt för alla med föga diskriminering över typer saknas påverkan sammanhang oavsett om vi ser det som tid eller pågående.


Det är tror jag heller inte korrekt att se lustgas som motsvarande ex. pentobarbital reducerande aktivitet utan korrektare tror snarare är att se det som att göra just kontext meningslöst försvinnande.


Utan kanske kan rent av faktisk aktivitet ses som konstant under lustgas medan komplexiteten per konvergens går mot noll samtidigt som sammanhanget meningsfullt för varje konvergens går mot minsta tänkbara enhet.


Ej egentligen att vår upplevelse av tid givet samma information självklart förändras utan att det bl.a. inte finns någon passerad tid att jämföra pågående representation med. Via NMDA (kemiskt lika enklare kväve-syre-föreningar) indikerad inlärning men där relationer tid, sammanhang samma tid eller magnitud saknas innebärande att ingenting betyder något men p.s.s. ej heller påverkar framåt i tiden vad vi kan lära av det (och därför att lustgas hör till det säkrare vid mindre ingrepp åtminstone från aspekt av beroenderisk samt varför en del studier indikerar en möjlig snabb effekt mot depression: indikerad inlärning i vad feedback det gör i övrigt men ej problematisk irrationell mening i det utan just inlärning utan innehåll - om jag ej förstår NMDA fel).


Komplexitet

Vi hittar också studier refererade indikerande att visuell komplexitet såväl som komplexitet musik upp till en viss gräns ökar mängden upplevd tid.


Familiarity

Och välkända välrepeterade upplevelser vi lärt väl hur vi gör upplever vi kortare förfluten tid för.


En komplexare värld

Ingenting noterat tid avviker egentligen vad tidigare diskuterat rörande reward discounting men det understryker en praktisk utmaning jag ej brydde mig om att beröra: Hur vi hanterar att symbolen vid resp. diskret tidpunkt ej förekommer ensam i resp. sammanhang utan tillsammans med andra symboler.


Samtidigt kan man argumentera att svaret delvis i alla fall är indikerat av de algoritmer för användning av princip diskuterade. D.v.s. vi har för ett sammanhang en verkande komplexitet där denna möjligen behöver skattas för varje symbol avseende dess perspektiv till övriga för att få komplexitet verkande just för denna symbol (via similarity i min värld). Och komplexiteten ger oss modifikation av intensiteten under antagande om ett fast antal personer som processat sammanhanget (utan detta antagande gäller att hög komplexitet kan motsvara ej högre modifierad intensitet total utan istället mindre därför att färre processar det hela då det tycks tråkigt eller komplext men för jämföra entiteter publicerande kan man nog strunta i det ex. för nyhetstidningar separerande forskningsartiklar).


I den mening gör vi nu samma sak som indikerades i Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning och hämtar därefter upp den modifierade intensiteten. Innebärande bl.a. att de symboler mer central för mening och betydelse i sammanhanget ger oss högre modifierade intensitet än initialt från start under antagande att vi i slutet ej accepterar att vi introducerat symboler existerande som ej från början var givna.


Praktiskt kan man göra en del varianter jag ev. kommer avstå ifrån. Vi kan ex. normalisera distans mellan två symboler mot hur troliga två symboler är att förekomma tillsammans. Ett generellt värde av de similarity operatorer jag infört är att kunna ta ut sannolikhet för samförekomst mellan godtyckliga symboler utan att faktiskt ha det för samtliga tänkbara relationer (givetvis inte perfekt men heller inte direkt dåligt). Det i sig gör samtidigt att jag är ganska försiktig med hur jag använder data för samtidig förekomst i övrigt.


Vidare för effektivitet kan man reflektera om det kanske vid processanda nyheter räcker att betrakta resp. symbol samlat för en dag och där hantera relationer upparbetade över samtliga nyheter eller om man mindre effektivt i beräkning vinner tillräckligt mycket på att göra skattningarna för varje nyhet som processas. Mitt svar på det ännu i alla fall är att default är det mer effektiva medan övriga möjligheter sorterar tillsammans med annat dyrare likt natural language processing man gör efter mänskligt beslut (men därmed inte sagt att jag värderat det potentiella värdet vs kostnaden perfekt här ännu).

Do - Describe från forskning under första halvan av 1900-talet

I domän av att söka praktiskt fungerande algoritmer för textanalys fångande både praktiskt fungerande i hastighet och exakthet såväl som människans natur är en tror jag ofta mindre vanlig egenskap av och till uppträdande där man kan vinna inom särskilt flera delområden på att betrakta äldre forskning.


En (men inte ända) orsak är att i vissa delområden har man längre bak i tiden - ibland praktiskt styrande konkret för vilka projekt och idéer som orkar vidare styrande åtminstone fram till och med 1980-talet - haft bra idéer som utgångspunkt men ej dataresurser för att verifiera dem praktiskt. Faktiskt gäller att en hel del vi sett publicerat sista tre åren rörande vissa områden inom sociala media såväl som natural language processing och sociologi har utgångspunkter likartat vad som finns publicerat med början 1950-talet och till och med cirka 1970-talet men där det förr egentligen utanför en bra idé inte nådde till något givet att både data i tillräcklig mängd såväl som möjlighet till god hastighet analys på data som fanns saknades: Inget internet med människoflockar som självorganiserat uttrycker sin sociala dynamik förenklat och heller inga datorer att analysera sådant data med.


Ett till område där något av samma fenomen finns är data- och statistiskanalys av språk. Chomsky's koncept lugnande ned övriga angreppsvägar för språkförståelse och det gör att man utanför större idéer som jag tror normalt överlevt uppvaknande efter att den i allt praktiskt (givet dagens datorer) mycket kraftfullare statistiska utgångspunkten till språkföreståelse vaknade upp under 1980- och 1990-talet - också kan hitta enstaka tämligen intressanta studier noterande ett fenomen man i modernare referenslitteratur ej hittar. Bortglömt men intressant.


Jag känner ett fåtal sådana berörande delvis kan man argumentera vad diskuterat i Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning och föregående inlägg jag skrev när jag refreshade upp ett viktigt delområde för mig inför att det ska gå in i interaktion med nya versionen ganska snart med ev. nödvändiga eller önskvärda uppdateringar i subsystemet.


Föga förvånande är det i en av de sista referensböckerna kraftigt kulturnära den databaserade och statistiska metoden som gjordes i bleeding edge position innan Chomsky-kulturen började gjorde området sämre prioritera. Och trots från 1969 faktiskt delvis diskuterande just hur man gör databaserad textanalys (inkl. skisser på hålkort) och refererande inte sämre kunskapssystem än jag noterade att Jurafsky författare till en mycket modernare referensbok (min favorit) inom statistiska metoder (Speech and Language Processing) använt det nyligen i en publicerad studie (delvis utgår jag från i brist på bättre då jag själv för samma område Jurafsky använde det förvisso utnyttjade ramverket som en av flera utgångspunkter men heller inte menar ens med flera riktigt håller hela vägen utan en försvarlig manuell kvalitetskontroll av fler än ett tusentals ord).


Boken är givetvis Content Analysis for the Social Sciences and Humanities. Letande efter sidan med refererade studier hamnade jag förövrigt på en metod som jag delvis såg som intressant för praktiskt värde och som jag nu senare efter att också sett över samma område i modernare studier och referensböcker inom lingivistik vet har tagits upp igen (delvis tror jag oberoende eftersom Osgood är mindre känd inom lingivstiken) i området av att bygga upp common sense från vetskap man extraherar ur text. Jag föredrar fortfarande hur Osgood formulerade det som indirekt uttryckt av Holst:


"An 'atomic' approach to coding for intensity, 'evaluativ assertion analysis', was developed by Osgood, Saporta, and Nunnally (1956, Osgood, 1959). The initial step is to translate all sentences into one of two common thematic structures:

  1. Attitude object / verbal connector / common meaning term.
  2. Attitude object1 / verbal connector / attitude object2

For example, the sentence 'An aggressive Soviet Union threatens the United States," is translated to read:

The Soviet Union / is / aggressive.
The Soviet Union / threatens / United States."

Intressant med systemet ovan jämfört med mycket jag sett i senare system för textanalys för att ta ut common sense nära enkla korta fakta av typen a is b är att man här inser åtminstone indirekt samma egenskap verb i allmänhet (både tror jag engelskan och bredare alla språk med eller utan specifikt avseende verb) att vi har ett tillståndsberoende såväl som vad som faktiskt sker förändrande eller pågående. I ex. ovan finns en implicit natur eller tillstånd antaget som givet för entitet Soviet Union där första meningen separerar ut något av hur handlandet endast bedömt från threatens bedömt från underförstått av verbet bör verka upparbetande mot detta bedömda totala tillstånd.


Type-token ratio

Vi minns från Subadditive reward discounting särskilt referensen till divergent tänkande. D.v.s. att konvergens ej sker på samma nivå som vid ett lugnare mindre ångest-drivet tillståndet utan i större mängd expanderar ut till mindre troliga lösningar existerande samtidigt med de troligaste vi ändå slutligen (om ej i psykos åtminstone) konvergerar till men där konvergensen givet fler starkare såväl som svagare lösningar samtidiga konvergerar med mer brus.


Boken refererar relevant detta en för tiden inte ovanligt så liten studie att man knappt vet om man alls kan bedömda något av den (åtminstone när nu mindre efterföljande finns). 12 patienter med schizofreni resp. 12 antaget friska studienter slattade man type-token ratio för med lägre värde för de med schizofreni.


D.v.s. tänker vi oss nu att vi modulerar intensitet bl.a. av brus i något steg. Jämför som välkända lösningar för att ta diskriminanter för att översätta språk i ljud till språk i text där avstånd från förväntat medelvärde dividerat variansen är kärnan i flera algoritmer och lösningar som är ytterst funktionella (ett exempel Mahalanobis distance). Kan vi tänka oss att vi omvänt till ett potentiellt värde i kreativt divergent tänkande när meningsfulla nya lösningar kan upptäckas en kostnad när det mer allmänt irrationellt pågår:


  • Expansion sker till tänkbart fler typer för samma indata.
  • Detta motsvarar kreativt tänkande.
  • När det mer allmänt sker kommer samma typer från annars kreativt tänkande tendera att dyka upp i allt fler lokala samman irrationellt.
  • Variansen för sammanhang resp. typ förekommer ökar ständigt så länge de abnorm association i bred alltid fortgår.

Och fenomen jag upplever mig sett i text utskrivna av schizofrena från andra studier där underliga associationer hoppar irrationellt från lokalt meningsfullt till något annat men ändå med konvergens påverkan från övergripande kontext ej rationellt faktiska för sammanhanget sker.


Det vill säga även om jag tror att resultaten från studien kan stämma tror jag att beroende på hur man mäter, i vilka sammanhang och hur man avgränsar fönster på enheter för text att man också kan få resultat som visar på att type-token ratio istället är högre än normalt:


  • Motsvarande associerande från ett litet kontext som indata kan det bli större.
  • Beskrivande samma dagliga fenomen dagligen kan det bli mindre därför övergripande kontext ej rationellt del av vad som beskrivs ändå kommer in påverkande beskrivning (samt också tror jag del av den kognitiva kostnaden brus allmänt innebär reducerande allmän förmåga).
  • ¨

Mer brus allmänt gör att fler ord krävs för att säga samma sak.


DO - DESCRIBE

Citatet med evaluativ assertion analysis såväl en studie liknande den refererad för type-token ratio fångar något av mening jag lägger i DO och DESCRIBE. I denna studie - också farligt liten - såg man att schizofrena använde färre adjektiv per verb jämfört med antaget friska.


Utgår vi från den förenklade förklaring jag försökte ge till fenomenet rörande type-token ratio kan vi se DESCRIBE för ett realiserat DO i mening av konvergens som det allmänna tillstånd denna konvergens sker från. D.v.s. vad som vid schizofeni kan tänkas inkludera mycket mer aktiverat föregripande ökande mängden brus. Att söka beskriva ett DESCRIBE meningsfullt kanske också blir jämförbart svårare motsvarande den större komplexiteten från fler underliggande typer man hade kunnat konvergera till med viss sannolikhet resp. kostnaden helt enkelt från mer brus.


Har vi resonerar fel? Eller infört ett felaktigt antagande?

Idéen med likhet mellan divergent tänkande och schizofreni är gammal när jag sökt sätta funktionella algoritmer djupt ner användbara.


En alternativ förklaring som praktiskt som jag åtminstone förr resonerat är tror jag samma sak finns:


  • Det är inte just divergent tänkande som sker vid schizofreni.
  • Utan helt enkelt konvergens från mer brus regelmässigt.
  • Diskriminerbarhet accepterar helt enkelt mer brus som påverkande.

I någon mening vad vi kanske kan se som att perceptionen uttrycker högre brus än vad kognitionen och förmåga att ex. i språkförståelse tolka ut typer från är inlärd för att förvänta.