Visar inlägg med etikett Reward discounting. Visa alla inlägg
Visar inlägg med etikett Reward discounting. Visa alla inlägg

Att hugga av den geo-politiska elitens latenta överträning och fixering

2018-01-10

Vi började med 400-dimensionella "probalistisk PCA" skapade vektorer koncept i några varianter. Därefter igen dimensions-reducerade till 300 tematiskt topologiskt sorterade (i en cirkel snarare än den annars populära disken) för meningsfullt sorterat människan Hans (för enstaka förändringar nyckelkoncept, noterande problem m.m. långsiktigt underhåll tillbaka till varifrån det skapats från) och bättre prestanda än 400 ger. Någonstans 300 - 400 förväntar man sig också om ej arbetande med mer konkreta relationer mellan koncept att en för normal användning god avvägning uttryck exakthet resp. förmåga att ge meningsfulla "sammanfattningar" så att säga: Är vi väldigt exakta många dimensioner svårare att få stabila allmängiltiga positioner som kan kombineras linjärt för ämnen utan att behöva träna fram någon ny viktning för varje användning. Generaliserar bra.


Versionen 300 för ord ( mycket mer sådant än fler-grams-varianten resp. flergrams- och relations-varianten bl.a. därför att den med endast några hundra tusen ord lättare fick mer manuell tid med mång-miljon flergrammen gick: Förväntar mig vanligen inte att få ens värden annat än -1, 1 men hr kommer de 0,1 ). Tränande geografiska representationer personer, platser resp. en del språk-specifikt - cirka 70 000 antaget positiva i tämligen hög andel kontrollerade resp. vanligen 47 000 någon subtraktions-operation sker på - vidare önskande testa ett par koncept vidare organisation presenterar sig tre möten väldigt abstrakta koncept direkt gående in i konkret lösning från dels mycket direkt relaterat resp. unification av temporal discounting, med bl.a. medicinska-behandlings-modeller, samt organisation information och perception direkt, via erfarenheten över- och underträning. Lämnande det till om här alls sist använder vi emellertid för att inleda istället något annat än visualisering från denna unification.


Vi tänker oss en enkel två två-dimensionell kurva beskrivande något data. Säg nu att datat är parabeln för ett föremål som kastas i rummet. Vi antar nu ett barn med koncentrationssvårigheter som antingen är medicinskt under- eller överbehandlad ex. metylfenidat (eller jämförbart påverkande via kända enkla modeller temporal discounting reward value via modifikation dopamin).


Överbehandlad kan hyper-koncentration uppstå (eller för missbrukaren tror jag att en motsvarighet sökande erfarenhet nätet kallas punda: Vilket är ett ord jag känt tidigare men ej detaljförstått. Troligen samma sak men mer absurt övertränat till discounting reward mer eller mindre ej en fråga under säg en dags-tid.). Koncentrationen kommer åtminstone om hyper-fokus inducerats i förändring dosering (vi kan spekulera att för konkret perception är så pass tydlig direkt effekt annars mindre trolig oavsett om själva den medicinska frågan för läkaren om att bestämma rätt dos föreligger vilket vi här ej bryr oss i.) föranleda att föremålet följs väldigt exakt. Lite samma effekt lärare och föräldrar gärna efterfrågar.


Temporal discounting verkar i motsatt riktning. Reward längre ifrån oss tidsmässigt reduceras i vår upplevelse i mening påverkande beteende och tänkande just nu ju längre fram i tiden. I väldigt kort tid kan färsk information om vi istället för hyperfokus har nedsatt koncentrationsförmåga tendera att passera förbi här om discounting är hög. Är discounting hög för pågående händelse är vi också mer benägna att lämna aktiviteten tidigare också rent prospektivt utan säkert värde. Är information från en sådan alternativ "händelse" vi kan delta i ny eller kommande snabbt är vi mer benägna att processa den kognitivt adderande något till perceptions mer för oss automatiska hantering. Vi flyttar uppmärksamheten till ett plötsligt ljud. Värderar vi ett långsiktigt värde mycket högt med föga discounting - säg att vi är en kirurg som skär i någon dödlig del av kroppen - när ett ljud vi annars reagerar för inträffar (därför det kanske indikerar en omedelbara) kan ibland extrem koncentration vara möjligt. Kirurgen varande mer eller mindre närmare övertränad på åtminstone basala ingrepp ej nya för honom efter en åtta års grundutbildning kanske lättare klarar detta.


Säg nu att vi skattar något som ska motsvara vår kurva. Övertränar vi får vi gärna något exakt. Men kan p.g.a. komplexiteten i förhållande till mängden information hamna i stora svårigheter för varje ny bit "tid" eller geografiskt avstånd som vi därefter ska försöka tillämpa vår skattning på. Det klarar normalt sämre av att generalisera. Är det undertränat får vi en dålig beskrivning normalt redan av kurvan vi använder för att göra skattningen, och normalt lika dålig på okänt data. Ibland gäller att övertränat kan fungera bitvis bra för att plötsligt "irrationellt" förändra sig fullständigt på förändringar träningsdata ej behövde använda eller hade.


Söker vi nu topologiskt organisera koncepten diskuterade tidigt och gärna gillande en geografisk motsvarighet hur saker ligger i världen kan man pröva lite av varje och få vad man söker ganska lätt för säg länder m.m. Inte minst om man utgår bara från deras konkreta position på jordklotet. Vill vi emellertid att det meningsfullt generaliserar sig till personer, kulturella fenomen, språk o.s.v. utan att behöva engagera sig i varje dimension i 300-vektorerna vi utgår från blir det gärna (åtminstone lite tidsödande givetvis) mycket mer en fråga om att undvika för effektiv information.


Det hela kan självorganisera sig utmärkt i princip användande en eller ett fåtal givna 300 positioner i vektorerna. Särskilt om vi säg utgår från 4000 mer väsentliga geografiska koncept (länder existerande, som existerat, större städer, vissa folkslag o.s.v.). Konceptens vektorer har utan tvivel vad helst information nödvändig för att få ut kopplingar till övriga kulturella fenomen som kan vara nödvändiga för det färdiga senare att kunna använda för att rätt sortera vad helst rätt (pottery, chinese-style porslin, westerned-styled democracy, indo-indian relationer, Cassius, Bokassa, typiska namn över kulturerna o.s.v. Saker en anmänbildad antikvitetshandlare eller krämare av begagnade böcker kan tänkas klara i begränsade områden för viktigare kulturer de möter. Den tyska inredes-designers kan igenkänna en svensk björkmöbel hemmasnickrad under något ej brutalt långt ifrån våra svältperioder).


Antar vi att varje vektor-position är ensamt meningsfull är det hela på många sätt enklare när åtminstone en färdig sortering kända koncept finns för något avgränsat kulturellt. De är sorterade ut över sina ämnen. Emellertid är poängen med 300 ej just detta i sig utan att de tillsammans klarar att uttrycka en mängd "mellan-relaterade-ämnen" som ej ryms i 300 positioner att fått en färdig 400 dimensionell vektor tränad som sedan värdena kan skapas via.


Kommer Tyskland in för att användas för att sortera upp och extrahera ut representationer. Har den kraftfulla uttryck särskilt rörande en del geo-politiskt (w-ii resp. post-w-ii organisationen av världspolitik jag i så mycket sett saker gärna i vad helst geo-politiskt man önskat sortera kommer fram om ej specifikt ej önskak: Här med de färre 4000 så slöts exempelvis världen i cirkeln med ett litet "geografiskt hopp" dock på andra sätt begripligt när man sett det här tidigare genom att Japan fick bli brygga till Europa anslutande Tyskland som närmast centralitet. Lika gärna att de hade kunnat av samma orsaker blivit USA som mellan-brygga medan de här kom att ansluta Japan konkurrerande Kina ej helt tillfredsställande poå andra sidan och avbrutet innan det hela bestämt sig helt). Låter vi nu saker träna sig fritt som det vill överuttrycks den information som är bäst när konceptet Tyskland ensamt används som det är med övrigt försämras i hur det återanvänds. Självorganiserar vi sorteringen besläktat med hur 300 gjordes med ej sprider sorteringen brett nog kan vi också troligt få personer, länder, föremål, oavsett om geografiskt nära-liggande sorterande var för sig. Här såg jag det aldrig med hindrande det redan i första försöket.


Man kan pröva lite av varje för att lösa det här. Man kan tänka sig mer avancerade lösningar - i mening krävande att man för-planerar dem längre tid snarare än att pröva dem praktiskt enkelt kontrollerande effekten - men ett fåtal enkla tycks ha räckt mer än väl. Ej säkert för resp. att alla är nödvändiga eftersom de typiskt tillförts antingen vid demonstrerat behov eller när de tidsmässigt kommit nära där behov uppstår. Exempelvis rörande tunga positioners inverkan är det egentligen mindre en fråga tidigt i organisationen eftersom dessa fungerar väl för att ge samlande över alla positioners sortering. Utan problemen uppstår lokalt vilket är en växande problematik ju fler förändringar som sker lokalt en plats från konceptet kontra hur mycket det inverkar övergripande sortering.


1. En konceptuell blandning av bulk och online görs. Vi kan vi storleken här delvis delvis från andra lösningar nedanför styra prioritet övergripande sortering kontra enskilda positioner. Liten bulk med stor påverkan alla positioner prioriterar övergripande sortering mer effektivt - särskilt om saker ej konvergerar som riktigt önskat - medan stor bulk ger större effektivitet lokalt.


2. Därför att bulk kommer normaliseras och storleks-frågor på dem mer direkt motsvarande online-lärning eller alla koncept i en bulk finns inte riktigt på samma sätt. Har vi ej påverkan ut är skillnaden mellan ett bulk-koncept lokalt gjort av 10 eller 10000 koncept ej helt - men delvis - samma sak som om vi tränar dem var för sig. Under förutsättning att L2 normaliseringen sker på de adderade koncepten.


3. Ett sunt sätt att förstå regularisering är tycker jag egentligen fysikens modeller för partikel-sönderfall m.m. Decay av vad vi redan lärt. En kulturell slump mer sannolik i den lokala kulturen givet preferens att förstå och resonera med gradient descent ger dock att det vanligen förklaras via andra modeller vilket ger stark preferens användning för L1 resp. L2 normalisering. Det kan rent av tyckas att annan regularisering bör bli samma sak som den eller den andra. Praktiskt är det knappast i någon situation där regularisering mot överträning krävs någonsin fallet att konvergenser teoretiskt visade av den här typen inträffar. Och även om jag använder L2 just nu går det mycket väl att snabba upp regularsering när högre värden än önskat viat sig (med endast Kohonen såväl som den vidare byggda lösningen här är en period av hårdare regularisering aldrig ett problem under förutsättning att positionen alls hinnder med d.v.s. så länge vi ej drar bort mer än som kommer in: Förändras det samma över positionerna fortsätter organisationen omedelbart där den låg och effekten kan enkelt följas.) av "1.25 - 1.5" regularisering. D.v.s. önskande en polynom effekt så att vi ej gör decay utifrån en procent-andel (så som momsen) utan att decay är större om värdet är högt (så som marginalskatt) då låga värden ej är problemet eller vad vi enkelt ens kan bedöma ensamma om de är bra eller dåliga (dessutom tenderar L1 om annan regularisering är låg eller ej sker att döda positioner för att samla träningen till ett fåtal positioner d.v.s. görande den dimensionella överträning vi här ej är intresserade av. Ibland använt för att identifiera features även om jag tror även om det värdet ofta diskuteras att L1-regularisering används av ungefär samma orsaker som L2 och vanligen görs lugnare kombinerat annat så den endast håller ner värde-tillväxt så "evigt minne" ej blir resultatet). x * ( 1 - abs ( x ) ) kontra x ( 1 - ( abs (x) )**0.5 ) har i det senare värdet praktiskt när snabb effekt önskas att vi för värden under 1 för x får ut något mer substantiellt likt L1 men fortfarande i beroende storleken på X. Stora värden
reduceras mer. utan att behöva kombinera L2 med L1 vilket lätt tycks praktiskt men praktiskt är otympligt i hantering träningskonstanter. 1.5 har aldrig givit mig andra problem än L2 lika gärna kan (äver threshold så kan upp till hamna att allt sorteras i en stor hög därför övriga subtraherats relativt snabbare.).


Regularisering skiljande lokalt sättande resp. spread för övergripande sortering prövade jag men gillade ej prestanda-förlusten. Jag tror ej jag förlorade något på det heller. Separering tycks såväl elegant som kraftfullt och flexibelt. Men praktiskt tror jag mig se bakåt att man får allt värde ändå bytande över lösning. Ej otroligt bättre praktiskt därför att man gör det förhand i samband med att utsträckning spread förändras.


Träningskonstanter nivå regularisering via polynom hanterades bäst via automatiskt lösning utnyttjande norm för L1, resp. högre normer ex. L3 och L4 tillsammans. Tittande bl.a. på skillnaden i storlek mellan en låg norm (som L1) och en hög norm (som L4). L1 adderar värdenas absolut-belopp. Medan L4 adderar värdena upphöjt till fyra. Så har en eller flera positioner onormalt höga värden än normalt förväntat kommer det förändra förhållande mellan ex. L1 och L4 normen. Dock är värdet av prestanda man vinner på att beräkna vilken som helst av dom hellre än två till fyra upplevt större än värdet av att det bättre sköter sig självt i inställning konstanterna. Tagande bara en och ej helt att det ej fodrar att man ändrar om av och till när spread-mängd ändrats eller ett ej litet antal koncept tidigare positiv träning flyttats till negativa. En variant prövad tidig som jag ej minns hur väl den var jämfört med flera andra prövade för kombinationer kommer av en den similarity-variant jag ibland använder: Distans-l1 / ( 1 + similarity-cosinus ). Jag tror utan någon teoretisk-tanke bakom det att om bara en norm används får man ut mer av att ej använda värdet för samma polynom vi använder på positionen.


Vi reflekterar här att om vi tränar endast en representation utan sortering över positioner med positiva och negativa samples gäller att regularisering endast egentligen för en position har att göra med övriga positioner. Vi kan dra ifrån mer för en position med större värde relativt övriga. Här när vi tränar en mängd sådana samtidigt där de är topologiskt relaterade varandra är belopp-storleken på ex. norm beräkningar (eller kanske något annat meningsfullt) vad som ger ett sammanfattat uttryckt hela vektorn som kan jämföras övriga befinnande sig på samma "abstraktionsnivå".


4- För förändring koncept-vektorerna. Resp. värde huvudsakligen förändrat via x**(0.08) ). D.v.s. tagande upp låga värden mycket medan höga värden ej förändras lika mycket. Om pottery relaterade dimensioner är något mindre för någon region där mycket hittats än säg en senare oljefyndighet är ej relevant i samma storleksskillnad som värdefull i andra sammanhang. Båda ska kunna geo-sorteras. 300 vektorerna efter-behan dlades bl.a. med en log-oöperation (minns ej vilken) men ganska normal för sådant utan tvekan. Det här är verkligen av samma natur.


3. och 4. kommer här ge typiska värden för en position så att det högsta värdet kanske ligger 0.07 - 0.08.


5. Frihet att kunna välja om samples för bulk dras med eller utan återläggning över alla positiva samples ger att negativa samples alltid dras med återläggning. Vilka icke-diskriminerande, ej utnyttjande likhet, subtraheras från den bulk som föredraget en viss position (d.v.s. ej relaterat något omedelbart när likhet beräknades eller konceptens egna representationer). Meningsfull inlärning men ej lika värdefull givande stor frihet i antal och vilken vikt vi drar ifrån med (här 0.10 till 0.25 lite varierat och cirka 2500 med återläggning dragna varje gång). Också givande viss robusthet mot vissa former av överträning som ibland uppstår om sortering tar lång tid kontra antalet operationer som sker lokalt på vinnande position. Samma mängd negativa samples alla positioner drar ifrån men var och en drar alltid en färsk uppsättning. Vi kan se resultatet om vi så vill samlat nära slutet som varande istället en tänkbar ensemble av representationer skattande den som ska uppdateras (särskilt med stor bulk).


6.1. Att först skapa en bra geo-organisation från goda geo-koncept som länder. Och därefter fylla på med från 4000 till cirka 80 000 koncept visade sig fungera väl som det verkar utan att störa organisationen. Ev. problem i övrigt har ej bedömts i övrigt. Inga personer m.m. sorterade separat. Ingen lösning i övrigt. Och flera av typerna regularisering ovan avslagna.


6.2. Alternativ lösning utgick från samma karta men tog bort 30 stycken för bättre prestanda - landande 108 (den andra 148: Färre är prestanda värde praktisk användning processande text) - och tränande sedan med full spridd vilket är brutalt tidsödande. För den får man ej bra lösning utan fler åtgärder. Följande ensamt räcker antagligen i sig självt - tycks så - utan några säkra problem (även om jag tror en lätt mer avancerad variant handbedömande ut några grupper av vektor-positioner som behandlas lite olika):


Högsta värdet i vektorn används ej. Givet regularisering i övrigt tar det geo-relaterade positioner i övrigt för ex. en person till ungefär jämförbara med de som när största värde har med kart-geo-koncept att göra. Information i övrigt tycks räcka mer än väl.


I variant medelvärdesbildad omedelbart näraliggande. Och vissa positioner om de är vinnare görs ingen förändring för utan de används alltid.


Jag upplevde - någon perceptionell-mönsterigenkänning säkerligen för mig och många andra oftare rätt än alla matematiska bevis som flera år ansågs av så många som påverkade ens information var som den naturliga helheten i varje problemlösning - när jag läste artikeln nedan att värdet där demonstrerat någonstans antagligen är besläktat med vad jag gör när jag kastar det också värdet i vektorn för tränings-konceptet.


All-but-the-Top: Simple and Effective Postprocessing for Word Representations | arXiv:1702.01417v1 [cs.CL] 5 Feb 2017
Jiaqi Mu, Suma Bhat, and Pramod Viswanath, University of Illinois at Urbana Champaign.




Självregularisering. Blir lite osäker på lyriken här men kan miss-minnas. 16 in the clip and one in the whole. Ungefär samtidigt här var ju glock med den egenskapen mer funktionell minns jag från Soldat-läroboken (dock saknande husqvarna fina svenska ursprung såväl som av och till stokastiskt när åldrade spännande pann-skade-incidenter. Idag gör de kylskåp åtminstone. Osäker om motor och vapen-industrin alls finns kvar hos dem. Många svenskar tror jag egentligen önskar en Landsledare som likt jag tycker att en svensk soldat förtjänar en svensk-pistol och ingen tysk-plast-leksak såväl som en massa bra saker för alla andra också förtjänade sedan år men evigt som det är evigt försenat. Bättre filmer och musik, artig kassapersonal, god tillväxt utan något av dagens kultur av att jaga upp varandra och sedan grina i tidningarna om helvetetes-ekonomin ECB, EU m.fl. lagt sig till med. För svåra världs-frågor som sådant kan nog många önska Världs-Hans. Svenskar tidigt hjälpta här kan få flera egna år av bra vulgär-kultur och artig kassa-personal. Och det är mer både absolut och relativt. Ev. ungdoms-kulturen som är orsaken alla problemen listade. Sämre generationer helt enkelt än under Guldåldern vi bestulits på.). Nå lyriken är nog korrekt. Fick för mig 15 + 1.





































Uppslag inlägg: Nästa vecka kanske

2016-12-21

Våra nya svenska pengar. Hur inverkan storleken på mynten på konsumtion?


Goda möjligheter till feta illustrationer.


Inverkan ansträngning på upplevt värde resp. Effekt av upplevd reduktion egen-värde på motivation politisk förändring (revolution)

2015-09-26

Jag tror säkert man har rätt i slutsatsen här men att reflektera mer abstrakta egenskaper med utgångspunkt applikationer ekonomi och politik (kanske bredare sociala förändringar och utveckling vetande) väcker en del frågor som kanske ändå för oss tillbaka till reward discounting via orbito-frontala cortex inlärning:


"The behavioral dissociation between effort and delay discounting described here is consistent with the notion that these two decision costs may be supported by different neural networks. Although effort and delays are commonly referred to as decision costs, one attractive proposal is that while effort is a decision cost that is ascribed to a particular action, delay is one of the parameters (like risk, uncertainty) that can be ascribed to—and discount—the value of an outcome ([43], but see [44,45] for how delays can relate to actions). Consistent with this idea, we are not aware of any evidence to suggest that delay- and effort-discounting behaviors correlate, and indeed there is no evidence for a relationship between the individual discount tendencies for effort and delay costs in our data."

Klein-Flügge MC, Kennerley SW, Saraiva AC, Penny WD, Bestmann S (2015) Behavioral Modeling of Human Choices Reveals Dissociable Effects of Physical Effort and Temporal Delay on Reward Devaluation. PLoS Comput Biol 11(3): e1004116. doi:10.1371/journal.pcbi.1004116


Tillämpning kort föreslagna var:


"The behavioral model proposed for effort discounting here may provide a powerful diagnostic tool for quantifying motivational disturbances evident in clinical disorders (i.e., apathy, depression, fatigue, abulia), and may thus be critical in understanding the basis of several common psychiatric and neurological conditions [9,88]. The motivational disturbances experienced in some of these conditions can profoundly affect one’s personal and professional life, and cause limitations in terms of life function, interaction with the environment, and responsiveness to treatment [26,89,90]."

Men tänker vi uppgifter att göra krävande en ansträngning behöver ju ansträngning ej vara så konkret í det fysiska. Det kan - och här fortfarande mycket konkret - exempelvis handla om att göra något upplevt ganska tråkigt en längre tid (lära sig något inför en tentamen med föga om några andra aktiviteter under några dagar). Eller vad som tar en social ansträngning i att behöva möta persone man kanske ogillar rent av kraftigt.


Det finns tror jag säkert väldigt många typer av ansträngning ganska abstrakta i sin natur och frågan är hur vi devalverar värdet av resultatet (om alls för alla) utifrån dessa kostnader? Kanske värderas abstrakta kostnader närmare hur själva belöningen värderas?


Jag tror just i studien här sett som threshold bl.a. för när en fysisk ansträngning alls blir en kostnad som reducerar värdet av resultatet att detta är en generell egenskap för alla beslutade som är drivna av att öppna ett värde eller undvika en kostnad. Kanske kan vi tänka oss kategorisering mellan värden vilka kan förändras som tolkade kontinuerligt resp. besluts-threshold där en förändring av värde i positiv eller negativ riktning kan föranleda agerande / beslut resp. när vi agerar efter beslut att en kontinuerlig upplevelse av värde-förändring är nödvändig för att möjliggöra inlärning resp. möjlig under processen av faktorer påverkande sådant som taktik påverkande hur saker görs. Närmare följande:



medan jag tror när distansen till det konkreta ökar typiskt avseende hanterande av potentiella risker utifrån modeller sannolikhet utfall och modeller för kostnad riskerna kan medföra att vad som är threshold för åtgärder eller ens att själva processen av betraktanda riskerna kan drivas av faktorer och värderingar som inte alls behöver ha något rationellt att göra med dom faktiska riskerna. Beakta exemplet när en viss typ av risk blir omtalad via någon media-kanal och det därmed känns motiverat för någon med övergripande ansvar att tycka till om att det är ett område något kanske bör göras kring. Här är nu threshold knappt ens bundet i någon omedelbar mening till faktorer drivna från den egna organisationer och än mindre individens erfarenhet och kunskap.


Området bredare att ta resultat till dessa från typiskt väldigt konkreta mätningar oavsett nu människa eller apor som kan få fruktdrycker som belöning till områden intresserade mig mer i vad intresse att göra praktiskt i kod är tämligen icke-trivialt. Man behöver se något man kan mäta och ta in i formlerna under antagande att åtminstone form på själva fenomenet reduktion av värdering håller fortsatt och se någon metod för att få till övriga parametrarna i uppföljningen av hur verkligheten blev så att det hela svänger in mot något funktionellt. Detta är trots jämförbart mycket enklare modeller matematiskt här svårare än för mycket annat som forskning hjärnan gjort känt hos individen med komplexare modeller att ta till något konkret användbart i bedömning population ekonomi eller politik.


Vi kan också tydligt se hur så många fler faktorer i händelser som ofta upplevs svårare att förespå tid för inträffande för (när saker går jämförbart över en "threshold" för en population personer: Ex. plötslig försäljning värdepapper ej drivet av uteslutande maskin-beslut eller ett stycken förfalskat tweet). Betraktar vi politisk förändring kan effekt av sådant som:


1. Värdering av sig själv kontra andra entiteters påverkan av detta. Ex. att man upplever sig reducerad av handlande eller information inducerande ilska motiverande till att ta steget till att göra något praktiskt för förändring.


Här har vi nu också vad som kan ses som relaterat en hypotetisk devalvering av egen-värdet som människa. Antingen accepterar du när situationen upplevs ha inträffat (utan konkret upplevelse av detta är det troligen ej aktuellt oavsett som faktor motivation motreaktion eller reduktion) detta och tar att värdet du fäster hos dig själv relativt individen, eller samhällsdelen som reducerande dig eller så ifrågasätter du deras roll och funktion i samhället relativt dig själv d.v.s. att de ej korrekt har roll eller värde i flocken där de kan göra sådana uttalanden korrekt:



Jag har tyckt mig kunnat konstatera att detta är en faktor (tillsammans med andra) spelande in i utlösande i flera förändring samhälle som gick snabbt lite våldsamt (och även om jag inte har lust att ge exempel nu därför att det bättre bör göras med en längre diskussion om exakt vad jag tyckte mig kunna få en skattning av detta ifrån gör jag det tänkbart någon gång framöver: En del i och runt detta finns dock i Emotionell intensitet).


När samma fenom etablerats kontinuerligt är dock det utlösande redan för att se att ifrågasättandet och reduktion är verklighet en kritisk faktor om det alls ska leda till något. Det enkla som jämförelsen från ett annat perspektiv tydliggörande att det normala från en grupp du lärt dig associera till reducerade i aktuella värden som givet utan att ifrågasätta där du lika självklart ser dig själv ej är ett nödvändigt normalt och ej vad andra grupper ser som normalt. Jämför exempelvis med senast:



Och som implicit från exemplet ovan menar jag att när etablerat från en kontinuerlig process upp till en hög upparbetad nivå uttryckande en reduktion av värde krävs ej nödvändigt (även om det hade varit det effektivaste) att entiteten som faktiskt representerar vad som gör reduktionen av värde för individen verklighet uttrycker en förändring av detta som i ögonblicket är så tydlig att denna ev. med upparbetad nivå utlöser motivation motstånd eller alternativt upplevd reduktion av sig själv. Det kan vara funktionellt att någon annan tydliggör det samma (ex. ser ner på dig därför att du accepterar att ha din frihet reducerad). Forskning effekt av negativa stereotyper tycks visa det.


Konkret: Att aktuell slavägare eller någon som upplevs som slavägaren en dag till förklarar för dig verbalt eller fysisk vara värd ingenting jämfört med honom behöver ej utlösa förändring respons hos hans eller hennes slavar. Men att någon som ej upplevs vara som slavägaren gör detta riktat företeelsen som sådan (bäst tänker jag en fri f.d. slav eller någon av samma grupp människor - ex. färgad i USA under slaveriet - som aldrig varit slav och uttrycker samma värden som slavägaren: Fallet att den senare själv äger slavar är ej vad jag beaktar och jag är inte säker på riktigt vad det kan innebära i påverkan).


2. Vi har risk dimensionen. Känns det farligt att göra en förändring för dig eller familj?


3. Finns en kortsiktig kostnad ej omedelbart relaterad vad man ska uppnå? Behöver du ex. vara borta från arbetet för länge? Eller kan dina studier ta skada av att engagera sig över en viss tid? Det kanske är lättare rent praktiskt att besluta sig för att protestera mot något ute på gatan när du ej arbetar eller studerar än annars.


4. Och så värdet vi kan uppnå. Är värdet närmare något väldigt konkret? Sällan i större politiska frågor i vad en grupp rörande sådant som demokrati kan önska uppnå men ibland förekommande ytterst konkret i hur missnöjda medborgare (eller för att vinna ett val) kan hanteras (d.v.s. väldigt vanligt konkretiserade summor pengar man ska få mer av ex. per månad om man gör en viss sak eller i och försig intressant här men vad jag sämre förstår fullt att en kostnad för något reduceras en period).


5. Och så tidsaspekten på såväl risk, kostnad, värde o.s.v.


Mycket likartade "formler" för att räkna ut allt här i hur vi värderar det. Men desto mer komplicerat att hantera indata i resp. fall och ännu mer komplext hur resp. resultat kan värderas samlat. Får vi nu bara ut något från vettigt indata för en faktor kan det åtminstone jämföras med sig själv bakåt i tiden resp. händelser i verkligheten. Men själva sammanförandet av flera faktorer ökar komplexiteten abnormt för varje ny faktor i att få det visa vad som är fungerande som verktyg för att bedöma verkligheten just nu.


Relaterat reward

Modal verben

2015-03-10

Nedan har vi en tycks det ganska komplett sammanfattning hur man ofta resonerar och tänker sig mening att ta ut från "riktiga" modal verb som may, might, can o.s.v. liksom indikationer om vad vi mer omedelbar tror eller relaterar korrekthet för kring något som sägs:



Och dessutom en mer traditionell utgångspunkt till hur man gör sådant som diskuterat i Vi funderar över vad ett verb är rörande delar av vad jag använder den uttrycksformen (eller datatypen om vi så vill).


Särskilt modal verben är ju väldigt populära här därför att dom är så få att det ganska enkelt med anpassad tolkning för vardera går att tolka från dem manuellt med exempel eller maskinellt.


Hur vi uttrycker sådant som belief som ex. ofta ser ut för dessa kan vi sammanfatta med att vi normalt kan uttrycka (skriva om) indikationen (tjocktext) enligt:


Mr Dunston belives that something...

Eller / resp. (och argumenterat framåt inte oviktigt):



Mr Dunston belives something...

D.v.s. med that nu borta.


Vad är nu unikt med modal verben? De verkar framför och direkt på ett "riktigt" verb. Ex:


King Dunston could win Scotland.

Säg nu att jag är en ung republikans senator som verkligen vill visa upp för alla dom äldre 75+ senatorerna hur starkt jag tror på det sanna budskapet. Då kanske jag säger:


- I scream to spread the good world to the world.

Lite besläktat. Och där precis som för adjektiv och hur vi refererar argumenten ligger en hel del av vad vi kan kalla "bias". Och liksom själva verb:et är det ju lite intressantare bias uttryck genom att det skapar ett kontext som faktiskt i sig går att arbeta med numeriskt.


Jag ska inte säga att det inte går med modal-verb men jag tror det är svårt att göra det sunt utan att se dem även här mer som de fungerar i språket: som operatorer bärande ingen vikt själva. De förekommer i så oerhört många kontext, för så många verb o.s.v. att något egen grundvärde för dem att ta som utgångspunkt för att uttrycka emotionell intensitet, uttryck åt positivt eller negativt m.m. är tämligen meningslöst att försöka. Lite som att ge sig på att beräkna grundvärden för is och was och tro att ev. skillnad man får egentligen betyder något i ett aktuellt nytt kontext vi analyserar.


Hur man operator använder dem bäst vet jag inte. Jag har prövat en del i och runt test-tillämpningar där jag utnyttjade meningar som går att se som Reward discounting / Subadditive discounting / Subadditive reward discounting (för att länka tre taggar jag hoppas en del antecknat kring det går att hitta). Egentligen tror jag inte att det är mer än att de antingen indikerar en konvergens eller två och att det går att se som att vi står 1 enhetssteg eller två: May (ett enhetssteg normalt för korta ord) eller Might (två enhetssteg); Can (ett enhetssteg) eller could (två enhetssteg). Så för ex. A could assault B är A något lite mer distansierad ev. tänkbar realisationen av verbet rörande effekt och respons från B: A can dummy assault B.


Men det går säkert att se på andra sett motsvarande ungefär det samma. Jag fick emellertid för mig lika troligt felaktigt att man kanske kan se spår av andra dummies som mer eller mindre försvunnit relaterat nästan modal-verb. Om vi ex. roar oss med att försöka strukturera dem efter en tänkt nutid och dåtid (vilket vi i övrigt inte bör för modal) har vi tror jag alla som normalt alltid refereras som modal med resp. par (jag tror det gäller alla i Wikipedia: Modal_verb). Men inkluderar vi ett fåtal till ofta också sorterade här eller praktiskt jämförbart men mer ospecifict som auxiliary verb kan vi kanske tänka oss en relaterad ought och must.


Must kan vi se som ett omedelbart behov eller ett behov just identifierad. Ought gǻr förvisso att se som referens till framtid eller just nu precis som för could o.s.v. för övriga modal som också är dåtid. Men ought är relaterat vad vi bör göra som en upparbetad förståelse ofta från vad kultur och flock eller "personlig best practise som en god medborgare gör det". Ex. Jag "ought" "to sopsortera" trots att jag känner till kvalitetsnivå på sopförbränningens filter och vet mängden tungmetaller som sprids runt i Uppsala från komposterade sopor. Ty det är vad den goda medborgaren gör (och varande mer än så är jag inte främmande för att ta på mig munskyddet greppa en spade och bege mig ut i lagom sumpig mark för att själv kompostera aspest-avfall eller spillolja). D.v.s. vi har en upparbetad dåtid så att säga. Precis som vi har för dom typiska modal. För ex:


King Dunstan could attack England.

Introducerar det som ett tänkbart scenario och förutsätter att han can attack som ability.


Och gör det ingen skillnad mellan om vi delar upp i deontic modality eller epistemic modality:


"must deontic modality Sam must go to school.
must epistemic modality It must be hot outside."

Från: Modal_verb - English

Just nu. Så i ought sitter folk och uttrycker någon "flock-idé" om vad folk borde göra utan att kanske ha behov av att alltid motivera sina föreställningar. Lite oartigt om vi talar direkt till någon. Medan could argumenterat är artigare givet att vi erkänner möjlighet att can ("can can" om vi vill) men introducerande en spekulation om personen tänker utnyttja möjligheten de har.


Och för need behöver vi något och är det värt att uttrycka kanske man behöver dådkraft för att lösa det: Dare.


Paren ovan är ju ganska självklara från ganska ofta inkluderade modal. Det blev så eftersom jag fick för mig att det var ought som hade den tappade dummy-markören utan att ha sina andra kvar (men som argumenterat ändå fanns fick jag för mig). Det var emellertid use väldigt sällan indikerad som modal men som intresserade mig när jag tittade på passiv via got (ex. Robot A got terminated / Robot A was terminated) där use uttrycker vad vi ex. brukar eller inte brukar göra:


Robot A used to terminate other robots.

För vilken vi kan få en upparbetad motsvarighet till could och ought (och upplever jag liksom could lite artigare och känns som lite mindre bonnig engelska: Vad riktiga engelsmän borta på den kanadensiska landsbygden hellre använder kanske?): Prefer.


Robot A used not to terminate robots.

Robot A prefer not to terminate robots.

Men prefer är ej modal verb hur vi än ser på det. Eller kanske rather vi kan mena är modal: A rather not VERB jfr adverb-versionen A usually not VERB utan to-inf behovet för used to. Vilket jag tror ganska bra illustrerar varför riktiga modal är ganska begränsat. De kan bli adverb och konstruktioner likt used to kan vi skapa grammatiska relationer för mellan ett första och andra verb för en större mängd verb (såväl som för den delen mer än verb bias indikerande på första: A believes that...) relaterad kännedom och föreställning om världen (resp. mer datalogi relaterade tillståndsmaskiner: A starts to terminate B). D.v.s. om vi så vill vad som sker just nu resp. upparbetade föreställningar från det.


Det är heller ingen hejd på det om man börjar kategorisera verb runt trosföreställningar, idéer om sannolikhet och allt i övrigt man brukar lägga meningsdimensioner för till modal-verben. Nå det är nog faktiskt en lätt men inte enorm överdrift. Jag har en äldre initial strukturering över en del tänkta dimensioner runt sådant inkluderande en hel del utanför själva modal-verben men i den versionen (om jag har den kvar) inte i storlek eller färdigare "finare" uppdelning i kategorier från sedan praktisk användning mot parsning (och därför vad jag kanske kan förmå mig att dela om jag har den kvar: Är det större mer färdigt blir datat ofta för tungt att mentalt orka flytta över usb till internet-datorn).


Filen i fråga var i sin helhet lite större än jag minns första kategori-skissen så jag var tvungen att ta ut en mindre del men större delen av i alla fall vad jag kallat modal samt ett ex. på hur det expanderar ut över fler verb i en av övriga större "huvudgrupper". Notera gärna inte att QA ännu inte gjorts (en korrigerade jag lite men sedan upplevde jag det som lite tilltalande att några enstaka - eller många fel gärna finns kvar: Jag tror det är kulturell ought to eftersom så många andra har sådant man själv uppnår något moraliskt i att leta rätt - notera att jag hand-skissade dessa som utgångspunkt och därför handskrev verb:en också så troligt finns det några stavfel i dom förutom diverse verb och kategorier som flyttats om tämligen omgående).


Tar först det sista ex. där vi har en ännu ganska liten "mini-kategori" kallad dare (argumenterat också ett modal-verb). Men vi ser också efter den några utvalda större kategorier för andra indikerade "ämnen" (i label för kategorin).



SPEECH_ACT__DARE dare


SPEECH_ACT__PRESSURE pressure force threat blackmail bully cajole
 coerce hale squeeze pressure force turn up the heat
 turn up the pressure steamroll


SPEECH_ACT__MOTIVATE motivate encourage empower tempt bribe tempt
 flatter boost cheer root on inspire urge urge on exhort pep up urge exhort

SPEECH_ACT__PERSUADE persuade bring round bring around badger chat up talk
 into rope in wheedle cajole palaver blarney coax sweet-talk inveigle
 convert win over convince brainwash charm influence tempt

Ingen av dem är exakt samma sak som att jag i en speech act "dare" någon till att göra något men de är heller inte orelaterade. Det är samma domän vi rör oss i: Att få någon att göra något. Och bara för dessa tre av ordentligt fler kategorier ganska nära "dare" och senare för fler verb i antal (även om några ovan ej längre finns med i dessa som brainwash, influence, tempt och faktiskt egentligen alla verb i resp. då dessa kategorier brutits upp i fler och själva egentligen bara har sitt eget verb och ev. två eller tre fler).


Och någon egentlig skillnad praktiskt från rena modal (som ganska ofta inkluderad dare) har vi ej:


Queen Maria blackmails King Stanton to attack England.

King Stanton bribes Queen Sarah to join the christian church.

President Obama urges Queen Maria to leave England alone.

Queen Maria gambles that President Obama can not sweet talk UN to freeze her bank accounts in England.

Queen Maria bullies President Obama to shut up.

King Stanton craves to rule Scotland, England and France.

Queen Maria lusts for King Stantons land.

Och cirka hälften (korrektare när jag sett dem publicerade kanske en tredje-del saknande diverse kring osäkerhet om information, fog, maskerad, baffling, förgiftad information, ridcule o.s.v. vilket är helt ok men visar att det lätt blir ordentligt med kategorier där en försvarlig mängd av verben kommer med någonstans modal eller inte till något inte allt för distansierad till kategorisering endast av modal-verben) tror jag av modal kategorierna:



_MODAL__ATTITUDE__ATTEMPT try attempt insist contract attempt aspire apply
 attempt aspire apply strive endeavor endeavour strive undertake
 gamble wage venture risk hazard dare

_MODAL__ATTITUDE__ATTEMPT__TRY try attempt insist rebel contract attempt aspire
 apply attempt aspire apply strive endeavor endeavour strive 
 undertake

_MODAL__ATTITUDE__ATTEMPT__GAMBLE gamble wage venture risk hazard dare


_MODAL__ATTITUDE__CERTAIN certain sure

_MODAL__ATTITUDE__LIKELY likely probable

_MODAL__ATTITUDE__POSSIBLE possible think suppose

_MODAL__ATTITUDE__IMPOSSIBLE impossible

_MODAL__ATTITUDE__EXPECTATION hope believe trust doctrine rely on depend on
 count on believe think imagine reckon expect anticipate guarantee
 should would likely probable possible predict know anticipated 
 expected unlikely apparant clear evident obvious sure will 
 certain shall may can shall would should could might

_MODAL__ATTITUDE__EXPECTATION__TRUST hope trust doctrine rely on depend on 
 count on distrust doubt

_MODAL__ATTITUDE__EXPECTATION__BELIEVE believe think reckon disbelieve suspect 
 surmise disbelieve

_MODAL__ATTITUDE__EXPECTATION__EXPECT expect anticipate guarantee likely 
 probable possible predict know unlikely unexpect

_MODAL__ATTITUDE__EXPECTATION__GUESS guess

_MODAL__ATTITUDE__EXPECTATION__APPARANT apparant clear evident obvious assume 
 presume certain sure unsure uncertain unclear

_MODAL__ATTITUDE__EXPECTATION__NEGATIVE unlikely disbelieve distrust doubt
 unsure uncertain unclear unexpect

_MODAL__ATTITUDE__INTENTION about going apt intend choose inclination mean 
 aim plan planned prepare ready cultivate battle ready intend mean 
 aim consider conspire scheme maneuver

_MODAL__ATTITUDE__INTENTION__PLAN plan prepare ready cultivate conspire scheme maneuver

_MODAL__ATTITUDE__MOTIVATION wish want yen ache hunger yearn thirst scream
 desire motivated crave long lust pray yearn itch addicted prefer
 like willing fancy hope fear reluctant afraid

_MODAL__ATTITUDE__NECESSITY must ought better had to had better necessity
 necessary required obligated obliged compelled imperative 
 compulsory mandatory obligatory forbidden

_MODAL__ATTITUDE__NECESSITY__NEG forbidden

_MODAL__ATTITUDE__NECESSITY__BOUND_TO sworn bound to be bound to bribed 
 blackmailed constrained forced prevented

_MODAL__ATTITUDE__NECESSITY__LIABLE_TO liable

_MODAL__ATTITUDE__PROBABILITY likely probable unlikely improbable

_MODAL__ATTITUDE__DESERVE deserve

Emellertid gör man som ovan med accepterad lätt fuzzy-meaning förutsätter man numerisk värdering utifrån realiserat kontext. Hur mycket motiverar vi något? Givet verb tillsammans med dess argument? Istället för säg att vi redan passerat motiverar och här på "PLAN" (om det är en kategori ovan om jag minns rätt). "LIABLE TO" är för ett ändå i mängd nyheter motsvarande den tämligen liten kategori: Här om vi tänker sig endast en som ovan kan man också relaterat ekonomi-nyheter inkludera allt relaterat "underwrite" som koncept (försäkrings- eller tagande risker som säkerhet ex. lånande ut pengar till Grekland, Tyskland eller kanske i "crowd sourcing" "underwrite" varutransport som i gamla anrika Lloyds jag till min överraskning ser fortfarande lever: Jag mindes det starkt som att de dog efter 11 September). Såväl relaterat "sustain" för regelbunden finansiering vilket tenderar att göra nästa finansiering mer trolig som funktion av faktiskt indikerad risk resp. sannolikt värde tillbaka (har du redan givit Grekland pengar några gånger kommer de snart tillbaka och menar att eftersom de nu börjat skatta sin befolkning enligt sin egen lagstiftning bör de få pengar av EU och om inte tänker dom rösta om ett nytt parlament).


Även om få kategori ändå jämfört med värdering endast från de få modal-verben mindre scarce. Samtidigt vill vi analysera språk mer allmänt över ett hyggligt normal allmänt mänskligt språk som vanliga nyheter eller för den delen också forskningsnyheter (med motsvarande nyheter som grund och quality assurance att särskilda termer viktiga verkligen hanteras) behöver man ganska ordentligt med vetskap om verben. För ett trivialt exempel även om ett verb - eller vad nu aktuellt - uttryckande något är mindre vanligt kan det räcka att (kanske oftare någon av dom engelska tidningarna som The Economist) är fundiga i titeln så dyker det upp variationer av (såväl som samma) begrepp hos andra och så är det plötsligt ej ovanligt längre. Och det är har jag fått för mig i upplevelse snarare än jag kontrollerat det att dom mer vällästa tidningarna försöker vara fyndiga med lite ovanligare event-koncept oftare. Vad är vår bild av världen om vi plötsligt missar själva ökningen i någon mening vi sökt? Det är bias att tala om och sådant bias som är intressant och kan lära oss saker utan ett eget bias som vantolkar världen.

Konstant givet tidsfönster: Tecknat, mer eller mindre hund, Kongo och kinesiska kommunistpartiet

2014-06-22

Rörande Reward discounting skattad från évolués: Hur många år på ett år får vi när Belgiska Kongo blir Kongo-Léopoldville? kan vi också betrakta problemområdet i:



När vi utgår från Reward discounting: Weapon effect vs Kawaii.


Vi tänker oss att vi har två hundar: 1 st new foundland och 1 st borderterrier och önskar bestämma vilken av dem som är mest hund.


Vi kan argumentera att new foundland exemplaret är mer hund därför den är större, är långhårig, att transportera den såväl som att vårda den efter regniga dagar innebär mer att göra, att den troligare oftare är funktionell i fler klimat-domäner (vinter och vatten oftare och åtminstone väldigt stora hål ner i marken).


Men vi kan p.s.s. mena att borderterrier är mer hund därför att de gör mycket mer per tidsenhet. P.s.s. som en new foundland ger mer glädje - längre tid - att vårda efter regniga dagar kan en borderterrier komma med mer hund-tid att jaga rätt när den försvinner iväg.


För båda resp. hundarna har vi en inlärd vetskap och erfarenhet jag utgick från (min) och som inte otroligt väl motsvarar andras (oavsett att man kanske inte just vill lägga samma definition på vad som mäter hur mycket hund en hund är - hur gammal den blir är en till faktor där förövrigt borderterrier lär tendera i genomsnitt tror jag att bli närmare dubbel så gammal som en new foundland om man låter dem självdö p.g.a. friskare genetik allmänt såväl som relaterat cirkulation och hjärtförstoring).


I ett ögonblick - vi inleder med en serie-ruta - betraktande en stycken exemplar av vilken som av dessa uppvisar de dessa egenskaper med en viss mängd. Vi har också en förväntan om hur denna egenskap kan realisera sig från vad vi känner om rasen. Kommer den försvinna bort nu / blöta ner mig genom att skaka sig? Det senare jämför vi och menar är samma form av approximation vi tidigare har exempel på i:


  • Weapon effect. Den manliga jakthunden vi har i borderterrier.
  • Kawaii. Hundvärldens tjocka "lite" dummare clown i new foundland.
  • Relativ upplevd distans i värde och relativ makt från typisk innevånare till de certifierade civiliserade évolués.

Just domän av rörliga tecknade serier är vi i fiktion och skaparen kan brutalt snabbt förändra hur sådana här egenskaper uttrycks rent visuellt eller med ljudeffekter. Vi har ett exempel nedan på manipulation via weapon effect från American Dad:


Den större domänen rörligt i närhet ger oss också stor acceptans för vad vi är beredda att acceptera som verkligt i mening att vi behöver hantera förändring det uttrycker. Här gäller att vi når oerhört långt endast att approximera alla dessa förädnringar när oväntade som intensitet och vid behov (när tid att betrakta det finns) modifierande en potentiell effekt från inlärd vi redan tagit ut för ett objekt oavsett om den effekten annars ej är vad vi tänker oss eller ens när mer tid att reflektera är beredda att acceptera kan skalas större eller mindre.


Men oavsett sådana förändringar gäller väldigt ofta att effekten från inlärt i serierutan och efterföljande kan tas som konstant i potentiell effekt eller som gräns för hur den realiseras. D.v.s. approximativt är konstant medan förändring sker längs andra dimensioner som tid och rum.


I serier kan vi ju förövrigt minnas atavistiskt Bamse förutom välkänt främlingsfientlig (kanske rasist) mot den färgade vargen brukade manipulera sin kraft med honung. I serierna sker detta genom att Bamse:


  • Tar fram en burk honung.
  • Häller i sig honung.
    • Här inträder vad jag brukar kalla portal.
    • Samma approximationar, lagar och regler som annars gäller förändras nu binärt.
    • Ungefär som jämförande arbetstid med ledighet eller i sagornas värld förflyttningar närmast binärt till helt andra världar.
    • Intagandet av honung visar att vi nu är i Bamse's anabol rage world där han upplever en enorm kraft av att utnyttja större styrka eller gissningsvis ofta bara att han gör mer än andra förväntar som normalt brytande lagar och regler. Bamses upplevelse kan ex. illustreras av att han känner det som han kastar iväg andra enorma sträckor.
  • Effekten är tidsbegränsad. Och när passerad återvänder vi till den normala världen.

Signalering av portal tycks för mig normalt alltid i fiktion ske genom ett visuellt epitet nära hur vi annars mer effektivt kan manipulera omvärlden med ett verktyg eller passerar mellan motsvarande naturens skillnader rörande väder och vind (passerande in i skydd mot världen eller vind eller att magi plötsligt gör miljön väldigt annorlunda inkluderande även utanför ex. plötsligt mörker och storm rent otroliga komponenter kanske döda som stiger upp ur jorden eller annat). Verktyg kan i ett mellan-steg till miljö tekniska portaler för faktisk punkt-till-punkt förflyttning i tid och rum vara. Exempelvis när familjen Artrides förflyttas från sin hemplanet Caladan till Dune. En teknisk (såväl kombinerat "kognitiv", "evolutionär" och "kemisk") lösning gör att rymdfarkosterna med personer kan förflyttas direkt över ett enormt avstånd. Lite kanske som att hissa upp varor från en båt hotade av stormade vatten upp på land där de kan tas in i skydd mot väder och vind.


Antaganden om faktisk effekt hos person såväl som förändring av sådan effekt (oavsett vad dimensioner vi menar att effekt är) kan vi i språk förutom inkluderande referenser till verktyger, metoder m.m. också indikeras via vad jag brukar kalla PP-operatorer. Ex. att en person kommer från ort A, befinner sig i B, är ovanför C o.s.v. Positionerande givet antagande om dimension förändring sker utefter när generisk effekt kan antas konstant hur denna realiseras eller kan tänkas påverka. Denna behöver givetvis inte vara uteslutande rummet eller tid. Vi kan ex. tänka oss också en adlig eller halv-adlig dimension i form av namn inkluderande sådant som "af", "von" m.m. (liksom givetvis alla normala namn adliga eller inte adliga i någon repeterade nog för att ge en indikation om effekt utanför en individ bärande namnet - men så klart lite tydligare med sådant som "af" m.m.). Ett likartat och idag oftare i konkret kraft realiserande exempel är när personer i en situation har en roll där de representerar ett företag, land eller organisation där skattning av "kraft" kan styras mycket substansiellt och realistiskt vad nu detta specifikt är.


Modifierande effektförändring kan vi argumentera och konkret se ofta görs med adjektiv (men inte alls uteslutande). Bamse blir starkare. K-pisten smäller när den skjuter. Vargen Bamse förgriper sig på flyr skrämd när den lantliga skräcken inför att röra sig bakåt i utvecklingen realiseras sig i en elakets-kultur där allt nytt och främmande är vad man försöker kasta bort.


Med utgångspunkt Reward discounting skattad från évolués: Hur många år på ett år får vi när Belgiska Kongo blir Kongo-Léopoldville? är det därför inte alls uteslutande en förenkling eller approximation att i en kortare tidsperiod - som tänkt ett år - anta att inlärda effekt-samband rörande en dimension vi menar är styrande är i väsentligt konstant relativt den påverkan den kan ha.


Vidare ska sägas rörande:


"Att jämförelsen är ej fungerande att göra är vid denna tid tror jag huvudsakligen en passerad promsande faktor. En av mina böcker rörande kolonialtiden i Kongo inkluderar bl.a. intrycket från individer som besöker utställning i Belgien ganska nära inpå i tiden och får sin världsbild redan på rätt väg sunt normaliserat rörande det belgiska folket (inkl. ingen apartheid i Beligen för dem som besökare oavsett restauranger eller mer moraliskt och folkhälso-problematiska affärsverksamheter där kvinnnan snarare än specifikt färgade tenderar att oftare förtryckas). Men i allt från cargo-cult till att att ha lärt sig förlora riktigt dåligt mot tejniskt bättre utrustade kolonialtrupper kan bromsande faktorer där man inte riktigt ser förtryckaren fullt som vad som har samma dimension att jämföra värde i. Passerar sådana bromsande filter kan man tänka sig att det kan innebära att tiden nivå reward discounting beräknas för kanske delvis kortas ner? I mening att det etablerats oerhört snabbt i om jag tänker rätt nu färre antal diskreta tidpunkter men byggande från intensitet etablerad många fler år men i samma riktning när "pengarna växer sig större genom att gå bakåt i tiden" från exemplet i Subadditive reward discounting. Ett antagande jag kan se att vi inte behöver blanda in tror jag: saker lär bli inexakta nog ändå."

Att detta givetvis är en icke-fråga här genom att jag såg möjligheten att använda évolués som skattning mot bakomliggande nivå på negativt upplevd relativ makt (ev. dynamik specifikt riktade dem eller kolonialmakt är också en icke-fråga: nivån här också med 0 hat mot dessa skattar hela problemområdet i nivå). Vi kan också jämföra med kinesiska kommunistpartiet:


  • Det är tänktbart att mytbildning Mao m.fl. äldre revolutionärer från dom tidiga åren har magiska egenskaper som gör att de ej värdejämföras av folk i allmänhet. Kanske en delförklaring till varför diktaturer mer sällan faller när revolutionshjälten fortfarande leder landet (om denne orkat kvar första åren).
  • Men representanter för partiet lokalt som du kan se i staden du bor gäller detta helt säkert ej för och folk kan och kommer göra värdejämförelser.

Givet vad vi ev. kan återvända till om beräkningen för Kongo görs klart och det tycks meningsfullt att handgöra ett till typiskt i analyslogik i plattformen motsvarande fall med nya sambanden reward discounting för tomma tidpunkter när samma situation också ska värderas mot faktorer likt nationalism inducerad jfr Japan med flera länder.

Perception tid: Komplexitet och kontext

2014-06-21

Likt Do - Describe från forskning under första halvan av 1900-talet utnyttjar vi här "vetskap" från äldre studier men annorlunda vad som utmärkt överlevt hela vägen till färsk refereslitteratur och är väsentligt bekräftat i andra studier.


Jag utgår endast från vad refererat bland mina referensböcker inom psykologi och söker hålla det som uttryckt och refererat i Sensation and Perception (Schiffman) för att slippa referera studierna eller bedöma dem.


Kemisk "down": Kortare tidsupplevelse

Välkänt är att centralstimulerande droger förlänger tidsupplevelse medan lugnande och sömngivande droger förkortar upplevd tid. Båda i mening av hur vi skattar längden på en absolut tidsmängd.


Detta ligger med andra ord nära (men egentligen inte direkt motsvarande) hur jag ser på tid som intensitet per diskret samplingspunkt när nyheter m.m. tas in för automatiserad analys. Snarare än att direkt motsvara detta gäller att mängden neuroner som naturligt involveras i varje konvergens kan vara större och föreligger inlärning mot en annan basnivå bör det utan någon tvekan alls inverka tydligt på hur vi upplever tid i sig jämförbart med hur mycket eller hur lite vi gör när kraftigt avvikande från normalt för oss påverkar hur vi upplever tid.


Lustgas

Lämnande pentobarbital m.fl. droger där det är dokumenterat noterar vi det istället särskilt för lustgas. Lustgas verkar ytterst neuron-nära på själva mekanismerna för inlärning och just genom att inverka så pass lokalt och samtidigt för alla med föga diskriminering över typer saknas påverkan sammanhang oavsett om vi ser det som tid eller pågående.


Det är tror jag heller inte korrekt att se lustgas som motsvarande ex. pentobarbital reducerande aktivitet utan korrektare tror snarare är att se det som att göra just kontext meningslöst försvinnande.


Utan kanske kan rent av faktisk aktivitet ses som konstant under lustgas medan komplexiteten per konvergens går mot noll samtidigt som sammanhanget meningsfullt för varje konvergens går mot minsta tänkbara enhet.


Ej egentligen att vår upplevelse av tid givet samma information självklart förändras utan att det bl.a. inte finns någon passerad tid att jämföra pågående representation med. Via NMDA (kemiskt lika enklare kväve-syre-föreningar) indikerad inlärning men där relationer tid, sammanhang samma tid eller magnitud saknas innebärande att ingenting betyder något men p.s.s. ej heller påverkar framåt i tiden vad vi kan lära av det (och därför att lustgas hör till det säkrare vid mindre ingrepp åtminstone från aspekt av beroenderisk samt varför en del studier indikerar en möjlig snabb effekt mot depression: indikerad inlärning i vad feedback det gör i övrigt men ej problematisk irrationell mening i det utan just inlärning utan innehåll - om jag ej förstår NMDA fel).


Komplexitet

Vi hittar också studier refererade indikerande att visuell komplexitet såväl som komplexitet musik upp till en viss gräns ökar mängden upplevd tid.


Familiarity

Och välkända välrepeterade upplevelser vi lärt väl hur vi gör upplever vi kortare förfluten tid för.


En komplexare värld

Ingenting noterat tid avviker egentligen vad tidigare diskuterat rörande reward discounting men det understryker en praktisk utmaning jag ej brydde mig om att beröra: Hur vi hanterar att symbolen vid resp. diskret tidpunkt ej förekommer ensam i resp. sammanhang utan tillsammans med andra symboler.


Samtidigt kan man argumentera att svaret delvis i alla fall är indikerat av de algoritmer för användning av princip diskuterade. D.v.s. vi har för ett sammanhang en verkande komplexitet där denna möjligen behöver skattas för varje symbol avseende dess perspektiv till övriga för att få komplexitet verkande just för denna symbol (via similarity i min värld). Och komplexiteten ger oss modifikation av intensiteten under antagande om ett fast antal personer som processat sammanhanget (utan detta antagande gäller att hög komplexitet kan motsvara ej högre modifierad intensitet total utan istället mindre därför att färre processar det hela då det tycks tråkigt eller komplext men för jämföra entiteter publicerande kan man nog strunta i det ex. för nyhetstidningar separerande forskningsartiklar).


I den mening gör vi nu samma sak som indikerades i Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning och hämtar därefter upp den modifierade intensiteten. Innebärande bl.a. att de symboler mer central för mening och betydelse i sammanhanget ger oss högre modifierade intensitet än initialt från start under antagande att vi i slutet ej accepterar att vi introducerat symboler existerande som ej från början var givna.


Praktiskt kan man göra en del varianter jag ev. kommer avstå ifrån. Vi kan ex. normalisera distans mellan två symboler mot hur troliga två symboler är att förekomma tillsammans. Ett generellt värde av de similarity operatorer jag infört är att kunna ta ut sannolikhet för samförekomst mellan godtyckliga symboler utan att faktiskt ha det för samtliga tänkbara relationer (givetvis inte perfekt men heller inte direkt dåligt). Det i sig gör samtidigt att jag är ganska försiktig med hur jag använder data för samtidig förekomst i övrigt.


Vidare för effektivitet kan man reflektera om det kanske vid processanda nyheter räcker att betrakta resp. symbol samlat för en dag och där hantera relationer upparbetade över samtliga nyheter eller om man mindre effektivt i beräkning vinner tillräckligt mycket på att göra skattningarna för varje nyhet som processas. Mitt svar på det ännu i alla fall är att default är det mer effektiva medan övriga möjligheter sorterar tillsammans med annat dyrare likt natural language processing man gör efter mänskligt beslut (men därmed inte sagt att jag värderat det potentiella värdet vs kostnaden perfekt här ännu).

Log-dynamik i hjärnans nätverk: Fördelning, interferens och inlärning

2014-06-17

Excellent kompletterande Subadditive reward discounting och föregående den:



Emellertid den väg vi valde nära praktiskt tillämpning analys språk i populationer ger oss en ganska enkel förklaring just när vi tänker oss att vi i näten analys sker söker undvika kontinuerliga uttryck för att istället hålla sig till symboler i form av ngram:


  • Antag indata en person med fyra symboler i form av ngram meningsfullt tillsammans.
  • Aktivitet från dessa kommer expandera kraftigt i uttryckt intensitet om den direkt upplevda intensitet ej tydligt understiger inlärd nivå där vi bryr oss att titta på symbolerna.
  • Därför utan sådan expansion är det bara dom fyra symbolerna. Ingenting av kontext just i situationen, personens humör än lite långsammare, inlärda samband för symbolerna o.s.v. är ju annars möjligt att få att påverka tolkningen.
  • Också är ju känt att även i direkt ord närhet aktiveras olika associationer nära egentligen alla sense ett ord kan ha där ännu ej hanterande sense i tolkning från kontext.
  • Samtidigt har vi ju konstaterat - och som vi tar som antagande här - att distans i aktivtet kommer med discounting. Och om vad som nu aktiveras ej är symbolerna själva igen eller i princip samma sak föreligger distans till dessa.
  • Därmed under vidare antagande att ny inlärning - kanske rent av emergens - ej är fallet kommer dessa representationer för meningsfullhet ej få samma uttryck utan reduktion discounting som vi utgår från. Här från exemplet kontext m.m. kan vi förstå det från att vi behöver de första tydligare i representation för att orka bedöma övrigt från dessa. De är ju den indikerande meningen vi vill arbeta upp till meningsfullt när vi tänker runt aktiverande fler neuroner samtidigt som när vi kommit en bra bit ut från där vi börjar behöver vi närmare göra direkta jämförelser med symbolerna vi började med och de förändringar till dessa vi adderat ex. från vår vetskap.
  • I nära relationer direkt mellan ord är sådant givetvis mycket enkelt. Mindre dynamik discounting gör det tydligare med mindre problem för praktiska algoritmer som för ngram-detektion (NJER). Men vi har ju i översättning - och förekommande ibland också för viss NER - motsvarande algoritmer i övrigt också utnyttjande kontextuell information som i motsvarande natural language processing befinner sig på ett större avstånd. Jag tror mig minnas att några tidiga algortimer IBM - brytande något av Chomsku's anti-dataanalys kultur - gör detta både för översättning resp. en variant för NER.
  • D.v.s. också när vårt resultat ska vara ytterst konkret och tämligen enkelt även automatiserat att direkt verifiera om resultatet är vettigt (över text i alla fall snarare än enskilda sense eller lliknelser) som för NER och översättning är det delvis vad som kan addera värde. Men att den kortare distansen mellan tolkning bara utnyyttjande ord nära (upp till och med 5-gram ger mer värde men tre och fyra-gram räcker långt) så är detta värde relativt orden direkt ganska litet.
  • Men om vi lika enkelt och effektivt önskar skatta discourse och polaritet - vad något handlar om - gärna slippande parsa varenda mening i grammatik och semantik behöver vi association och intensitet för ord och ngram bredare över större distans.
  • Och vill vi som ett mycket tänkbart område där vi just har ett fåtal symboler styrande beslut direkt skatta hur benägen en tänkt typ-person är att klicka på en annonslänk eller en länk till en nyhet i pagination behöver vi görande antagande om att också ett fåtal koncept motsvarighet ett sammanhang begripligt (under antagande en rationell surfare letande information) för personeg.

Därmed genom att vi får decay / discounting med motsvarighet i den växande större distansen skapas the heavy tail. Fler områden kan få viss aktivitet längre ut men här är den mindre sannolikt alls särskilt hög.


Vidare genom att aktivitet tills distans och positionering är sådan att den ej orkar längre eller alt. att aktivitet släcks ut via GABA gäller ju åtminstone länge i steg att vi når fler neuroner framåt än vi tog emot aktivitet från. Varje igen avfyrande neuron kommer ju få en bredd decay följande sannolikhet. Därmed har vi just log normala samband - med olika dynamiker rörande förändringar långt nedan för varians i den kortare närheten. Det hela är så klart i formen inte helt olikt vad vi får för globalt totalt språk vi har för ett tillräckligt stort corpus där antalet typer som funktion av antalet token tenderar att ge oss samma kurva. Ju fler token desto större antal unika typer har vi troligare. Men ju mer språk vi redan har desto mindre troligt kommer nytt språk vi adderar till corpus redan analyserat ge oss en ny typ. D.v.s. vi får en svans när vi plottar dynamiken i förändringen eller hur mycket vi vinner på att analysera mer språk.



Och vi får närmare symbolerna om de i sig är ganska besläktade fler med också relativt hög intensitet genom att vi söker interferens och samband. En slutsats från interferens exemplet med annons kan ge är att det är annons-information trots att just information om det saknas.


Större distans är konceptuellt vad som har motsvarighet i att det ej befintligt är förväntat från inlärt. Och när vi befintligt lärt något noga från information vi aldrig själva konstaterat verkligt - och sedan år känt felaktigt - kan vi ändå ha lite svårt att släppa det om det i sig inte mer tydligt inverkar på oss att vi tänker lite felaktigt (rent av medvetna om det).


Inlärning är därför vad som i form ofta kommer ha en upparbetad kurva liknande något av det omvända från hur distansen expanderar ut. Inlärningen är ju vad vi här ser ofta kommer av att vi ser oväntad interferens mellan aktiverade symboler - och interferensen skapad genom att aktivitet över oväntad stor distnas ändå når fram (ex. därför att befintligt kontext hos oss från något vi läst från ett annorlunda kunskapsområde än normalt) visar på en möjlighet vi innan inte sett. Här får vi om under antagande att reduktion som funktion av distans ej har den icke-linjära dynamik eller andra beroenden inverkande (d.v.s. också lämnande allt rörande påverkande distanser till vad vi får interferensen med m.m.) kända inlärningskurvan där vi från inlärningsfaktornn kan skatta ut (ej perfekt men ofta heller inte dåligt) hur möjligheten att fatta rätt beslut vid resp. tidpunkt är fram till att vi lärt slut. Se ex. för bild av kurvan och ett exempel på en praktisk domän där vi ser denna nära domän av reward:



Och så klart när bitcoin är brand coolt, känns trevligt kanske uttryckande för många en del andra världen rörande något hos internet och dom själva kring friare handel eller liknande är ju den bra efterfrågat. Annars när valutor är inarbetade mer stabila gäller ju välkänt att inflation kan föreligga. Om om en valuta oavsett pengar, värdepapper, tulpaner eller annat skattats upplevt för högt i värde tenderar normalisering att gå ibland också väldigt djupt och inte sällan under egentligen mer rationellt faktiskt värde. Viss respekt för risken att bitcoin kanske inte ens används om några år ska man ha inte investerande för mycket. Men jag om någon önskar självklart bitcoin all lycka och popularitet: Har jag förstått systemet rätt lämnas ju en trevlig log-discourse som är fint indata för analys och tycks när jag läste om det inte vad jag fått tag i tidigare från andra källor.


Vad är variansen? Interferens och information

Ytterst med den statistik vi kan mena att vi behöver här är att när man redan samplat det tillräckligt för att klara operationerna behöver man inte känna att någon annan trivialt utan att lägga ordentligt med tid klarar att göra det samma. Härligt gigantiska mängder språk i komplexitet tunga domäner (annars krävs än mer gigantisk samling för att få upp utgångspunkt för distanser längre ut) är att under antagande att vi behöver associationer inlärda mellan koncepten bl.a. för att klara att ta ut denna form av interferens föreligger genom antalet relationer och störleken expansion ett gigantiskt krav på statistik när vi motsvarande lämnar det lokala i 5-gram och vill titta ut mycket längre ut - rent av utanför nyheten och bak i tid för olika populationer.


Variansen är åtminstone inte vad vi säkert alltid sunt "bara" kan skatta för vad känd en symbol vi betraktar del av dessa system när vi söker interferens. Mycket ofta är vi i komplexiteter och kombinationer aktivitet sådana enkla skattningar ej går att få bara från inlärt. Sedan självklart kan isäkerhet fångas upp i hjärnan såväl i algoritmer. Men hur variansen ser ut övergripande för kurvan över hela expansionen kanske inte har något att göra med ev. ny inlärning. Där det ev. om variansen alls är det viktiga här är annat än något mer lokalt del av indikation (ev. tänker jag fel här faktiskt: det är svårt att resonera med grafer och man får gå över det några gånger vet jag av erfarenhet när man ska bättra på algoritmerna).


Jag kan eventuellt tänka mig att jag möjligen hade kunnat dela något av det men datat är för stort för att försöka ladda upp. År bara att få ner (om än med cirka totalt säg 10 månader intensivt samplande). Så jag nöjer mig i data att dela allt i datamängd mindre som nyligen refererat mina packs (se Spindlande Ericsson konkurrerande konkurrenter: Att indirekt indikera nätets "riktigare" kunskap och kultur istället för att upplevas död). Annars hade jag ev. kanske delat datat här. Jag om någon har föga av elitism och jag tror aldrig jag upplevt en lika prestigelös såväl som utanför sig själv engagerad i den större värld och den lilla människan. Vill den enkla mannen på gatan ha statistik kan jag se att det ev. är vad jag kanske skulle ge honom också i high value data ev. världens största samling av denna form av statistik (jag tror ej den är störst men jag vet ingenting känt som är större). Jag inser förövrigt att jag nog är juridiskt såväl som moraliskt hindrad här. Någon form av licensfil kring något jag nu minns som råkade samplas ner. Dessutom kanske privacy känslat data finns i det läckande ut i statistiken.Att bedöma någon av dessa risker är föga görligt för mig. Så just här känns det som jag tråkigt nog ej kommer dela datat.


I skam över att Uppsala Kommun i år hade reducerat gratis flaggorna på Nationaldagen i storlek såväl som kvalitet (dåligt papper med sugrörs-pinne besvärande liten till och med för alla annat än små barn och fullständigt olämpliga för en vuxen) påminner jag om Sverige-grafen jag längre tillbaka i slutet av "level I" sampling av just datat här (i ordningen samplingsprojekt cirka 15 - 17 när level I inleds - varande det näst sista).


Så vi avslutar med att minnas och se att jag om någon är generös med mitt data såväl som räckande ut en hjälpande hand till den svenska medborgaren protesterande detta fflagg-övergrepp. Är det så här Sveriges barn ska behöva växa upp? Svultna på sin historia, hembygden och utan den lugna trygghet i sin nationella identitet nödvändig för att minska risken för irrationella uttryck av främlingsgfientlighet och osund nationalism när de blir äldre? Är ingen mer vågat försvara vår gemensamma framtid? Ska den helt säljas ut till utlandet? Har ingen mer än stigit upp för att dela sin Sverige-graf tryggande barnen och Sveriges framtid? När ska denna girighet data såväl som småslantar för barenns Nationaldag sluta? Är Sverige-grafen Sverigens enda utbildning för våra kommande generationer i statistik om vad vi svenskar är? Så länge jag lever ska Sverige-grafen vara fortsatt svensk tillgänglig för Sveriges läraktiga och matematik-intresserade barn.

Subadditive reward discounting

Här bör vad beskrivet bäst se som utgångspunkt till några algoritmer att testa ut men tror jag oavsett detaljer hur vi normaliserar resp. discounting (det icke-linjära från resp. diskret tidpunkt för hur vi där värderar ner) förklarande hur jag tror vi får samma fenomen i symbolvärlden skattat från språk enligt , och som för bankränta m.m. där vår defekta men mänskliga discounting ökar ju fler diskreta tidpunkter vi introducerar i samma segment. Se ex. Subadditive versus hyperbolic discounting: A comparison of
choice and matching
för allmänt reward discounting när icke-linjära tidssamband styrande hur stor faktor discounting som sker vid resp. tidpunkt visande tendens att öka med fler tidpunkter trots samma absoluta tid vi ex. skattar något relaterat pengar för.


En svaghet jag haft befintligt i algoritmer implementerade stabilt sedan länge har att göra med hur blanka diskreta samplingspunkter för en symbol hanteras. D.v.s. när vi ej överhuvudtaget märker den alls. Vad vi ser tror jag motsvarande subbadditiativ discounting för är just illustrerat i emlöaste algoritm i utgångspunkt till en mer anpassad lösning enligt samma koncept om fungerande som förväntat (d.v.s. läggande på det mer mång-dimensionella vi här och allmänt resonerande runt sådant här bäst undviker lösningar som tvingar oss att behöva tänka och resonera mång-dimensionellt rörande algoritmer och modeller: det är kognitivt krävande).


För första tidpunkt vi ser en symbol - tiden t - antar vi att vi ej sett symbolen på en längre tid. Innan påverkande dynamik finns från förra förekomsten. Vi har emellertid en inlärd centralitet för symbolen kanske etablerad av samplande stora delar seriöst språk från många år (kanske all publicerad forskning för ett antal år, alla produktbeskrivningar för de fem största webbutikerna i världen eller vad nu passande för området).


Vid första förekomst jämför vi uttryck där med inlärt. Detta ger oss en indikation om vad vi upplever som en discounting om vi ej kände till att vi faktiskt har värden resp. inlärning. Vi kan skatta ut faktor för det varierat och det har ingen betydelse här för resonemangen vilket system vi väljer men det har viss praktisk elegans att använda heaps law för att få discounting via zipf law även om den formen är något mindre vanlig rörande reward discounting.


Är intensitet vid den första tidpunkt större eller relevant nära denna inlärda centralitet säger vi att ingen discounting har skett, En implicit representation skapas motsvarande faktisk intensitet (säger vi här medan viss decay alltid bör göras och förväntas men tämligen låg här) som motsvarar representationen av symbolen fortgående till nästa diskreta tidpunkt. Denna representation är en förutsättning för att överhuvudtaget kunna se att upplevt fortgående eller upparbetat kortare tid bakåt påverkar hur vi tolkar vad vi upplever just nu trots att denna dynamik välkänt kan avvika från över lägre tid inlärd preferens.


Vi går till nästa dag och noterar vad vi får för faktisk intensitet (vi antar nu här att vi faktiskt får ett mätvärde). Jämförelsen såväl som representationen av föregående är ytterst användbar för en mängd moment relaterade tolkning och förståelse även utan för prediktion eller sökande interferens och dolda samband över större avstånd. Men det ändå viktigt här är vår möjlighet att se förändring. Är intensitet för resp. dag ungefär den samma märker vi ändå skillnad om discountng kommer varit tillräckligt stor för att representationens skillnad mot den faktiska intensiteten för nya dagen är stor nog.


Vanligen om inte en särskild insats gör bibehåller vi ej serier av skattningar om komplext inkluderande många neuroner. Ska vi göra det behöver vi typiskt upprepa motsvarade den intensitet som konvergerar symboler en mängd gånger (ex. lärande en listan utan till). Här tänker vi oss endast ett tidsfönster bakåt och ev. andra behov annat minne är bättre hanterat att ändra tidsfönstret till antingen större eller mindre.


Till nästa diskreta tidpunkt beräknar vi nu en ny discounting men denna gång från vår representation jämfört med det faktiska värdet efterföljande dag. Här är tänkbart att praktisk algoritm kan komma att inkludera mer än detta men jag är tillräckligt trygg i att detta fungerar för att se det som det självklara att börja pröva ut för faktiskt data från. Det är kanske praktiskt kan man tycka tilltalande om istället bara användande centraliteten men det är också problematiskt att blanda in den för mycket i pågående nyhetshändelser eftersom dynamiken där är väldigt annorlunda definierande en egen värld vilket gör att en del del beräkningar krävs (inte helt gratis i beräkningskostnad åtminstone om man som jag gärna när ej för dyrt föredrar att skriva kod som jag är van från universitetet i aktuella större kurser att skriva matematiken d.v.s. av och till multiplikationer och divisioner man hade kunnat arbeta bort - det mesta relaterat språkanalys har jag ej det problemet för p.g.a. annan vana).


Discounting från sista kända sambandet bedömt den representation vi räknade fram (ev. vad vi kompletterar algoritm användande faktiskt värde om representation visar sig dyr mågndimensionell om den ska vara välfungerande men jag tror inte det ska behövas och att detta är förväntat korrektare för de viktigaste användningsområdena).


Saknar vi nu istället en tidpunkt där inget data finns har vi fortfarande en representation. Vi känner ej heller att vi riktigt glömmer denna om ej under något lämpligt tröskelvärde. Ny intensitet vi vill kunna uppleva skillnad för kan ju dyka upp sent samma dag eller på morgonen nästa. Praktiskt kan vi förstå att i kortare tid över några dagar kan intensitet symboler en nyhetshändelse vara samma sak i påverkan oavsett vilken dag de kommer för. Det är ej tillräckligt tillbaka för att vi ska börja om med dyrare kognitiv kostnad.


Men hur beräknar vi nu vår nästa discounting om vi trots att inget mätvärde ska bibehålla representationen? Ty är den bibehållen går den över en distans i tid och därmed kommer discounting ske om det ej är vd särskilt bibehållet (motsvarande här att vi antar ingen discounting men egentligen färre fall än det)?


Vi har som antaget endast två värden att jämföra. Aktivitet representation och den inlärda centraliteten. Tidigaer faktiskt mätvärde eller representation innan är tappat i exakthet av vad vi egentligen upplevde. Vi har detta mer samlade rest-spår av det.


Vi beräknar därför discounting från representationen med centraliteten. Detta innebär att aktivitet representationen över tomma diskreta samplingspunkter snabbt kommer reduceras i aktivitet. Discounting kommer alltid vara fallet (när vi gör den korrektare hanteringen ej antagande noll discounting om första mätta aktivitet var större än centrlaiteten).


I nästa tidpunkt har vi inte fler möjligheter. Vi kan fortfarande endast jämföra samma sak. Därmed hökar nu discounting eftersom centraliteten är samma medan nu aktuell representation minskat i aktivitet.


För varje tidpunkt där vi behöver ha representationen uttryckt görande jämförelse av den där faktiskt data saknas kommer växande discounting ske. Faktorn uttryckande discounting ökar.


Divergent tänkande

Innan vi kort tydliggör hur ovan motsvarar subadditive discounting är det meningsfullt att försöka se vad dom diskreta tidpunkterna motsvarar biologiskt. Det kan förvissa vara tidpunkter vi skattar framåt i tiden motsvarande som när reward discounting mäts eller för den delen när reward prediction mäts.


Men vi kan också inse att underliggande handlar det inte just om ett ensamt koncept utan en kombination av en mängd neuroner fångande olika perspektiv, emotionella preferenser m.m. varierande över tiden. Itgår vi från dimensioner jag maximalt i beräkningsdyraste tänkbara fall hanterar finns just nu cirka 50 -80 egebndimensioner (om jag minns rätt: ett större antal och de flesta är ej stabilt utvecklade utan mer experimentiella men tror jag nära nog alla motsvarande verkliga perspektiv vi kan ta som människor). Vidare för ett koncept finns i Blue light en mängd motsvarande inlärda relationer. Sällan färre än förra versionen cirka 70 st (nu antagligen fler i genomsnitt - ev. många fler) och upp till tio tusentals för tugna koncept likt länder inverkande och inverkat av mycket. Skattar vi ut antal kombinationer vi får per symbol förenlade allt till existerande eller inte och tagande cirka 50 relationer per koncept får vi 100 000 000 * ( 50 egendimensioenr) per koncept. Jag tror det är minsta tänkbara komplexitet vi har i dom biologiska nätet per koncept.


Att acceptera flera diskreta tidpunkter där är att ta på sig en värre tanke-uppgift. Att behöva tänka ex. längre in i framtiden över fler tidpunkter där ett värde behöver tas ut vi kognitivt förstår och ex. kan uttrycka i tal med siffror. Mer diskret pågående aktivitet mindre kostsam behöver kovnergeras till en förståelse kommande med i sig en kostnad En del av den dynamiken är att vi behöver normalisera till något allmänt begripligt vilket ger vår discounting mot centraliteten. .


En till domän likartat som vi antagit i föregående inlägg är när vi istället går längre ut vid ungefär samma tidpunkt men nu med större distans ut till fler neuroner runt omkring. Är riskfaktorer indikerande dolda problem kan vi ta på oss en större kostnad evaluerande data för att upptäcka problem. Aktivitet divergerar från representationen vi initialt har där vi når fler neuroner men med mindre aktivitet också där discounting fktorer finns (ungefär jämförbara men även i enklaste modell som här inkluderande ett par moment till vi ej behöver diskutera här).


Medan vii som ibland kallas lateralt tänkande och som jag gärna vill anta motsvarar multi-modular inlärning kombinerande skilda perceptioner, kunskapsodmäner m.m. på större distans via hierarkiskt mer överskridande neuroner och delar i hjärnan istället snarare är vad vi söker en interferens för från ex. divergent tänkande lokaliserat men vi ett något väsenskillt medium bättre anpassat över hjärnans större distanser (det är populärt bland forskare kognition att se sådant som uttryckt via elektriska vågformationer) men det är knappast viktigt här. Detta är samma fenomen jag förr diskuterat från vad jag kallat stegen tolkande en dröm där drömmen tycktes experimentera med komponenter från väldigt olika domäner i verkligheten för att se om något användbart kunde identifieras (klättrande upp på en stege på en järnvägsstation som endast går upp till strömkablarna men där istället för drömmen inkluderande andra egenskaper relaterade stegar inkl. plan ovanför). S.v.s. sökande interferens över väldigt stora distanser i hjärnan från något i detaljer besläktat: lokala konvergenser.


I divergent tänkande tror jag att vi har nära nog samma dynamik som för diskreta tidpunkter: Discounting från ganska effektiva snabba funktioner. Emellertid för lateralt tänkande är avståndet vi ej uttrycker mellan konvergenser för motsvarande diskreta tidpunkter mycket stort. Mellan mer lokaliserade delar av hjärnan till andra sådana delar. Ex. delar i frontala cortex kombinerande information från olika domäner i perceptionen med kunskap och pågående resonerande.
/p>

Vi kan menar jag jämföra detta med vad vi för en nyhet eller mer sammanfattad vetskap om en symbol för en dag med att vi här flera symboler denna konvergerar till i DP. Vi förstår DO här enklast från exempel likt Wikipedias preferens att namnge sina uppslagssdior. Vad det hela tolkas handla om övergripande (inte alltid lika enkelt som för Wikipedia eller så gemensamt hela innehållet men samma prrincip). Här kan ju flera koncept konkurrera samtidigt som de samverkar. De kan ligga nära varandra d.v.s. föga lateralt tänkande nödvändigt (ex. namn på film (film) ) men kan även ha stor distans långt utanför vad vi är vana att förvänta flör ämnesområdena. Det kan var any inlärning alla människor elller helt enkelt att det är nytt för oss. Det är när distanserna är större ökad komplexitet och kognitiv kostnad. men vi har egentligen bara en uppenbar representation för resp. koncept.


Vill vi ändå försöka återanvända konceptet med diskreta tidpunkter discounting görs för kan vi tänka oss att dessa nu motsvaras av del-konvergenser på väg till tolkning och förståelse av vad symbolerna DO tillsammans betyder för oss. I all ärlighet gillar jag inte det tänket även om det knappast är ovanligt eller ens sämre skulle motsvara ett bra sett att tänka sig vad hjärnan gör här. Men det ställer en hel del krav på att rätt tolka ut relativa förhållande mellan symbolerna vilka kan fodra rent av att vi behöver göra natural language processing brödtexten allmänt.


Istället är lösningar jag för nära liggaoområden i algoritmer använt kombinationer av några mått skattande signal-to-noise där distanserna med samtidiga symboler kan uttrycka noise. Vidare mått relaterade enklare skattningar av "total" distans - ungefär som "Facebook kopplingar" med resp. symbol i mitten uttryckande distans till resp. i övrigt från dess perspektiv (d.v.s. motsvarande hur lokaliserade dess dendrit-träd är mot dessa).


Alla befintliga lösningar är förväntat nödvändiga här därför att datavärlden i vad samplat kan vareira där man behöver räkna lite olika. Men hur vi egentligen vill göra det här i alla fall när vi redan diskuterat Heaps law och Zipf law är att istället söka skatta totalt antal typer vvi konvergerar aktiviteten konkurrerande samtidiga symboler (vad vi ser som token). Där vi menar att det här ingår typer - unika konvergenser - vi tvunget behöver göra för att förstå hur vad de betyder tillsammans.


Oc h detta tror jag att man måste göra användande också distansmått som diskuterat tidigare mina baserade på similarity från perspektiv av en symbol eller symbolgripp. Relationen när vi konbinerar såg jag klart för mig tidigare idag men det känns just nu som jag kan blanda smaman riktningarna för vad som ökar resp. reducerar beräknande vad vi vill jämföra antalet typer vi faktiskt här i själva antalet givna symboler. Tänkbart är intensiteten som effekt given - annars påverkar de ju inte alls - och där denna aktivitet tvingas till större arbete (mer irritation, upplevt tråkigt och diverse fel i detaljer) när distansen är hög innebärande att vi kan som i den få-dimensionella fyrkantiga världen kan tänka oss att vi multiplicerar för en area. Mer area mer arbetsamt.


Problemet med det är här - därför ev. fel riktning och att viss varning för att jag tänker fel någonstans ovanför direkt eller här - att vi när distans är låg men intensitet hög ej nu korrekt fångar att konvergens befintligt givet är mycket mer entydig innebärande lägre kognitiv kostnad. Men också tänkbart är sådan dynamik parametriserad annan normalisering vi i detta inlägg ej valt att nu betrakta (om mycket kawaii och föga direkt hot vapen vad vi hellre just ser om enkel konvergens given symbol men om något farligt dolt finns aktivitet vi utnyttjar för att divergerat gå utåt). Men jag tror nog vi alla förstår vad det handlar om oavsett det: Känd lag i kemi kombinerad med känd lag inom psykologi är mer troligt jobbigare för resp. utbildad i vardera därför att de kan vara nya för dem och indikerande praktisk tillämpning längre ifrån normalt (om mer normalt vad de hade mött förr och varit mer en lag båda använder). ä'ven


Subadditive discounting: Representationer kostar

Vi har grundrelationen för hur discounting antas beräknas vid tomma tidpunkter där vi ej får faktiska mätvärden. Vi förstår också nu något av vad diskreta tidpunkter motsvarar. Och vad de inte riktigt lika enkelt ibland är.


Gör vi skattning värde för den absoluta tiden tre veckor gäller att vi initialt gör jämförelse mot en centralitet. Summa vi utgår från förstår och tolkar vi från denna. Exakthet möjlig att mäta upp för verkliga personer kommer därför påverkas av vid samma summa tunyttjad om de är fattiga studenter eller rika kapitalisterna med massor av pengar att små-slösa med i vardagen lite hur som helst. En chokladkaka i belöning kan tänkas fungera för båda men när det gäller pengar blir det för småsummor nog ganska annorlunda.


Vidare komemr vi alltid om jag tänker rätt ha en sista representation med en egen discounting. Det är denna som är vår slutsats vi förklarar för forskningsassisten är vår skattning av om vi ska ha en chokladkaka nu eller en chokladkaka och 100 kr om en vecka. Eller enklare om vi föredrar 1000 kr nu eller 5000 kr om en månad eller vad helst egentligen. Men för de mer välkända exemplen där man inte sällan söker jämföra med ränteberäkningar och liknande kan vilken som helst nästan av de många studier gjorda närmare forskning i domän av ekonomimetri läsas (några länkar finns i slutet).


För varke vot doslret tidpunkt vi adderar ju större discounting jämfört med föregåede tidpunkt gör vi. Varje sådan representation motsvarar att vi tar ut ett värde för förstår och kan tala med. Det indikeras för forskaren eller är vad vi resonerar med mentalt.
<(å>

<å>
Jar ett k',färamde soffertaö govots vo sla k',fära ,ed ett ammat- Fr ex. två tidpunkter är det resp. vad vi hanterar i detta. Vår sista representation kommer nu jämföras med den där faktiskt givna indikerande summan och vår ett uttryck för relativ discounting. Vi har kanske reducerat ner något vi utgick ifrån som blivit väldigt lite medan summan vi tycks kunna få är myycket större. Men här har vi nu via discounting fått normaliseringen vi kan tolka och förstå denna summa ifrån. När vi gått igenom distansen med relativa samplingspunkter förstår vi kostnaden vi tycker att den kommer med. Det är länge - och pengar jag ex. har nu har där hunnit blivit små eller omvänt att pengarna jag har där borta tycks bli större när jag förfl7ttar dem hit tillgående och jämför med pengarna jag antas ha här (stora pengar från framtiden just nu indikerar discounting av pengarna nu i framtiden - dock huruvdia vi faktiskt tänker båda riktningarna har jag inte tänkt på men det verkar väl inte otroligt) jfr att flytta perspektiv för en scen från övergripande seende fler saker men mindre i storlek eller färre med större exakthet).


Och vi bör ej förstå varje tidpunkt när döda tidpunkte kommer efter den frösta summan vi utgår från nödvändigtvis har samma rank för första fallet som de stor i turordning när en centralitet finns. Är summan större vid första diskreta tidpunkten mot normaliseringen - jämförande två summor - kommer den tomma tidpunkten där vi tar ut centraliteten när första faktiska summan är mindre än den andra bli nummer två medan den första skattade representationen blir nummer tre.


Oavsett en del sådana underligheter och utmärkt indikerande ett värde att ej tänka fler-dimensionellt i utgångspunkt för tidigt kan göra en enkel beräkning där vi väljer att göra det med Heaps law.


För symbol A havande en centralitet med ett stabilt inlärt värde. För oss som ex. rika kapitalister är 100 kr alltid värda 5 kr. Men för enkelheten säger vi helt enkelt att centraliteten är C.


Vid första tidpunkten t får vi en faktisk summa - en intensitet för vår symbol. Denna är I..


Antag nu att C mer konkret är 8 enheter vluta. I är 6 enheter valuta (lite mindre därför att det känns tråkigt att vara med i forskningsstudien).


1. Vi skattar decay för vår första representation skapad.


1.1. B = a * ln ( C / I ) , där a är en till konstant mer diskuterad tidigare inlägg. och vi här antar är 1 alltid.
= ln 8 - ln 6 = 0.28768207245


1.2. Vi beräknar representation görande discounting av 6.


I representation = 6 ^ 0.288 = 1.67


2. Och så nästa representation för tidpunkt utan mätvärde men där vi behöver en representatiob med utgångspunkt 1.67 i discounting mot den inlärda centraliteten.


Antar vi istället att inlärd centralitet är K. Och vi vid tiden t[0] får X kr och vid en tidpunkt t(0 + n) får Z kr. Är vårt första mätvärde vad som ger den initiala representation vi ska förstå och tolka värde två från. Har vi gjort större discounting initialt har vi mindre jämförelse att göra vid nästa mätvärde. Och dess när centraliteten är i samma domän discounting fortsätter men sättande värdet vi direkt får som jämförelse sig självt. Ju större discounting vi gjort desto mer reducrar vi också i sista steget. Och ju fler representationer vi behövt på vägen desto större arbetar vi upp discounting faktorn. Varje representation kostar lite att göra.


Och inget annan väg för att förstå distansen finns än denna. Förutom inlärda beräkningsregler och liknande vilka ju beskriver inlärda vägar mellan symboler för hur vi gör något (beräknande ränta exempelvis). Annars får vi värdera något och låta representation gå en sträcka eller finnas en tid och se hur mycket den minskar eller ökar (vi kan öka även om det fodrar ett inverkande kontext).