Visar inlägg med etikett Subadditive reward discounting. Visa alla inlägg
Visar inlägg med etikett Subadditive reward discounting. Visa alla inlägg

Att hugga av den geo-politiska elitens latenta överträning och fixering

2018-01-10

Vi började med 400-dimensionella "probalistisk PCA" skapade vektorer koncept i några varianter. Därefter igen dimensions-reducerade till 300 tematiskt topologiskt sorterade (i en cirkel snarare än den annars populära disken) för meningsfullt sorterat människan Hans (för enstaka förändringar nyckelkoncept, noterande problem m.m. långsiktigt underhåll tillbaka till varifrån det skapats från) och bättre prestanda än 400 ger. Någonstans 300 - 400 förväntar man sig också om ej arbetande med mer konkreta relationer mellan koncept att en för normal användning god avvägning uttryck exakthet resp. förmåga att ge meningsfulla "sammanfattningar" så att säga: Är vi väldigt exakta många dimensioner svårare att få stabila allmängiltiga positioner som kan kombineras linjärt för ämnen utan att behöva träna fram någon ny viktning för varje användning. Generaliserar bra.


Versionen 300 för ord ( mycket mer sådant än fler-grams-varianten resp. flergrams- och relations-varianten bl.a. därför att den med endast några hundra tusen ord lättare fick mer manuell tid med mång-miljon flergrammen gick: Förväntar mig vanligen inte att få ens värden annat än -1, 1 men hr kommer de 0,1 ). Tränande geografiska representationer personer, platser resp. en del språk-specifikt - cirka 70 000 antaget positiva i tämligen hög andel kontrollerade resp. vanligen 47 000 någon subtraktions-operation sker på - vidare önskande testa ett par koncept vidare organisation presenterar sig tre möten väldigt abstrakta koncept direkt gående in i konkret lösning från dels mycket direkt relaterat resp. unification av temporal discounting, med bl.a. medicinska-behandlings-modeller, samt organisation information och perception direkt, via erfarenheten över- och underträning. Lämnande det till om här alls sist använder vi emellertid för att inleda istället något annat än visualisering från denna unification.


Vi tänker oss en enkel två två-dimensionell kurva beskrivande något data. Säg nu att datat är parabeln för ett föremål som kastas i rummet. Vi antar nu ett barn med koncentrationssvårigheter som antingen är medicinskt under- eller överbehandlad ex. metylfenidat (eller jämförbart påverkande via kända enkla modeller temporal discounting reward value via modifikation dopamin).


Överbehandlad kan hyper-koncentration uppstå (eller för missbrukaren tror jag att en motsvarighet sökande erfarenhet nätet kallas punda: Vilket är ett ord jag känt tidigare men ej detaljförstått. Troligen samma sak men mer absurt övertränat till discounting reward mer eller mindre ej en fråga under säg en dags-tid.). Koncentrationen kommer åtminstone om hyper-fokus inducerats i förändring dosering (vi kan spekulera att för konkret perception är så pass tydlig direkt effekt annars mindre trolig oavsett om själva den medicinska frågan för läkaren om att bestämma rätt dos föreligger vilket vi här ej bryr oss i.) föranleda att föremålet följs väldigt exakt. Lite samma effekt lärare och föräldrar gärna efterfrågar.


Temporal discounting verkar i motsatt riktning. Reward längre ifrån oss tidsmässigt reduceras i vår upplevelse i mening påverkande beteende och tänkande just nu ju längre fram i tiden. I väldigt kort tid kan färsk information om vi istället för hyperfokus har nedsatt koncentrationsförmåga tendera att passera förbi här om discounting är hög. Är discounting hög för pågående händelse är vi också mer benägna att lämna aktiviteten tidigare också rent prospektivt utan säkert värde. Är information från en sådan alternativ "händelse" vi kan delta i ny eller kommande snabbt är vi mer benägna att processa den kognitivt adderande något till perceptions mer för oss automatiska hantering. Vi flyttar uppmärksamheten till ett plötsligt ljud. Värderar vi ett långsiktigt värde mycket högt med föga discounting - säg att vi är en kirurg som skär i någon dödlig del av kroppen - när ett ljud vi annars reagerar för inträffar (därför det kanske indikerar en omedelbara) kan ibland extrem koncentration vara möjligt. Kirurgen varande mer eller mindre närmare övertränad på åtminstone basala ingrepp ej nya för honom efter en åtta års grundutbildning kanske lättare klarar detta.


Säg nu att vi skattar något som ska motsvara vår kurva. Övertränar vi får vi gärna något exakt. Men kan p.g.a. komplexiteten i förhållande till mängden information hamna i stora svårigheter för varje ny bit "tid" eller geografiskt avstånd som vi därefter ska försöka tillämpa vår skattning på. Det klarar normalt sämre av att generalisera. Är det undertränat får vi en dålig beskrivning normalt redan av kurvan vi använder för att göra skattningen, och normalt lika dålig på okänt data. Ibland gäller att övertränat kan fungera bitvis bra för att plötsligt "irrationellt" förändra sig fullständigt på förändringar träningsdata ej behövde använda eller hade.


Söker vi nu topologiskt organisera koncepten diskuterade tidigt och gärna gillande en geografisk motsvarighet hur saker ligger i världen kan man pröva lite av varje och få vad man söker ganska lätt för säg länder m.m. Inte minst om man utgår bara från deras konkreta position på jordklotet. Vill vi emellertid att det meningsfullt generaliserar sig till personer, kulturella fenomen, språk o.s.v. utan att behöva engagera sig i varje dimension i 300-vektorerna vi utgår från blir det gärna (åtminstone lite tidsödande givetvis) mycket mer en fråga om att undvika för effektiv information.


Det hela kan självorganisera sig utmärkt i princip användande en eller ett fåtal givna 300 positioner i vektorerna. Särskilt om vi säg utgår från 4000 mer väsentliga geografiska koncept (länder existerande, som existerat, större städer, vissa folkslag o.s.v.). Konceptens vektorer har utan tvivel vad helst information nödvändig för att få ut kopplingar till övriga kulturella fenomen som kan vara nödvändiga för det färdiga senare att kunna använda för att rätt sortera vad helst rätt (pottery, chinese-style porslin, westerned-styled democracy, indo-indian relationer, Cassius, Bokassa, typiska namn över kulturerna o.s.v. Saker en anmänbildad antikvitetshandlare eller krämare av begagnade böcker kan tänkas klara i begränsade områden för viktigare kulturer de möter. Den tyska inredes-designers kan igenkänna en svensk björkmöbel hemmasnickrad under något ej brutalt långt ifrån våra svältperioder).


Antar vi att varje vektor-position är ensamt meningsfull är det hela på många sätt enklare när åtminstone en färdig sortering kända koncept finns för något avgränsat kulturellt. De är sorterade ut över sina ämnen. Emellertid är poängen med 300 ej just detta i sig utan att de tillsammans klarar att uttrycka en mängd "mellan-relaterade-ämnen" som ej ryms i 300 positioner att fått en färdig 400 dimensionell vektor tränad som sedan värdena kan skapas via.


Kommer Tyskland in för att användas för att sortera upp och extrahera ut representationer. Har den kraftfulla uttryck särskilt rörande en del geo-politiskt (w-ii resp. post-w-ii organisationen av världspolitik jag i så mycket sett saker gärna i vad helst geo-politiskt man önskat sortera kommer fram om ej specifikt ej önskak: Här med de färre 4000 så slöts exempelvis världen i cirkeln med ett litet "geografiskt hopp" dock på andra sätt begripligt när man sett det här tidigare genom att Japan fick bli brygga till Europa anslutande Tyskland som närmast centralitet. Lika gärna att de hade kunnat av samma orsaker blivit USA som mellan-brygga medan de här kom att ansluta Japan konkurrerande Kina ej helt tillfredsställande poå andra sidan och avbrutet innan det hela bestämt sig helt). Låter vi nu saker träna sig fritt som det vill överuttrycks den information som är bäst när konceptet Tyskland ensamt används som det är med övrigt försämras i hur det återanvänds. Självorganiserar vi sorteringen besläktat med hur 300 gjordes med ej sprider sorteringen brett nog kan vi också troligt få personer, länder, föremål, oavsett om geografiskt nära-liggande sorterande var för sig. Här såg jag det aldrig med hindrande det redan i första försöket.


Man kan pröva lite av varje för att lösa det här. Man kan tänka sig mer avancerade lösningar - i mening krävande att man för-planerar dem längre tid snarare än att pröva dem praktiskt enkelt kontrollerande effekten - men ett fåtal enkla tycks ha räckt mer än väl. Ej säkert för resp. att alla är nödvändiga eftersom de typiskt tillförts antingen vid demonstrerat behov eller när de tidsmässigt kommit nära där behov uppstår. Exempelvis rörande tunga positioners inverkan är det egentligen mindre en fråga tidigt i organisationen eftersom dessa fungerar väl för att ge samlande över alla positioners sortering. Utan problemen uppstår lokalt vilket är en växande problematik ju fler förändringar som sker lokalt en plats från konceptet kontra hur mycket det inverkar övergripande sortering.


1. En konceptuell blandning av bulk och online görs. Vi kan vi storleken här delvis delvis från andra lösningar nedanför styra prioritet övergripande sortering kontra enskilda positioner. Liten bulk med stor påverkan alla positioner prioriterar övergripande sortering mer effektivt - särskilt om saker ej konvergerar som riktigt önskat - medan stor bulk ger större effektivitet lokalt.


2. Därför att bulk kommer normaliseras och storleks-frågor på dem mer direkt motsvarande online-lärning eller alla koncept i en bulk finns inte riktigt på samma sätt. Har vi ej påverkan ut är skillnaden mellan ett bulk-koncept lokalt gjort av 10 eller 10000 koncept ej helt - men delvis - samma sak som om vi tränar dem var för sig. Under förutsättning att L2 normaliseringen sker på de adderade koncepten.


3. Ett sunt sätt att förstå regularisering är tycker jag egentligen fysikens modeller för partikel-sönderfall m.m. Decay av vad vi redan lärt. En kulturell slump mer sannolik i den lokala kulturen givet preferens att förstå och resonera med gradient descent ger dock att det vanligen förklaras via andra modeller vilket ger stark preferens användning för L1 resp. L2 normalisering. Det kan rent av tyckas att annan regularisering bör bli samma sak som den eller den andra. Praktiskt är det knappast i någon situation där regularisering mot överträning krävs någonsin fallet att konvergenser teoretiskt visade av den här typen inträffar. Och även om jag använder L2 just nu går det mycket väl att snabba upp regularsering när högre värden än önskat viat sig (med endast Kohonen såväl som den vidare byggda lösningen här är en period av hårdare regularisering aldrig ett problem under förutsättning att positionen alls hinnder med d.v.s. så länge vi ej drar bort mer än som kommer in: Förändras det samma över positionerna fortsätter organisationen omedelbart där den låg och effekten kan enkelt följas.) av "1.25 - 1.5" regularisering. D.v.s. önskande en polynom effekt så att vi ej gör decay utifrån en procent-andel (så som momsen) utan att decay är större om värdet är högt (så som marginalskatt) då låga värden ej är problemet eller vad vi enkelt ens kan bedöma ensamma om de är bra eller dåliga (dessutom tenderar L1 om annan regularisering är låg eller ej sker att döda positioner för att samla träningen till ett fåtal positioner d.v.s. görande den dimensionella överträning vi här ej är intresserade av. Ibland använt för att identifiera features även om jag tror även om det värdet ofta diskuteras att L1-regularisering används av ungefär samma orsaker som L2 och vanligen görs lugnare kombinerat annat så den endast håller ner värde-tillväxt så "evigt minne" ej blir resultatet). x * ( 1 - abs ( x ) ) kontra x ( 1 - ( abs (x) )**0.5 ) har i det senare värdet praktiskt när snabb effekt önskas att vi för värden under 1 för x får ut något mer substantiellt likt L1 men fortfarande i beroende storleken på X. Stora värden
reduceras mer. utan att behöva kombinera L2 med L1 vilket lätt tycks praktiskt men praktiskt är otympligt i hantering träningskonstanter. 1.5 har aldrig givit mig andra problem än L2 lika gärna kan (äver threshold så kan upp till hamna att allt sorteras i en stor hög därför övriga subtraherats relativt snabbare.).


Regularisering skiljande lokalt sättande resp. spread för övergripande sortering prövade jag men gillade ej prestanda-förlusten. Jag tror ej jag förlorade något på det heller. Separering tycks såväl elegant som kraftfullt och flexibelt. Men praktiskt tror jag mig se bakåt att man får allt värde ändå bytande över lösning. Ej otroligt bättre praktiskt därför att man gör det förhand i samband med att utsträckning spread förändras.


Träningskonstanter nivå regularisering via polynom hanterades bäst via automatiskt lösning utnyttjande norm för L1, resp. högre normer ex. L3 och L4 tillsammans. Tittande bl.a. på skillnaden i storlek mellan en låg norm (som L1) och en hög norm (som L4). L1 adderar värdenas absolut-belopp. Medan L4 adderar värdena upphöjt till fyra. Så har en eller flera positioner onormalt höga värden än normalt förväntat kommer det förändra förhållande mellan ex. L1 och L4 normen. Dock är värdet av prestanda man vinner på att beräkna vilken som helst av dom hellre än två till fyra upplevt större än värdet av att det bättre sköter sig självt i inställning konstanterna. Tagande bara en och ej helt att det ej fodrar att man ändrar om av och till när spread-mängd ändrats eller ett ej litet antal koncept tidigare positiv träning flyttats till negativa. En variant prövad tidig som jag ej minns hur väl den var jämfört med flera andra prövade för kombinationer kommer av en den similarity-variant jag ibland använder: Distans-l1 / ( 1 + similarity-cosinus ). Jag tror utan någon teoretisk-tanke bakom det att om bara en norm används får man ut mer av att ej använda värdet för samma polynom vi använder på positionen.


Vi reflekterar här att om vi tränar endast en representation utan sortering över positioner med positiva och negativa samples gäller att regularisering endast egentligen för en position har att göra med övriga positioner. Vi kan dra ifrån mer för en position med större värde relativt övriga. Här när vi tränar en mängd sådana samtidigt där de är topologiskt relaterade varandra är belopp-storleken på ex. norm beräkningar (eller kanske något annat meningsfullt) vad som ger ett sammanfattat uttryckt hela vektorn som kan jämföras övriga befinnande sig på samma "abstraktionsnivå".


4- För förändring koncept-vektorerna. Resp. värde huvudsakligen förändrat via x**(0.08) ). D.v.s. tagande upp låga värden mycket medan höga värden ej förändras lika mycket. Om pottery relaterade dimensioner är något mindre för någon region där mycket hittats än säg en senare oljefyndighet är ej relevant i samma storleksskillnad som värdefull i andra sammanhang. Båda ska kunna geo-sorteras. 300 vektorerna efter-behan dlades bl.a. med en log-oöperation (minns ej vilken) men ganska normal för sådant utan tvekan. Det här är verkligen av samma natur.


3. och 4. kommer här ge typiska värden för en position så att det högsta värdet kanske ligger 0.07 - 0.08.


5. Frihet att kunna välja om samples för bulk dras med eller utan återläggning över alla positiva samples ger att negativa samples alltid dras med återläggning. Vilka icke-diskriminerande, ej utnyttjande likhet, subtraheras från den bulk som föredraget en viss position (d.v.s. ej relaterat något omedelbart när likhet beräknades eller konceptens egna representationer). Meningsfull inlärning men ej lika värdefull givande stor frihet i antal och vilken vikt vi drar ifrån med (här 0.10 till 0.25 lite varierat och cirka 2500 med återläggning dragna varje gång). Också givande viss robusthet mot vissa former av överträning som ibland uppstår om sortering tar lång tid kontra antalet operationer som sker lokalt på vinnande position. Samma mängd negativa samples alla positioner drar ifrån men var och en drar alltid en färsk uppsättning. Vi kan se resultatet om vi så vill samlat nära slutet som varande istället en tänkbar ensemble av representationer skattande den som ska uppdateras (särskilt med stor bulk).


6.1. Att först skapa en bra geo-organisation från goda geo-koncept som länder. Och därefter fylla på med från 4000 till cirka 80 000 koncept visade sig fungera väl som det verkar utan att störa organisationen. Ev. problem i övrigt har ej bedömts i övrigt. Inga personer m.m. sorterade separat. Ingen lösning i övrigt. Och flera av typerna regularisering ovan avslagna.


6.2. Alternativ lösning utgick från samma karta men tog bort 30 stycken för bättre prestanda - landande 108 (den andra 148: Färre är prestanda värde praktisk användning processande text) - och tränande sedan med full spridd vilket är brutalt tidsödande. För den får man ej bra lösning utan fler åtgärder. Följande ensamt räcker antagligen i sig självt - tycks så - utan några säkra problem (även om jag tror en lätt mer avancerad variant handbedömande ut några grupper av vektor-positioner som behandlas lite olika):


Högsta värdet i vektorn används ej. Givet regularisering i övrigt tar det geo-relaterade positioner i övrigt för ex. en person till ungefär jämförbara med de som när största värde har med kart-geo-koncept att göra. Information i övrigt tycks räcka mer än väl.


I variant medelvärdesbildad omedelbart näraliggande. Och vissa positioner om de är vinnare görs ingen förändring för utan de används alltid.


Jag upplevde - någon perceptionell-mönsterigenkänning säkerligen för mig och många andra oftare rätt än alla matematiska bevis som flera år ansågs av så många som påverkade ens information var som den naturliga helheten i varje problemlösning - när jag läste artikeln nedan att värdet där demonstrerat någonstans antagligen är besläktat med vad jag gör när jag kastar det också värdet i vektorn för tränings-konceptet.


All-but-the-Top: Simple and Effective Postprocessing for Word Representations | arXiv:1702.01417v1 [cs.CL] 5 Feb 2017
Jiaqi Mu, Suma Bhat, and Pramod Viswanath, University of Illinois at Urbana Champaign.




Självregularisering. Blir lite osäker på lyriken här men kan miss-minnas. 16 in the clip and one in the whole. Ungefär samtidigt här var ju glock med den egenskapen mer funktionell minns jag från Soldat-läroboken (dock saknande husqvarna fina svenska ursprung såväl som av och till stokastiskt när åldrade spännande pann-skade-incidenter. Idag gör de kylskåp åtminstone. Osäker om motor och vapen-industrin alls finns kvar hos dem. Många svenskar tror jag egentligen önskar en Landsledare som likt jag tycker att en svensk soldat förtjänar en svensk-pistol och ingen tysk-plast-leksak såväl som en massa bra saker för alla andra också förtjänade sedan år men evigt som det är evigt försenat. Bättre filmer och musik, artig kassapersonal, god tillväxt utan något av dagens kultur av att jaga upp varandra och sedan grina i tidningarna om helvetetes-ekonomin ECB, EU m.fl. lagt sig till med. För svåra världs-frågor som sådant kan nog många önska Världs-Hans. Svenskar tidigt hjälpta här kan få flera egna år av bra vulgär-kultur och artig kassa-personal. Och det är mer både absolut och relativt. Ev. ungdoms-kulturen som är orsaken alla problemen listade. Sämre generationer helt enkelt än under Guldåldern vi bestulits på.). Nå lyriken är nog korrekt. Fick för mig 15 + 1.





































Modal verben

2015-03-10

Nedan har vi en tycks det ganska komplett sammanfattning hur man ofta resonerar och tänker sig mening att ta ut från "riktiga" modal verb som may, might, can o.s.v. liksom indikationer om vad vi mer omedelbar tror eller relaterar korrekthet för kring något som sägs:



Och dessutom en mer traditionell utgångspunkt till hur man gör sådant som diskuterat i Vi funderar över vad ett verb är rörande delar av vad jag använder den uttrycksformen (eller datatypen om vi så vill).


Särskilt modal verben är ju väldigt populära här därför att dom är så få att det ganska enkelt med anpassad tolkning för vardera går att tolka från dem manuellt med exempel eller maskinellt.


Hur vi uttrycker sådant som belief som ex. ofta ser ut för dessa kan vi sammanfatta med att vi normalt kan uttrycka (skriva om) indikationen (tjocktext) enligt:


Mr Dunston belives that something...

Eller / resp. (och argumenterat framåt inte oviktigt):



Mr Dunston belives something...

D.v.s. med that nu borta.


Vad är nu unikt med modal verben? De verkar framför och direkt på ett "riktigt" verb. Ex:


King Dunston could win Scotland.

Säg nu att jag är en ung republikans senator som verkligen vill visa upp för alla dom äldre 75+ senatorerna hur starkt jag tror på det sanna budskapet. Då kanske jag säger:


- I scream to spread the good world to the world.

Lite besläktat. Och där precis som för adjektiv och hur vi refererar argumenten ligger en hel del av vad vi kan kalla "bias". Och liksom själva verb:et är det ju lite intressantare bias uttryck genom att det skapar ett kontext som faktiskt i sig går att arbeta med numeriskt.


Jag ska inte säga att det inte går med modal-verb men jag tror det är svårt att göra det sunt utan att se dem även här mer som de fungerar i språket: som operatorer bärande ingen vikt själva. De förekommer i så oerhört många kontext, för så många verb o.s.v. att något egen grundvärde för dem att ta som utgångspunkt för att uttrycka emotionell intensitet, uttryck åt positivt eller negativt m.m. är tämligen meningslöst att försöka. Lite som att ge sig på att beräkna grundvärden för is och was och tro att ev. skillnad man får egentligen betyder något i ett aktuellt nytt kontext vi analyserar.


Hur man operator använder dem bäst vet jag inte. Jag har prövat en del i och runt test-tillämpningar där jag utnyttjade meningar som går att se som Reward discounting / Subadditive discounting / Subadditive reward discounting (för att länka tre taggar jag hoppas en del antecknat kring det går att hitta). Egentligen tror jag inte att det är mer än att de antingen indikerar en konvergens eller två och att det går att se som att vi står 1 enhetssteg eller två: May (ett enhetssteg normalt för korta ord) eller Might (två enhetssteg); Can (ett enhetssteg) eller could (två enhetssteg). Så för ex. A could assault B är A något lite mer distansierad ev. tänkbar realisationen av verbet rörande effekt och respons från B: A can dummy assault B.


Men det går säkert att se på andra sett motsvarande ungefär det samma. Jag fick emellertid för mig lika troligt felaktigt att man kanske kan se spår av andra dummies som mer eller mindre försvunnit relaterat nästan modal-verb. Om vi ex. roar oss med att försöka strukturera dem efter en tänkt nutid och dåtid (vilket vi i övrigt inte bör för modal) har vi tror jag alla som normalt alltid refereras som modal med resp. par (jag tror det gäller alla i Wikipedia: Modal_verb). Men inkluderar vi ett fåtal till ofta också sorterade här eller praktiskt jämförbart men mer ospecifict som auxiliary verb kan vi kanske tänka oss en relaterad ought och must.


Must kan vi se som ett omedelbart behov eller ett behov just identifierad. Ought gǻr förvisso att se som referens till framtid eller just nu precis som för could o.s.v. för övriga modal som också är dåtid. Men ought är relaterat vad vi bör göra som en upparbetad förståelse ofta från vad kultur och flock eller "personlig best practise som en god medborgare gör det". Ex. Jag "ought" "to sopsortera" trots att jag känner till kvalitetsnivå på sopförbränningens filter och vet mängden tungmetaller som sprids runt i Uppsala från komposterade sopor. Ty det är vad den goda medborgaren gör (och varande mer än så är jag inte främmande för att ta på mig munskyddet greppa en spade och bege mig ut i lagom sumpig mark för att själv kompostera aspest-avfall eller spillolja). D.v.s. vi har en upparbetad dåtid så att säga. Precis som vi har för dom typiska modal. För ex:


King Dunstan could attack England.

Introducerar det som ett tänkbart scenario och förutsätter att han can attack som ability.


Och gör det ingen skillnad mellan om vi delar upp i deontic modality eller epistemic modality:


"must deontic modality Sam must go to school.
must epistemic modality It must be hot outside."

Från: Modal_verb - English

Just nu. Så i ought sitter folk och uttrycker någon "flock-idé" om vad folk borde göra utan att kanske ha behov av att alltid motivera sina föreställningar. Lite oartigt om vi talar direkt till någon. Medan could argumenterat är artigare givet att vi erkänner möjlighet att can ("can can" om vi vill) men introducerande en spekulation om personen tänker utnyttja möjligheten de har.


Och för need behöver vi något och är det värt att uttrycka kanske man behöver dådkraft för att lösa det: Dare.


Paren ovan är ju ganska självklara från ganska ofta inkluderade modal. Det blev så eftersom jag fick för mig att det var ought som hade den tappade dummy-markören utan att ha sina andra kvar (men som argumenterat ändå fanns fick jag för mig). Det var emellertid use väldigt sällan indikerad som modal men som intresserade mig när jag tittade på passiv via got (ex. Robot A got terminated / Robot A was terminated) där use uttrycker vad vi ex. brukar eller inte brukar göra:


Robot A used to terminate other robots.

För vilken vi kan få en upparbetad motsvarighet till could och ought (och upplever jag liksom could lite artigare och känns som lite mindre bonnig engelska: Vad riktiga engelsmän borta på den kanadensiska landsbygden hellre använder kanske?): Prefer.


Robot A used not to terminate robots.

Robot A prefer not to terminate robots.

Men prefer är ej modal verb hur vi än ser på det. Eller kanske rather vi kan mena är modal: A rather not VERB jfr adverb-versionen A usually not VERB utan to-inf behovet för used to. Vilket jag tror ganska bra illustrerar varför riktiga modal är ganska begränsat. De kan bli adverb och konstruktioner likt used to kan vi skapa grammatiska relationer för mellan ett första och andra verb för en större mängd verb (såväl som för den delen mer än verb bias indikerande på första: A believes that...) relaterad kännedom och föreställning om världen (resp. mer datalogi relaterade tillståndsmaskiner: A starts to terminate B). D.v.s. om vi så vill vad som sker just nu resp. upparbetade föreställningar från det.


Det är heller ingen hejd på det om man börjar kategorisera verb runt trosföreställningar, idéer om sannolikhet och allt i övrigt man brukar lägga meningsdimensioner för till modal-verben. Nå det är nog faktiskt en lätt men inte enorm överdrift. Jag har en äldre initial strukturering över en del tänkta dimensioner runt sådant inkluderande en hel del utanför själva modal-verben men i den versionen (om jag har den kvar) inte i storlek eller färdigare "finare" uppdelning i kategorier från sedan praktisk användning mot parsning (och därför vad jag kanske kan förmå mig att dela om jag har den kvar: Är det större mer färdigt blir datat ofta för tungt att mentalt orka flytta över usb till internet-datorn).


Filen i fråga var i sin helhet lite större än jag minns första kategori-skissen så jag var tvungen att ta ut en mindre del men större delen av i alla fall vad jag kallat modal samt ett ex. på hur det expanderar ut över fler verb i en av övriga större "huvudgrupper". Notera gärna inte att QA ännu inte gjorts (en korrigerade jag lite men sedan upplevde jag det som lite tilltalande att några enstaka - eller många fel gärna finns kvar: Jag tror det är kulturell ought to eftersom så många andra har sådant man själv uppnår något moraliskt i att leta rätt - notera att jag hand-skissade dessa som utgångspunkt och därför handskrev verb:en också så troligt finns det några stavfel i dom förutom diverse verb och kategorier som flyttats om tämligen omgående).


Tar först det sista ex. där vi har en ännu ganska liten "mini-kategori" kallad dare (argumenterat också ett modal-verb). Men vi ser också efter den några utvalda större kategorier för andra indikerade "ämnen" (i label för kategorin).



SPEECH_ACT__DARE dare


SPEECH_ACT__PRESSURE pressure force threat blackmail bully cajole
 coerce hale squeeze pressure force turn up the heat
 turn up the pressure steamroll


SPEECH_ACT__MOTIVATE motivate encourage empower tempt bribe tempt
 flatter boost cheer root on inspire urge urge on exhort pep up urge exhort

SPEECH_ACT__PERSUADE persuade bring round bring around badger chat up talk
 into rope in wheedle cajole palaver blarney coax sweet-talk inveigle
 convert win over convince brainwash charm influence tempt

Ingen av dem är exakt samma sak som att jag i en speech act "dare" någon till att göra något men de är heller inte orelaterade. Det är samma domän vi rör oss i: Att få någon att göra något. Och bara för dessa tre av ordentligt fler kategorier ganska nära "dare" och senare för fler verb i antal (även om några ovan ej längre finns med i dessa som brainwash, influence, tempt och faktiskt egentligen alla verb i resp. då dessa kategorier brutits upp i fler och själva egentligen bara har sitt eget verb och ev. två eller tre fler).


Och någon egentlig skillnad praktiskt från rena modal (som ganska ofta inkluderad dare) har vi ej:


Queen Maria blackmails King Stanton to attack England.

King Stanton bribes Queen Sarah to join the christian church.

President Obama urges Queen Maria to leave England alone.

Queen Maria gambles that President Obama can not sweet talk UN to freeze her bank accounts in England.

Queen Maria bullies President Obama to shut up.

King Stanton craves to rule Scotland, England and France.

Queen Maria lusts for King Stantons land.

Och cirka hälften (korrektare när jag sett dem publicerade kanske en tredje-del saknande diverse kring osäkerhet om information, fog, maskerad, baffling, förgiftad information, ridcule o.s.v. vilket är helt ok men visar att det lätt blir ordentligt med kategorier där en försvarlig mängd av verben kommer med någonstans modal eller inte till något inte allt för distansierad till kategorisering endast av modal-verben) tror jag av modal kategorierna:



_MODAL__ATTITUDE__ATTEMPT try attempt insist contract attempt aspire apply
 attempt aspire apply strive endeavor endeavour strive undertake
 gamble wage venture risk hazard dare

_MODAL__ATTITUDE__ATTEMPT__TRY try attempt insist rebel contract attempt aspire
 apply attempt aspire apply strive endeavor endeavour strive 
 undertake

_MODAL__ATTITUDE__ATTEMPT__GAMBLE gamble wage venture risk hazard dare


_MODAL__ATTITUDE__CERTAIN certain sure

_MODAL__ATTITUDE__LIKELY likely probable

_MODAL__ATTITUDE__POSSIBLE possible think suppose

_MODAL__ATTITUDE__IMPOSSIBLE impossible

_MODAL__ATTITUDE__EXPECTATION hope believe trust doctrine rely on depend on
 count on believe think imagine reckon expect anticipate guarantee
 should would likely probable possible predict know anticipated 
 expected unlikely apparant clear evident obvious sure will 
 certain shall may can shall would should could might

_MODAL__ATTITUDE__EXPECTATION__TRUST hope trust doctrine rely on depend on 
 count on distrust doubt

_MODAL__ATTITUDE__EXPECTATION__BELIEVE believe think reckon disbelieve suspect 
 surmise disbelieve

_MODAL__ATTITUDE__EXPECTATION__EXPECT expect anticipate guarantee likely 
 probable possible predict know unlikely unexpect

_MODAL__ATTITUDE__EXPECTATION__GUESS guess

_MODAL__ATTITUDE__EXPECTATION__APPARANT apparant clear evident obvious assume 
 presume certain sure unsure uncertain unclear

_MODAL__ATTITUDE__EXPECTATION__NEGATIVE unlikely disbelieve distrust doubt
 unsure uncertain unclear unexpect

_MODAL__ATTITUDE__INTENTION about going apt intend choose inclination mean 
 aim plan planned prepare ready cultivate battle ready intend mean 
 aim consider conspire scheme maneuver

_MODAL__ATTITUDE__INTENTION__PLAN plan prepare ready cultivate conspire scheme maneuver

_MODAL__ATTITUDE__MOTIVATION wish want yen ache hunger yearn thirst scream
 desire motivated crave long lust pray yearn itch addicted prefer
 like willing fancy hope fear reluctant afraid

_MODAL__ATTITUDE__NECESSITY must ought better had to had better necessity
 necessary required obligated obliged compelled imperative 
 compulsory mandatory obligatory forbidden

_MODAL__ATTITUDE__NECESSITY__NEG forbidden

_MODAL__ATTITUDE__NECESSITY__BOUND_TO sworn bound to be bound to bribed 
 blackmailed constrained forced prevented

_MODAL__ATTITUDE__NECESSITY__LIABLE_TO liable

_MODAL__ATTITUDE__PROBABILITY likely probable unlikely improbable

_MODAL__ATTITUDE__DESERVE deserve

Emellertid gör man som ovan med accepterad lätt fuzzy-meaning förutsätter man numerisk värdering utifrån realiserat kontext. Hur mycket motiverar vi något? Givet verb tillsammans med dess argument? Istället för säg att vi redan passerat motiverar och här på "PLAN" (om det är en kategori ovan om jag minns rätt). "LIABLE TO" är för ett ändå i mängd nyheter motsvarande den tämligen liten kategori: Här om vi tänker sig endast en som ovan kan man också relaterat ekonomi-nyheter inkludera allt relaterat "underwrite" som koncept (försäkrings- eller tagande risker som säkerhet ex. lånande ut pengar till Grekland, Tyskland eller kanske i "crowd sourcing" "underwrite" varutransport som i gamla anrika Lloyds jag till min överraskning ser fortfarande lever: Jag mindes det starkt som att de dog efter 11 September). Såväl relaterat "sustain" för regelbunden finansiering vilket tenderar att göra nästa finansiering mer trolig som funktion av faktiskt indikerad risk resp. sannolikt värde tillbaka (har du redan givit Grekland pengar några gånger kommer de snart tillbaka och menar att eftersom de nu börjat skatta sin befolkning enligt sin egen lagstiftning bör de få pengar av EU och om inte tänker dom rösta om ett nytt parlament).


Även om få kategori ändå jämfört med värdering endast från de få modal-verben mindre scarce. Samtidigt vill vi analysera språk mer allmänt över ett hyggligt normal allmänt mänskligt språk som vanliga nyheter eller för den delen också forskningsnyheter (med motsvarande nyheter som grund och quality assurance att särskilda termer viktiga verkligen hanteras) behöver man ganska ordentligt med vetskap om verben. För ett trivialt exempel även om ett verb - eller vad nu aktuellt - uttryckande något är mindre vanligt kan det räcka att (kanske oftare någon av dom engelska tidningarna som The Economist) är fundiga i titeln så dyker det upp variationer av (såväl som samma) begrepp hos andra och så är det plötsligt ej ovanligt längre. Och det är har jag fått för mig i upplevelse snarare än jag kontrollerat det att dom mer vällästa tidningarna försöker vara fyndiga med lite ovanligare event-koncept oftare. Vad är vår bild av världen om vi plötsligt missar själva ökningen i någon mening vi sökt? Det är bias att tala om och sådant bias som är intressant och kan lära oss saker utan ett eget bias som vantolkar världen.

Subadditive reward discounting

2014-06-17

Här bör vad beskrivet bäst se som utgångspunkt till några algoritmer att testa ut men tror jag oavsett detaljer hur vi normaliserar resp. discounting (det icke-linjära från resp. diskret tidpunkt för hur vi där värderar ner) förklarande hur jag tror vi får samma fenomen i symbolvärlden skattat från språk enligt , och som för bankränta m.m. där vår defekta men mänskliga discounting ökar ju fler diskreta tidpunkter vi introducerar i samma segment. Se ex. Subadditive versus hyperbolic discounting: A comparison of
choice and matching
för allmänt reward discounting när icke-linjära tidssamband styrande hur stor faktor discounting som sker vid resp. tidpunkt visande tendens att öka med fler tidpunkter trots samma absoluta tid vi ex. skattar något relaterat pengar för.


En svaghet jag haft befintligt i algoritmer implementerade stabilt sedan länge har att göra med hur blanka diskreta samplingspunkter för en symbol hanteras. D.v.s. när vi ej överhuvudtaget märker den alls. Vad vi ser tror jag motsvarande subbadditiativ discounting för är just illustrerat i emlöaste algoritm i utgångspunkt till en mer anpassad lösning enligt samma koncept om fungerande som förväntat (d.v.s. läggande på det mer mång-dimensionella vi här och allmänt resonerande runt sådant här bäst undviker lösningar som tvingar oss att behöva tänka och resonera mång-dimensionellt rörande algoritmer och modeller: det är kognitivt krävande).


För första tidpunkt vi ser en symbol - tiden t - antar vi att vi ej sett symbolen på en längre tid. Innan påverkande dynamik finns från förra förekomsten. Vi har emellertid en inlärd centralitet för symbolen kanske etablerad av samplande stora delar seriöst språk från många år (kanske all publicerad forskning för ett antal år, alla produktbeskrivningar för de fem största webbutikerna i världen eller vad nu passande för området).


Vid första förekomst jämför vi uttryck där med inlärt. Detta ger oss en indikation om vad vi upplever som en discounting om vi ej kände till att vi faktiskt har värden resp. inlärning. Vi kan skatta ut faktor för det varierat och det har ingen betydelse här för resonemangen vilket system vi väljer men det har viss praktisk elegans att använda heaps law för att få discounting via zipf law även om den formen är något mindre vanlig rörande reward discounting.


Är intensitet vid den första tidpunkt större eller relevant nära denna inlärda centralitet säger vi att ingen discounting har skett, En implicit representation skapas motsvarande faktisk intensitet (säger vi här medan viss decay alltid bör göras och förväntas men tämligen låg här) som motsvarar representationen av symbolen fortgående till nästa diskreta tidpunkt. Denna representation är en förutsättning för att överhuvudtaget kunna se att upplevt fortgående eller upparbetat kortare tid bakåt påverkar hur vi tolkar vad vi upplever just nu trots att denna dynamik välkänt kan avvika från över lägre tid inlärd preferens.


Vi går till nästa dag och noterar vad vi får för faktisk intensitet (vi antar nu här att vi faktiskt får ett mätvärde). Jämförelsen såväl som representationen av föregående är ytterst användbar för en mängd moment relaterade tolkning och förståelse även utan för prediktion eller sökande interferens och dolda samband över större avstånd. Men det ändå viktigt här är vår möjlighet att se förändring. Är intensitet för resp. dag ungefär den samma märker vi ändå skillnad om discountng kommer varit tillräckligt stor för att representationens skillnad mot den faktiska intensiteten för nya dagen är stor nog.


Vanligen om inte en särskild insats gör bibehåller vi ej serier av skattningar om komplext inkluderande många neuroner. Ska vi göra det behöver vi typiskt upprepa motsvarade den intensitet som konvergerar symboler en mängd gånger (ex. lärande en listan utan till). Här tänker vi oss endast ett tidsfönster bakåt och ev. andra behov annat minne är bättre hanterat att ändra tidsfönstret till antingen större eller mindre.


Till nästa diskreta tidpunkt beräknar vi nu en ny discounting men denna gång från vår representation jämfört med det faktiska värdet efterföljande dag. Här är tänkbart att praktisk algoritm kan komma att inkludera mer än detta men jag är tillräckligt trygg i att detta fungerar för att se det som det självklara att börja pröva ut för faktiskt data från. Det är kanske praktiskt kan man tycka tilltalande om istället bara användande centraliteten men det är också problematiskt att blanda in den för mycket i pågående nyhetshändelser eftersom dynamiken där är väldigt annorlunda definierande en egen värld vilket gör att en del del beräkningar krävs (inte helt gratis i beräkningskostnad åtminstone om man som jag gärna när ej för dyrt föredrar att skriva kod som jag är van från universitetet i aktuella större kurser att skriva matematiken d.v.s. av och till multiplikationer och divisioner man hade kunnat arbeta bort - det mesta relaterat språkanalys har jag ej det problemet för p.g.a. annan vana).


Discounting från sista kända sambandet bedömt den representation vi räknade fram (ev. vad vi kompletterar algoritm användande faktiskt värde om representation visar sig dyr mågndimensionell om den ska vara välfungerande men jag tror inte det ska behövas och att detta är förväntat korrektare för de viktigaste användningsområdena).


Saknar vi nu istället en tidpunkt där inget data finns har vi fortfarande en representation. Vi känner ej heller att vi riktigt glömmer denna om ej under något lämpligt tröskelvärde. Ny intensitet vi vill kunna uppleva skillnad för kan ju dyka upp sent samma dag eller på morgonen nästa. Praktiskt kan vi förstå att i kortare tid över några dagar kan intensitet symboler en nyhetshändelse vara samma sak i påverkan oavsett vilken dag de kommer för. Det är ej tillräckligt tillbaka för att vi ska börja om med dyrare kognitiv kostnad.


Men hur beräknar vi nu vår nästa discounting om vi trots att inget mätvärde ska bibehålla representationen? Ty är den bibehållen går den över en distans i tid och därmed kommer discounting ske om det ej är vd särskilt bibehållet (motsvarande här att vi antar ingen discounting men egentligen färre fall än det)?


Vi har som antaget endast två värden att jämföra. Aktivitet representation och den inlärda centraliteten. Tidigaer faktiskt mätvärde eller representation innan är tappat i exakthet av vad vi egentligen upplevde. Vi har detta mer samlade rest-spår av det.


Vi beräknar därför discounting från representationen med centraliteten. Detta innebär att aktivitet representationen över tomma diskreta samplingspunkter snabbt kommer reduceras i aktivitet. Discounting kommer alltid vara fallet (när vi gör den korrektare hanteringen ej antagande noll discounting om första mätta aktivitet var större än centrlaiteten).


I nästa tidpunkt har vi inte fler möjligheter. Vi kan fortfarande endast jämföra samma sak. Därmed hökar nu discounting eftersom centraliteten är samma medan nu aktuell representation minskat i aktivitet.


För varje tidpunkt där vi behöver ha representationen uttryckt görande jämförelse av den där faktiskt data saknas kommer växande discounting ske. Faktorn uttryckande discounting ökar.


Divergent tänkande

Innan vi kort tydliggör hur ovan motsvarar subadditive discounting är det meningsfullt att försöka se vad dom diskreta tidpunkterna motsvarar biologiskt. Det kan förvissa vara tidpunkter vi skattar framåt i tiden motsvarande som när reward discounting mäts eller för den delen när reward prediction mäts.


Men vi kan också inse att underliggande handlar det inte just om ett ensamt koncept utan en kombination av en mängd neuroner fångande olika perspektiv, emotionella preferenser m.m. varierande över tiden. Itgår vi från dimensioner jag maximalt i beräkningsdyraste tänkbara fall hanterar finns just nu cirka 50 -80 egebndimensioner (om jag minns rätt: ett större antal och de flesta är ej stabilt utvecklade utan mer experimentiella men tror jag nära nog alla motsvarande verkliga perspektiv vi kan ta som människor). Vidare för ett koncept finns i Blue light en mängd motsvarande inlärda relationer. Sällan färre än förra versionen cirka 70 st (nu antagligen fler i genomsnitt - ev. många fler) och upp till tio tusentals för tugna koncept likt länder inverkande och inverkat av mycket. Skattar vi ut antal kombinationer vi får per symbol förenlade allt till existerande eller inte och tagande cirka 50 relationer per koncept får vi 100 000 000 * ( 50 egendimensioenr) per koncept. Jag tror det är minsta tänkbara komplexitet vi har i dom biologiska nätet per koncept.


Att acceptera flera diskreta tidpunkter där är att ta på sig en värre tanke-uppgift. Att behöva tänka ex. längre in i framtiden över fler tidpunkter där ett värde behöver tas ut vi kognitivt förstår och ex. kan uttrycka i tal med siffror. Mer diskret pågående aktivitet mindre kostsam behöver kovnergeras till en förståelse kommande med i sig en kostnad En del av den dynamiken är att vi behöver normalisera till något allmänt begripligt vilket ger vår discounting mot centraliteten. .


En till domän likartat som vi antagit i föregående inlägg är när vi istället går längre ut vid ungefär samma tidpunkt men nu med större distans ut till fler neuroner runt omkring. Är riskfaktorer indikerande dolda problem kan vi ta på oss en större kostnad evaluerande data för att upptäcka problem. Aktivitet divergerar från representationen vi initialt har där vi når fler neuroner men med mindre aktivitet också där discounting fktorer finns (ungefär jämförbara men även i enklaste modell som här inkluderande ett par moment till vi ej behöver diskutera här).


Medan vii som ibland kallas lateralt tänkande och som jag gärna vill anta motsvarar multi-modular inlärning kombinerande skilda perceptioner, kunskapsodmäner m.m. på större distans via hierarkiskt mer överskridande neuroner och delar i hjärnan istället snarare är vad vi söker en interferens för från ex. divergent tänkande lokaliserat men vi ett något väsenskillt medium bättre anpassat över hjärnans större distanser (det är populärt bland forskare kognition att se sådant som uttryckt via elektriska vågformationer) men det är knappast viktigt här. Detta är samma fenomen jag förr diskuterat från vad jag kallat stegen tolkande en dröm där drömmen tycktes experimentera med komponenter från väldigt olika domäner i verkligheten för att se om något användbart kunde identifieras (klättrande upp på en stege på en järnvägsstation som endast går upp till strömkablarna men där istället för drömmen inkluderande andra egenskaper relaterade stegar inkl. plan ovanför). S.v.s. sökande interferens över väldigt stora distanser i hjärnan från något i detaljer besläktat: lokala konvergenser.


I divergent tänkande tror jag att vi har nära nog samma dynamik som för diskreta tidpunkter: Discounting från ganska effektiva snabba funktioner. Emellertid för lateralt tänkande är avståndet vi ej uttrycker mellan konvergenser för motsvarande diskreta tidpunkter mycket stort. Mellan mer lokaliserade delar av hjärnan till andra sådana delar. Ex. delar i frontala cortex kombinerande information från olika domäner i perceptionen med kunskap och pågående resonerande.
/p>

Vi kan menar jag jämföra detta med vad vi för en nyhet eller mer sammanfattad vetskap om en symbol för en dag med att vi här flera symboler denna konvergerar till i DP. Vi förstår DO här enklast från exempel likt Wikipedias preferens att namnge sina uppslagssdior. Vad det hela tolkas handla om övergripande (inte alltid lika enkelt som för Wikipedia eller så gemensamt hela innehållet men samma prrincip). Här kan ju flera koncept konkurrera samtidigt som de samverkar. De kan ligga nära varandra d.v.s. föga lateralt tänkande nödvändigt (ex. namn på film (film) ) men kan även ha stor distans långt utanför vad vi är vana att förvänta flör ämnesområdena. Det kan var any inlärning alla människor elller helt enkelt att det är nytt för oss. Det är när distanserna är större ökad komplexitet och kognitiv kostnad. men vi har egentligen bara en uppenbar representation för resp. koncept.


Vill vi ändå försöka återanvända konceptet med diskreta tidpunkter discounting görs för kan vi tänka oss att dessa nu motsvaras av del-konvergenser på väg till tolkning och förståelse av vad symbolerna DO tillsammans betyder för oss. I all ärlighet gillar jag inte det tänket även om det knappast är ovanligt eller ens sämre skulle motsvara ett bra sett att tänka sig vad hjärnan gör här. Men det ställer en hel del krav på att rätt tolka ut relativa förhållande mellan symbolerna vilka kan fodra rent av att vi behöver göra natural language processing brödtexten allmänt.


Istället är lösningar jag för nära liggaoområden i algoritmer använt kombinationer av några mått skattande signal-to-noise där distanserna med samtidiga symboler kan uttrycka noise. Vidare mått relaterade enklare skattningar av "total" distans - ungefär som "Facebook kopplingar" med resp. symbol i mitten uttryckande distans till resp. i övrigt från dess perspektiv (d.v.s. motsvarande hur lokaliserade dess dendrit-träd är mot dessa).


Alla befintliga lösningar är förväntat nödvändiga här därför att datavärlden i vad samplat kan vareira där man behöver räkna lite olika. Men hur vi egentligen vill göra det här i alla fall när vi redan diskuterat Heaps law och Zipf law är att istället söka skatta totalt antal typer vvi konvergerar aktiviteten konkurrerande samtidiga symboler (vad vi ser som token). Där vi menar att det här ingår typer - unika konvergenser - vi tvunget behöver göra för att förstå hur vad de betyder tillsammans.


Oc h detta tror jag att man måste göra användande också distansmått som diskuterat tidigare mina baserade på similarity från perspektiv av en symbol eller symbolgripp. Relationen när vi konbinerar såg jag klart för mig tidigare idag men det känns just nu som jag kan blanda smaman riktningarna för vad som ökar resp. reducerar beräknande vad vi vill jämföra antalet typer vi faktiskt här i själva antalet givna symboler. Tänkbart är intensiteten som effekt given - annars påverkar de ju inte alls - och där denna aktivitet tvingas till större arbete (mer irritation, upplevt tråkigt och diverse fel i detaljer) när distansen är hög innebärande att vi kan som i den få-dimensionella fyrkantiga världen kan tänka oss att vi multiplicerar för en area. Mer area mer arbetsamt.


Problemet med det är här - därför ev. fel riktning och att viss varning för att jag tänker fel någonstans ovanför direkt eller här - att vi när distans är låg men intensitet hög ej nu korrekt fångar att konvergens befintligt givet är mycket mer entydig innebärande lägre kognitiv kostnad. Men också tänkbart är sådan dynamik parametriserad annan normalisering vi i detta inlägg ej valt att nu betrakta (om mycket kawaii och föga direkt hot vapen vad vi hellre just ser om enkel konvergens given symbol men om något farligt dolt finns aktivitet vi utnyttjar för att divergerat gå utåt). Men jag tror nog vi alla förstår vad det handlar om oavsett det: Känd lag i kemi kombinerad med känd lag inom psykologi är mer troligt jobbigare för resp. utbildad i vardera därför att de kan vara nya för dem och indikerande praktisk tillämpning längre ifrån normalt (om mer normalt vad de hade mött förr och varit mer en lag båda använder). ä'ven


Subadditive discounting: Representationer kostar

Vi har grundrelationen för hur discounting antas beräknas vid tomma tidpunkter där vi ej får faktiska mätvärden. Vi förstår också nu något av vad diskreta tidpunkter motsvarar. Och vad de inte riktigt lika enkelt ibland är.


Gör vi skattning värde för den absoluta tiden tre veckor gäller att vi initialt gör jämförelse mot en centralitet. Summa vi utgår från förstår och tolkar vi från denna. Exakthet möjlig att mäta upp för verkliga personer kommer därför påverkas av vid samma summa tunyttjad om de är fattiga studenter eller rika kapitalisterna med massor av pengar att små-slösa med i vardagen lite hur som helst. En chokladkaka i belöning kan tänkas fungera för båda men när det gäller pengar blir det för småsummor nog ganska annorlunda.


Vidare komemr vi alltid om jag tänker rätt ha en sista representation med en egen discounting. Det är denna som är vår slutsats vi förklarar för forskningsassisten är vår skattning av om vi ska ha en chokladkaka nu eller en chokladkaka och 100 kr om en vecka. Eller enklare om vi föredrar 1000 kr nu eller 5000 kr om en månad eller vad helst egentligen. Men för de mer välkända exemplen där man inte sällan söker jämföra med ränteberäkningar och liknande kan vilken som helst nästan av de många studier gjorda närmare forskning i domän av ekonomimetri läsas (några länkar finns i slutet).


För varke vot doslret tidpunkt vi adderar ju större discounting jämfört med föregåede tidpunkt gör vi. Varje sådan representation motsvarar att vi tar ut ett värde för förstår och kan tala med. Det indikeras för forskaren eller är vad vi resonerar med mentalt.
<(å>

<å>
Jar ett k',färamde soffertaö govots vo sla k',fära ,ed ett ammat- Fr ex. två tidpunkter är det resp. vad vi hanterar i detta. Vår sista representation kommer nu jämföras med den där faktiskt givna indikerande summan och vår ett uttryck för relativ discounting. Vi har kanske reducerat ner något vi utgick ifrån som blivit väldigt lite medan summan vi tycks kunna få är myycket större. Men här har vi nu via discounting fått normaliseringen vi kan tolka och förstå denna summa ifrån. När vi gått igenom distansen med relativa samplingspunkter förstår vi kostnaden vi tycker att den kommer med. Det är länge - och pengar jag ex. har nu har där hunnit blivit små eller omvänt att pengarna jag har där borta tycks bli större när jag förfl7ttar dem hit tillgående och jämför med pengarna jag antas ha här (stora pengar från framtiden just nu indikerar discounting av pengarna nu i framtiden - dock huruvdia vi faktiskt tänker båda riktningarna har jag inte tänkt på men det verkar väl inte otroligt) jfr att flytta perspektiv för en scen från övergripande seende fler saker men mindre i storlek eller färre med större exakthet).


Och vi bör ej förstå varje tidpunkt när döda tidpunkte kommer efter den frösta summan vi utgår från nödvändigtvis har samma rank för första fallet som de stor i turordning när en centralitet finns. Är summan större vid första diskreta tidpunkten mot normaliseringen - jämförande två summor - kommer den tomma tidpunkten där vi tar ut centraliteten när första faktiska summan är mindre än den andra bli nummer två medan den första skattade representationen blir nummer tre.


Oavsett en del sådana underligheter och utmärkt indikerande ett värde att ej tänka fler-dimensionellt i utgångspunkt för tidigt kan göra en enkel beräkning där vi väljer att göra det med Heaps law.


För symbol A havande en centralitet med ett stabilt inlärt värde. För oss som ex. rika kapitalister är 100 kr alltid värda 5 kr. Men för enkelheten säger vi helt enkelt att centraliteten är C.


Vid första tidpunkten t får vi en faktisk summa - en intensitet för vår symbol. Denna är I..


Antag nu att C mer konkret är 8 enheter vluta. I är 6 enheter valuta (lite mindre därför att det känns tråkigt att vara med i forskningsstudien).


1. Vi skattar decay för vår första representation skapad.


1.1. B = a * ln ( C / I ) , där a är en till konstant mer diskuterad tidigare inlägg. och vi här antar är 1 alltid.
= ln 8 - ln 6 = 0.28768207245


1.2. Vi beräknar representation görande discounting av 6.


I representation = 6 ^ 0.288 = 1.67


2. Och så nästa representation för tidpunkt utan mätvärde men där vi behöver en representatiob med utgångspunkt 1.67 i discounting mot den inlärda centraliteten.


Antar vi istället att inlärd centralitet är K. Och vi vid tiden t[0] får X kr och vid en tidpunkt t(0 + n) får Z kr. Är vårt första mätvärde vad som ger den initiala representation vi ska förstå och tolka värde två från. Har vi gjort större discounting initialt har vi mindre jämförelse att göra vid nästa mätvärde. Och dess när centraliteten är i samma domän discounting fortsätter men sättande värdet vi direkt får som jämförelse sig självt. Ju större discounting vi gjort desto mer reducrar vi också i sista steget. Och ju fler representationer vi behövt på vägen desto större arbetar vi upp discounting faktorn. Varje representation kostar lite att göra.


Och inget annan väg för att förstå distansen finns än denna. Förutom inlärda beräkningsregler och liknande vilka ju beskriver inlärda vägar mellan symboler för hur vi gör något (beräknande ränta exempelvis). Annars får vi värdera något och låta representation gå en sträcka eller finnas en tid och se hur mycket den minskar eller ökar (vi kan öka även om det fodrar ett inverkande kontext).