Efter att ha lärt upp UU m.m. på ett både kul ändå väldigt otrevligt men stärkande upp mig (och givet att komik är vad som intresserar mig troligt kul nog för att övrigt ska passera utn att jag upplevs något fasförskjuten från skrivande till läsande mot verkligt elak) själv försöker jag mig på att avsluta:
Där jag tänker mig använda nära nog samma lösning som nu men ev. adderande något mer i mening mer av funktion av några faktorer än mer default-hanterat enklare. Innan jag kompletterar med den lösningen (egentligen mer som befintligt där jag inte är helt säker än hur jag parametriserar decay bäst) kompletterar jag med några referenser andra resurser resp. ett alternativt exempel till vår arbetstagare och arbetsgivare under flock-dynamik i relativ makt istället för två populationer (där vi ju när tydligt inarbetat namn finns gärna uppfattar och använder nära nog som person-namn).
Japanska modeller hamnar vi alltid ett tag i
När det handlar om reward discounting. Förutom några tidiga jag läste med försök apor som gjorde discounting på josbelönignar de ändå artiklar jag alltid minns och tar mig en titt på när jag går över reward-dimensioner.
Orsaken torde huvudsakligen ha att göra med att förklarar, argumenterar och tänker runt sin modell delvis ganska likt hur jag gärna gör i det att jag tycker det har värde att utgå från kognitiv psykologi och besläktade områden när vi övergripande gör tillämpning för populationer (ex. ekonomisk prediktion) därför att det ger i tankemodell en sund distans till annars kanske överdriven design-fixering i välkända ofta ganska begränsade relationer (där discounting är ett exempel).
I övrigt är modellen praktiskt för mig inte bättre än något annat. När jag läser Takahashi känns det varje gång som en enkel tidsbesparande lösning ska komma. Men modell löser ingenting praktiskt för den typ av data vi analyserar när vi tittar på ex. alla engelska nyheter publicerade en dag. Men tycker jag bland det mest läsbara i området om man redan läst de klassiska arbetena och känner att de kanske hyggligt beskriver ränte-lån-discounting men inte fångar ditt tobaksberoende fullt ut.
En av ett antal publicerade artiklar vilka nära nog alla sammanfattar själva grundprincipen är:
Och artikeln ovan diskuterar dessutom hur vi kan se på upplevelse av tid som påverkande vilket kan addera något till vad jag diskuterade för det närmare när vi skattar publicerat av större populationer av personer (ganska nära om inte mer ev. för en del av den dynamik jag kan räkna med under nyhetshändelse del av algoritmer adderande när man tittar mer på en pågående nyhetshändelse men ej tror jag del av dem som räknas fram som enklare indikation snabba nog för alla symboler och deras relationer).
Och även om nu q i den modifierade funktionen uttrycks som ett värde kan självklart det värdet i sin tur vara vad som räknas från lämpligt för vad vi ska använda det hela till.
Nätverken och deras distanser
I övergång från när vi tänker oss biologiska neuroner i ett topologiskt nätverk hjärna en person till samband för populationer av människor har vi dessa:
Discounting är åtminstone i allt konkret med säkerhet en distans i mening att dopamin eller annat medium färdas en sträcka där dess aktivitet reduceras mer innan det når fram. Och tror jag ganska väl motsvarande en distans utefter en eller flera dimensioner motsvarande topologiskt en längre sträcka eller en optimerad sträcka vi redan lärt oss att ta ner värdet för från när den skapades (d.v.s. när vi lärt oss ett värde för något befintligt inkluderande att distanser vi dendriter minskar till "föregående" neuroner i vilket fall vi därefter normalt får mindre belöning än vi predikterar). Motsvarande diskuterat kognitiv kostnad såväl som depression föregående inlägg ser vi i:
Att vi har fysiologiska förändringar som kan ge denna effekt. Förändringen motsvarar att "densiteten" noder i den direkta absoluta topologiska distansen mellan två symboler vi kan konvergera till är lägre. Vi kan se det som sämre exakthet men enklare och närmare till det direkt (om jag tänker rätt) och vi räknar vidare innebär det att vi för samma indata ett måste "arbeta hårdare" eller "sämre" lite "frustrerande" lättare därför att vägen är svårare att gå för att få den intensitet som egentligen bäst krävs frr att få ut de "unika" i slutet symboler eller lösningar vi konvergerar till. Något av att bli störda irrelevant när vi arbetar med något farligt men här snarare lite utspritt som del av vår natur.
Hur vi kan göra discounting
Från koncept nätverk kan vi ganska direkt gå vidare och indikera hur jag tänker mig discounting (här motsvarande också reward prediktion).
Avviker lösning vi hamnar i vid tid t från den vi lärt in men uttryckande likhet nog för konvergens dit finns indikationer om något nytt. Om stort nog kan det ge ny inlärning. Emellertid förutsätter det att vi kan diskriminera dynamiken uttryckande nytt mot befintligt. Själva konceptet inlärt gör att det krävs mer här.
P.s.s. om mycket lik vad inlärt märker vi just ingen skillnad och ingen särskild dynamik möjlig att lära nytt från finns (om ej något externt eller anna funktion visar på det).
kONCEPT i: Är lösningen ungefär motsvarande som förväntat inlärning så väl som ungefär vad vi har vid tiden t - 1 gäller vidare att om intensitet är approximativt den samma att vi ej kan märka någon skillnad om discounting som funktion av tiden ej sker.
I mycket vi möter praktiskt när tiden är "ganska kort" men inte "i ögonblicket kort" - jämförande implicit idag med igår i mening av vad vi lägger märke till förändrat när vi läser tidningen utan att medvetet söka skillad - torde discounting vara ganska låg. Det innebär praktiskt att för pågående nyhetshändelse behöver intensitet vid tiden t + 1 öka mer jämförande tiden t än om t istället hade varit t minus 100 dagar och nyhetshändelsen kändes färsk snarare än pågående.
Koncept II: Föregående koncept är ett av mina äldsta och tämligen enkelt när vi kan uttrycka en nyhetshändelse i grupper av symboler vi kan se som pågående genom den i alla inte alltid ändrade (vilket dock inte behöver vara lätt men kan ibland vara det som när centrum för en nyhetshändelse är en person). En av flera skattningar jag använder är ungefär motsvarande Weber's lag där vi motsvarande beräknar konstanten (lämnande frågan om den räcker för diskriminerbarhet till annat): Skillnaden i intensitet normaliserat via divition till föregående grundnivå för nyhetshändelsen intensitet: Delta I / I.
Men antagande i koncept I är ju att distansen i övrigt är konstant. Det är den absolut inte för nyhetshändelser om vi tänker oss att vi följer allt som inträffar utan att kasta låga värden för relationer mellan symboler. Antagandet är heller inte med approximationer till noll för svagt uttryckta relationer (mest aktuellt för implicita snarare än vad vi konkret ser i nyheter som mätt om vi särskilt följer just en nyhetshändelse) eftersom något mycket nytt kan ha inträffat.
Inträffar något nytt kan vi enklast här se det som att relationerna till den symbolgrupp vi väljer att följa och antar konstant förändrats. Nyhetshändelse pågående för person A medlem i partiet B kan vara måttligt intressant om intensiteten ej ökar upp ordentligt efter några veckors samma om kanske olämpligt drickande, racial slurs eller dyligt. Men om statsministern dyker upp i relation till personen blir det mycket intressantare.
Intressant på nivå att symbolgrupp för nyhetshändelse vi följer måste definieras om. Men före det behöver vi emellertid ta ut en distans. Är distansen större är den upplevdaa skillnaden i faktisk distans större.
Säger vi för att igen återanvända relationen i Heaps law (lämnande allt möjligt nödvändigt för att kunna göra det) kan vi se det som att skillnaden i intensitet i mening av antal token är större.
Men vi ser det ej direkt innan detta steg som jämförbart typer (trots att vi börjar med dessa i språk vi analyserar och koncept vi uttrycker). Ty redundans för intensitet finns i nätverk där konvergens inlärda symboler som tidigare diskuterat ej behöver innebära att vi trots det märker någon skillnad. Konkurrerande aktivitet stängs ner.
Det är detta vi behöver ta upp i distansen för att få de faktiskt verkande intensiteterna. Och från det kan vi beräkna vad vi kan välja att se som unikt aktiverande koncept i de biologiska neuronnäten (med för dem kända vikter ex. kanske för statsminister).
Vi kan även förenklat likna det med att vi har ett värde i för två symboler motsvarande längden och höjden på en yta. Är de båda stora får vi en större area och om väldigt stor kanske vi ej ens väljer att titta på den men här antar vi att så faktiskt sker (åtminstone tidningens skribent bör i alla fall läst vad vi skattar från själv för en nyhet - och samplar vi alla publicerade nyheter cirka på engelska under en dag gäller att bara detta antal ej är lågt för stora nyhetshändelser).
Discounting och decay ges nu av distansen mellan symbolerna. Distansen beräknar jag med särskilda similarity funktioner. De är ej helt olika välkända cosinus similarity i sådant liknande Lesk m.m. där man jämför hur lika två koncept i en ordlista är från likhet ord men med skillnaden att antalet relationer typiskt är enormt större än tror jag något jag sett diskuterat (d.v.s. distanserna behöver för resp. förberäknas samt operationer för att hantera grupper krävs från dem). Och viktigare praktiskt här det perspektiv vi tar på händelsen där jag prövar ett nytt exempel på hur man kan se det:
- Svensk tidning kan referera till att nyhetshändelse A inträffade i USA.
- Amerikansk tidning kan referera till att den skedde i ort B.
- B ligger i USA och är mer exakt.
Likhet i perspektiv från Sverige till USA resp. från USA till B är mer troligt mindre i avstånd än mellan Sverige och B om B är nära nog okänd här. Därför att dels kan relationer till Sverige och B lika i långsamt inlärt i Blue light saknas (ej kanske heller aktuella) och när de existerar kan associationen varande sådan att hur vi viktar relationen när vi ser den från svenskt perspektiv blir lägre.
Mycket praktiskt när vi följer nyhetshändelse förutom att vi just här behöver se att det är perspektivet som är relaterat vad som ger preferens inlärd lösning. Emergens här i mening att det uppdagas att statsministern varit med och ölat inkluderande kanske svordom eller värre gör att vi benäget flyttar perspektiv smidigt medan vi riskabelt här kan tänkas tolka vidare från något mindre viktigt. Här är därför perspektiv vad vi åtminstone i delsteg ej använder. Tidigare har jag gjort detta genom att addera resp. perspektiv och dividera med två men givet att jag ändå ska bygga upp förberäknade värden görs det i all rimlighet istället direkt sparande ett antal beräkningar och tror jag kanske inte fotare men av och till leverande bättre värden därför att vi kan tänkas komma ifrån att ett stört värde i ett perspektiv därför att konceptet är sämre inlärt i blue light stör distansen onormalt mycket (jämför med hur vi när vi priorieterar uppmärksamhet i samma situation därför att ett koncept är intressant ej kräver att vi kan allt från perspektiv allt relaterat: ex. hälsovarning för en komplex kemiskförening mer eller mindre okänd för de flesta stör ej distanserna för människa nödvändigtvis oavsett om läsae såväl som skribent förstår eller rent av feltolkar saker brutalt - Jfr SvD tidigare i år kring något eller DN nyligen om snus där självklart alla hälsorisker om snus är felaktiga därför det är bättre än rökning vi snusande kan tänka oss att vi hade gjort annar).
Koncept III: I det mest grundläggande återstår nu om något ej missats endast ett problem. Hur hanterar vi discounting av samma symbol? D.v.s. omvänt hur stor ökning krävs egentligen för att vi ska märka det?
Här är ju distansen om intensitet är samma 0. Och frågeställningen när vi skattar intensitet fortsatt: Vad vi enklast för att förstå problemområdet ser som vilken påverkan hade intensiteten igår för hur vi upplever symbolen idag?
En artikel vi kan jämföra med (en myckenhet liknande kan hittas utan att det egentligen nödvändigtvis innebär att vi behöver se det som vi gör här) tilltalande med något av kulturhistorien i återkoppling till gestalt lagarna:
En dålig lösning ej acceptabel är någon form av konstant vi antas kan sättas lite halv-manuellt. Här laborerar vi med upp till några miljoner symboler som accepteras som vad vi tar upp när de förekommer. Och beroende på hur hårt vi samplar en dag och hur exakt vi bygger nätverken för det (ex. om vi tar nyheterna förkortade också när långa analyser finns) kan vi se från cirka 10 000 upp till sällan mer än ett par hundra tusen explicita symboler (symboler vi faktiskt direkt sett i nyheterna snarare än bl.a. just en påverkan av någon dag föregående av symboler där uttryckta):
Mycket trevligt vore om detta är samma för allt men det är det självklart inte. Känt från ekonomiska teorin för reward discounting såväl som juice-belöningar till apor som gör reward prediktion är ju att vi för samma uttryck i "reward" (vad vi förenklat ser som dopamin här lämnande övrig icke-linjär-dynamik) så påverkas reduktionen d.v.s. distansen av tidsperiod mellan, antal diskreta tidpunkter som vi betraktar och nivå på reward.
Men vi kan när historik över några år finns bakåt göra åtminstone en enkel jämförelse för när nyhetshändelse inleds. Hur "stort intensiv värdefull" är symbolen just nu från vad vi lärt är normalt för den? Är den mycket mindre kanske vi inte ens bryr oss därför att vi förstår det värde vi får ut av att läsa om symbolen i nyheter när den ligger på nivå med sin upparbetade inlärda centralitet. Oavsett att olika personer självklart kan lägga olika värde såväl som riktning värde (är värdet positivt: jag blir glad därför att det är kul och manligt när statsministern svär eller alt. det gör mig arg därför att han sitter och svär över vi uppsala-bor / norrlänningar / skåningar eller vad helst aktuellt) är en icke-fråga.
Vi vill också mycket gärna (men praktiskt utan att gå in närmare vad man i min erfarenhet inte uteslutande gör utan snarare görande det som en av flera parallella skattningar därför vi har inte alltid hur mycket information / varians som helst och det är dessutom vad som kan förändras meningsfullt varaktigt under en pågående nyhetshändelse) också utnyttja signal-to-noise i dom beräkningseffektiva uttryck vi känner från neuroscience. I enklaste tänkbara värld (med färre dimensioner än vi har här) distansen mot motsvarande ett medelvärde för värdet just nu dividerat med variansen. Färre dimensioner ty vi behöver dessutom hantera hur mycket brus vi har samma dag (ingen individ ställs ju inför valet att antingen läsa om symbol A med Wikipedia-titel och om inte läsande ingenting annat utan nyheten konkurrerar och störs av allt publicerat ungefär samtidigt och några dagar bakåt mer märkbart). Såväl som förväntad normal varians i hur distansen mot normal centralitet är. Om en symbol normalt slår mellan stora förändringar reducerar vi betydelse vi lägger i det (där vi egentligen här lättare gör det därför att vi också har olika dimensioner av viktsystem d.v.s. om symbolen och dess förändring är oerhört farlig får vi in det som en dimension vi kan välja att borra från).
Här väljer vi dock ej att se övriga symboler. Och vi vet att distansen till inlärd samma symbol är 0. Så discounting i mening att verkligheten över- eller underträffar sig själv ges som funktion av skillnad intensiteten över aktuella vikt-dimensioner normaliserat med hur ofta de hoppar upp och ner utan att vi upplever att det betyder något.
Och vi roar oss med att uttrycka konceptuellt vad vi gör (men inte riktigt att man kan göra så här utan att en hel del för hur vi får itnensiteter fungerande i beräkningen):
1 == 1
C1 I1(B(T)1) == C2 I2(B(T)2)
[Förenklande utan att förklara hur vi hanterar parametrisering av den långa tiden till centraliteten...]
C1 I1(B1) == C2 I2(B2) &ld; - >
Inlärd centralitet1 = K1 == C2 I2(B2) ->
B2) = ln ( K1 / C2 ) / ln ( I2 ) ->
Där vi från B också kan få den discounting som behöver ske för att skillnaden ska märkas för oss och när vi som ovan valde att illustrera det med heaps law tänker vi oss det från Zipf law där omräkning kan ske under samma antaganden och på samma sätt.
Och påverkan framåt ett diskret tidssteg (vi går här inte in i frågan om det alltid är en dag om det är vår normala upplösning samplingspunkter eller om det är sådana diskreta tidpunkter symbolen förekommer i när det handlar om samma nyhetshändelse: rent algoritmiskt är svaret sundast konkurrerande lösningar räknade både med dessa och några till modifikationer) ges under antagande av samma decay-konstant B. Därefter får vi beräkna om den igen tagande hänsyn till hur verkligheten förändrats.
Serotonin och impulskontroll
Vi kompletterar först tidigare ex. föregående inlägg med ett från population där relativ makt mot något vi lättare uppfattar hierarkiskt "nedanför" i direkt makt där personer "implicita" göms med enklaste symbol för den större entiteten uttryckande detta (här delvis relaterat en stor underliggande rädsla för vad förändring kommer innebära för dem):
Koncept affirming är tycker jag olämpligt görande antaganden om uttryckande definierande verklighet vilket vi ju vet från så många händelser i historien inte är korrekt. En diktatur eller en slavägare definierar vad juridiskt uttryckande sanning endast tills någon ny i diktatur tar kontroll eller systemet går till demokrati. Asserting dominance direkt här för att försöka från det bibehålla långsiktig makt över själva mängden Kina snarare än Hong Kong: Lite som jag när jag tydliggjorde för ni läsare vem som är the big dog i Uppsala genom att lära de sämre ett annat trivialt handgrepp:
Med en försvarlig mängd asserting dominance för att de också ska lära sig att höra upp fortsatt när the big dog tar sig tid att förklara hur man pratar undervisning i pressmeddelande. Det kan vara bra för fler än Uppsala Universitet att se mig läxa upp dem. Tydliggör både det ena och det andra om hur saker rätt ska förstås mer allmänt-
Från detta exempel bör en del implicita antaganden om effekten av sådant här förstås.
Serotonin-tillstånd är en faktor vi kan tänka oss påverkar hur sådana här uttryck styr vår impulskontroll akut. D.v.s. värderande en risk som vad vi kanske egentligen inte har lust att ta ställas in för faktum av att man fick nog akut och sa ifrån. Från systemet beräkning diskuterat tidigare kan vi se att vi kan hantera detta i den första skattningen vi gör. Själva nollpunkten för påbörjad nyhetshändelse där vi realiterar en inlärd förväntan.
Värdet är enkelhet. Men vi ska förstå begränsning i det att en sida av vad vi just vill fånga med en normalisering serotonin är vad mer tidsmässigt längre - mindre förändrat direkt akut. Tolkning mot första inlärda grundtillståndet torde hoppas jag (jag har ej försökt det riktigt med det djup återkoppling från vad som egentligen är skattade värden för symboler på samma sett men här mer för dimensioner och vikter bättre indikerande just detta: exempelvis enkelt från tidigare ex. egen-dimensioner föregående inlägg Positiv - Negativ även om själva feedback-av denna typ är välkänt fungerande för mig i prediktion nyhetshändelse under förutsättning att prediktion ej fortgår för många steg ty ju fler steg desto mer problematisk falsk interferens och rent psykotiska tolkningar riskeras. Det är ett problem som tänkbart kan minska med systemet hanterande en mer exakt beräkningad reduktion. Likväl om motsvarande serotonin-tillstånd har tydliga perspektiv preferenser vi ej mer direkt kan se upparbetat i symbolens inlärda grundtillstånd blandar vi samman olika tidsperspektiv.
Detektion sådana problem är därför vad önskvärt när man söker något viktigt. Det är om vi tänker ekonomi inte helt bra om tidsmagnituden skiljer sig med en faktor tio eller hundra om vi handlar med värdepapper. Och vill vi skatta möjlighet till emergens i diktatur är det inte bra om tillståndet vi ser som indikerande mer troligt antingen pågående ingen förändring eller volativ förändring bygger på antagande om att uttryck i språk vi skattat det från ex. på Twitter men som i verkligheten endast (om alls) ger sunda skattningar rörande film, musk och jämförbart trivialt eller kanske är genererat av en annan AI som del av marknadsföring.
Finaste kvalitetskontroll är att fånga faktiska händelser nyheter uttrycker - vad nyheterna handlar om - vilket fodrar natural language processing av dem. Det har jag faktiskt ett riktigt trevligt delsystem för jag utvecklade förra året. De "packs" jag av och till roar mig med att använda är en del av det nära relaterat till sense för verb i discourse nyhet. Exempel med stämplande Microsoft och Ericsson finns i och med ett kortare citat:
"Om man vill reducera risk för konkurrenternas imperativa försök ute hos kunderna:
__IMPERATIVE_ATTEMPT pressure urge summon order charge command compel encourage instruct
tempt urge ask request invite order command motivate order press remind request ask allure
call on prompt dictate challenge bribe empower encourage admonish beg cajole lobby press
ask beg dare help trouble bother"
I allmänhet är det dock åtminstone med de datorresurser jag har väldigt dyrt i beräkning. Kostnaden reduceras när vi kan anta att det räcker att följa ex. fem stora mycket betrodda nyhetstjänster med hög bredd i den domän vi följer.
Däremot menar jag ej att man vettigt direkt kan skatta något från händelserna. Eftersom vi söker prediktera framtida händelser behöver vi data att verifiera skattningar och prediktion från utan att innan ha förbrukat det. Vidare föreligger skillnad mellan information och realiserat där information kan vara en upparbetad potential till förändring utan att det ännu konkretiserat i sådana händelser vi menar att vi kan detektera i nyheter och bekräfta prediktion från.
Jämför vi Indien åren innan befrielsen från det koloniala väldet vad vi kan se indikationer i tämligen otrevliga nyhetshändelser både bland de mer naturligt uppfattade lokala innevånarna såväl som britter. Men också relaterat imperativt försök att Gandhi försöker bibehålla kontroll och därmed är den som faktiskt håller en försvarlig del av makten i domän av förändring: Just när målsättning är frågan om förändring av Indien till fritt land allt i någon mening. Något i Gandhi är i det nära att lära såväl det egna folket och britterna rätt beteende för hur han ser att förändring till ett fritt Indien bäst ska ske. I den inlärningen ska man korrekt se relativ makt men i magnitud och medel mer kanske att se i perspektiv av familje-dynamik jfr barn. Att Gandhi blir ledsen och gråter över våld - konkretiserat i en dimension uttryckande än tydligare via en förstärkning empati av fastnade - tycks när man nu var beredda (och riktigt så givet att det nu lyckades tämligen effektivt) att ta en kostnad av ganska lång tid för att få det tillvant fungerande vara vad man kan lära något av.
Härligt intensiv emergens: Snabb tid / Mycket som sker per tidsenhet
Effekten och dynamiken av information som potentiell konkretiserad förändring är ju som underförstått och styrande allt diskuterat här vad som får realitet från etablerad inlärning och förändras när inlärning i delar kontinuerligt eller upplevt mer direkt i emergens påverkande själva definitionen för vad taget för givet i den innan funktionella inlärningen (ex. det senare att diktatur eller självägare definierar vad juridiskt korrekt åt medborgare resp. slavar / medborgare. Det är fungerande bäst när vi köper det som inlärt. Vad vi tar för givet.
Och bryts hårdare och svårare i direkt emergens när impulskontroll gör brutalt handlande till verklighet: Gatorna i brand, pansarvagnarna som rullar in och förstörs likt hur stinger missile hanterade dom sovjetiska helikoptrarna i Afganistan där vapen-domänen nu är balanserad automatkarbin för automatkarbin (emergens via innovation förändrande för hur vi kan förvänta att slagfältet i städerna fungerar - ex. hanterande pansarvagn i städer av och till diskuterat sedan 2008 bl.a. här), blod och död på alla sidor och så slutligen första, andra eller efter ytterligare en gång fullständig förändring. Men förändring allmänt med större risker också fortsatt. En gemensam inlärning till något nytt där man lämnar gårdagen för något nytt som vänner är i allmänhet att föredra och är mer rationellt men inte alltid möjligt eller riktigt vad verklighetens impulskontroll är beredd att ge den tid som kanske krävs.
Emergens under enorm intensitet i information såväl fysisk verklighet innebär bl.a. att allt tycks meningsfullt och tungt i betydelse. Intensiteten när så konkretiserat verifierat betydelsefull i ögonblicket gör att den mindre släcks ut via GABA jämfört med normalt. Interferens över långa avstånd uppstår. Det är möjlighet. Men det är också en risk-domän man ska känna till: Det kan göra folk lätt blöögda glömmande sund risk management där man ska förstå verkligheten som den är - ofta blir det djävligt när vi börjar se något surt som närmar sig. Förberedande för risk är bra. Och när så att man i denna domän förstår att meningsfullhet man själv förstår som självklar - lång interferens över en mängd koncept vi sällan ser samtidigt - just genom lång allmän distans är vad vi svårligen normalt kan konkretisera. Och vad vi kommer närmare att konkretisera det till om vi försöker varierar kraftigt mellan olika personer. Stor respekt för varierad tolkning under och efter emergens är därför kritiskt för att inte risken för nya inbördeskrig ska bli onödigt stora. Det går inte att ta ett perspettiv som riktigt för alla. Demokrati är kritiskt och givet men också respekt för populationer under hela landet med hög intern likhet men en egen kultur är kritiskt. D.v.s. ska det göras strid för frihet med konkret "volativitet i energi" oavsett endast protester gator eller med vapen - tänk efter innan och gör det bra. Undvik att skapa ett tillstånd som leder till en lång period av våld och sönderfall endast därför att man eller resp. grupp har en så dryg - i den långa interferensen faktiskt motsvarande ganska väl hur barn lär när de hamnar i för dem helt nya miljöer som börjande skolan - inställning till livet att de lämnande en diktatur får för sig att de har någon global riktig definiton av vad emergens är och betyder för varje individ och varje grupp.
Tiger
Passande uttryckande såväl värde och förklarande vad diskuterat i avslutar vi med ett illustrativt djur. Fångande någpt av arbetsmomenten här, symbolvärlden coh den skönhet i självorganisation nyheter uttrycker. Jag tror den äter havsfåglar utan större problem om de mot förmodan möts. Och att många nyhetshändelser involverande tigrar är mer intensiva mot sdenens bakgrund.
Foto: Malene Thyssen
Distans för bilden - om vi tänker oss att vi värderar länken - till innehåll i övrigt kan tyckas stort. Men givet att det är stort och vi ev. kan ta bort tolkning emergens där tigern faktiskt deltar i det teoretiska resonemanget rörande reward discounting gör att vi kan tolka den i perspektiv av bild där påverkan - effekt-distansen enligt tidigare - blir hög för effekt på bildrankning med föga i påverkan i övrigt: Fotografen värderas som fotograf (ev. av tigrar) men med perspektivet styrande ej rörande reward discounting.