Förändringen eller förändring?

2013-04-10

En när vi betraktar populationer av människor felaktig men en definition av förändring lätt att göra (och den helt säkert vanligaste) är:


  • Vi har ett normalt tillstånd relaterat hur troligt något är.
  • Förändring innebär att "mekanismen" för sannolikheten (ex. parametrarna till en distribution vi kan approximera normalt med) eller att dessa rörande de flesta eller alla bibehålls men att vi har förändring för en parameter (när vi tänker oss mer få-dimensionella fördelningar).
  • Och särskilt frekvens relativt variansen där ju i det få-dimensionella med väldigt lite av gömd påverkan kopplingen mellan varians och information ofta är stark och för normalfördelning och nära oftare definierat som funktion av varians uteslutande.

Felet med definitionen är att vad vi betraktar som normalt är en funktion av vad vi lägger märke till och dokumenterar så att vi kan bedöma det. Givetvis gäller det också individen men där har det åtminstone för sådant som intresserar oss här mindre betydelse i övergripande bild av världen (även om särskilt extrem-exemplet med sekteristiska rörelser som begränsar deltagarnas information är talande).


Vidare också när man är medveten om detta att utsträckningen och funktionellt i det ses för begränsat närmare starkare eller svagare nivåer av exemplet med det sekteristiska. Ex. om en kultur ser hemmet som mannens lilla kungarike är det också kanske troligare att nivåer av sociala problem, tortyr m.m. förekommande i sådana miljöer underskattas därför att en samlad bild ej ses som viktig och/eller att man närmare händelserna ser det som mindre viktigt eller i flock-värde mindre ofta riktigt korrekt att kommunicera vidare.


Dock gäller att vi filtrerar en mängd information kontinuerligt där en mycket större betydande del är implicit från samband, interferens m.m. mellan vad vi vet men inte särskilt prioriterar.


Desto större värde eller risk vi associerar med sådana stycken av information ju mer benägna blir vi explicit eller implicit att "associera" ut från det och därmed "inse" att annat vi plötsligt vet. I den tydligaste toppen på det har vi insikten när vi etablerat samband mellan koncept och en "minsta gemensam nämnare" visat sig finnas där långsiktig inlärning kan etablera en varaktig optimering.


Förändring i vår yttre "konkreta" fysiska värld och/eller värld av kollektivt språk (vad grannarna säger, vad tidningen säger, vad du säger o.s.v. över all information mellan människor) är därför praktiskt enklare att definiera på sådant sätt att vi undviker att göra det från hur normaliteten av idag skattas.


För denna normalitet gäller ju båda i vad vi direkt kan skatta just nu ex. motsvarande från min nyhetsanalys eller ex. statistik från myndigheter m.m. resp. vad vi kan ha i tillstånd från vad av historiska data som är fortlöpande mer aktiverat. Både för vad som uttrycks resp. vad vi har i nämnda tillstånd gäller ju att reward-antaganden av de tre indikerade huvudgrupperna av olika slag är fallet.


Mycket tydligt kan vi ex. se förändring av att något plötsligt indikeras av tidningar varande nytt. Skattar vi direkt och uteslutande distributioner från detta får vi förändring. Emellertid kan vi också tänka oss att det är mindre uppmärksammat - kanske historiskt senare efter publicering ansett "okänt" innan - men att vi redan i vår intelligence konstaterat det som möjlighet med en viss "värde-sannolikhet" (lös beteckning för diverse mått jag använder relaterat detta varande tillräckligt effektiva relativt vad de indikerar resp. experimenterat med och som visat sig haft något inte trivialt värde men med få undantag heller inte stort oavsett hur slött och därför praktiskt övergivna där det gemensamma är att vi kan använda olika former av sannolikhet men det är mycket närmare övergripande indata och vi istället kastar bort sannolikhet som grundläggande system och istället skattar fram det på sätt vi kan propagera till hypotetiska tillstånd också där frekvens m.m. annars gör det omöjligt att göra skattningar).


I detta fall är förändringen från vårt perspektiv mindre att något förändras i världen. D.v.s. inte primärt att tidningen upptäckt något okänt (informationen känd) vilket gäller som en del av förändringen och viktigare att tydliggöra när något lättare tolkat nytt (ex. svenskarna köper mer av generiska billigare läkemedel - fast ej noterat är ex. statistiken för föregående år beräknat annorlunda eller beräknad defekt så om skillnaden jämfört med föregående månad istället är säsongs-beroende t.ex. relaterat att vissa stora konsument grupper köper på sig värktabletter och magmedicin inför semestern) eller ny-förekommande (ex. en retro-trend noterad efterföljande att en spridningspotent stor tidning prioriterat området bl.a. med ett par nya skribenter som har rätt ålder och bakgrund för att notera retro-liknande i domänen och vi kanske vid ett stickprov motsvarande bilder med datum-markering via sociala media svårligen ser någon skillnad där .det inte varit vanligt förr heller)


Förändringen är att värde-dimensionerna för vad vi lägger märke till, tolkar vidare längre ut från vanligaste tillståndet just nu o.s.v. ändrats. Associationen längre ut från normalt nu där vi ser mer och upptäcker innebär också att vi kan få den kreativa mekanismen d.v.s. något dyker upp som konsekvens av denna process vi mer problematiskt enkelt kan förklara med att vi innan inte såg det. Att ex. tidningen anställde och prioriterade området (säkert var det relaterat annonserings-preferenser hos amerikanska återförsäljare av möbler och relaterat) kan vi i kollektivt språk - vad vi gärna vill se som approximation av ett globalt "konceptuellt" något motsvarande en stor människa - se som del av processen där vi associerar och funderar runt saker och ting.


D.v.s. förutom att upplevt nytt bättre i en del fall ses som förändring i hur vi ser och resonerar om världen kan detta i sin tur vara indikation om att väldigt nya saker kan tänkas dyka upp. Kanske (helt hypotetiskt ex.) en soffa konstruerad på ett helt nytt sätt kombinerande färger, material, form eller liknande från idag med igår och kanske något konceptuellt helt nytt där det dels kan tänkas vara en direkt konsekvens av nämnda association (läst krönika och när informationen där verkar på eget tillstånd fått idé) eller genom att andra personer mer indirekt associerar runt med varandra och vidare utåt över tiden (området får större fokus och fler tänker och skriver om det men utan att just prestera mer än förändring av distributionerna vi skattar men tänkbart når dessa någon som länge funderat på att konstruera en soffa på ett nytt sätt och får en idé eller omvänt hade soffan gjord och kunde realisera den kommersiellt eller jämförbart märkbar i kollektivt språk ex. inkluderande att en unik instans märks och rekursivt blir del av spridningen vidare när publicerad).


Söker vi i vetskap föregripa förändring vanligen tolkad som oväntat krävs därför beräkningsmässigt enklast i första lagret att följa indikationer på förändring i värde-dimensioner. Och som mest spritt förstått runt sådana med ex. pengar relativt ekonomi gäller att förstärkning och förändring i ett område kan påverka andra områden (jämför med hur kvaliteten på public relations och marknadsföring allmänt både i Sverige och USA tycks förbättras som jag tror delvis relaterat att de anställt tidigare medarbetare från media som helt enkelt klarar att skriva mer och av högre kvalitet).


Vidare associativt ett steg till givet detta och övrig tillståndsinformation välja ett perspektiv (eller praktiskt intressantare givetvis en större mängd sådana utspridda på olika positioner i dimensionsrummet som "stick-prov") och associera utåt för att föregripa förändringar som är tänkbara (och i vår värld intressanta rörande vad vi värderar i risk eller möjlighet).


Det jag tror allmänt är svårt om man försöker sig på det är åtminstone för mig förståelse av separation mellan vad som är närmare mer stabilt inlärt och som är volativt i dess påverkan på tidsperspektiv avseende olika aspekter av koncept resp. värde-dimensioner i påverkan från annat. Det är lätt att mindre hamna fel i ett kortare tidsperspektiv men däremot oerhört lätt att när tiden vi bedömer framåt (eller motsvarande för andra dimensioner) anta associerade "värden" volativa medan de är mer tillfälligt toppande. Var för sig är det nu när vi betraktar kanske några hundra tusen koncept mer sällan problematiskt givet att koncept närmare vad vi söker effekt runt vanligen bör vara bättre kontrollerade. Men ju längre tid desto mer har vi associerat ut och desto större blir därmed kring-effektivteten. Är antagandena för långt ifrån rimligt lämnar vi snart först "kreativt" och mycket nära inpå det också "konstnärligt men väldigt underligt" för att börja få dom rent psykotiska prediktionerna levererade från systemet.


Vi inser att ingen feedback mekanism kan lösa problemet med mindre än att vi bibehåller många-många "billioner" (egentligen mycket mer också för en kortare tid som några dagar) tillstånd bakåt alt. börjar om från någon verifierad punkt. Båda alternativen är oerhört dyra i tillgängligt minne resp. CPU-kraft. Givet värden just nu som vi samplat den för en prediktion framåt saknas feedback från verkligheten. Först nästa dag, timme eller motsvarande kan vi verifiera och måste då gå tillbaka från start om vi ligger fel. Och värre även om vi ligger rätt i en del eller mycket men övergripande har över en viss tröskelnivå där vi säger att det är problematiskt av kommande galenskap behöver vi ta om hela nätverket.


Ingenting av det har jag egentligen löst men däremot har jag fått kognitionen mer stabil utan tror jag särskilt påverka prediktion. Jag bedömer dessutom att etablering av förståelse av syntax, grammatik, semantik, discourse o.s.v. också lokalt mer mening och övergripande för nyhet ska reducera ner problem (kanske rent mycket) genom att förutom grundvärde sökt av modulen upptäcka information som vi inte vill ta in i systemet då det stimulerar galenskap (ex. ett refererat av händelserna i film vilken inte är särskilt verklig i vad som händer och sker som kanske citerats eller refererats eller ännu värre avliknats i språk med gömda likheter ibland använt och då tydligare än jag ibland gör det för att pröva lite runt området för att ge väsentligt stora grupper av läsare en känsla av att vara skickliga vilket av en del tros kunna medverka till att bibehålla och expandera mängden återkommande läsare). Men det har ändå visat sig att snarast var jag tidigt i den exponentiella naturen. Däremot skulle jag inte våga för något större i antal koncept samplande allmänt allt från säg 10 000 typiska tidningar på engelska från alla möjliga ämnen i något gå längre än cirka 20 dagar om det handlar om konkreta nyhetshändelser som ska predikteras och metod-området ligger i att se vad vi ej klarar med dom vanligare få-dimensionella metoder statistik m.fl. områden har etablerade även när vi är beredda att acceptera kanske egentligen för en människa normal nivå och förmåga här utan att kalla det galenskap och "avliva" tillståndet för att skapa ett nytt kan det hålla sig vettigt begripligt länge med lite sund försiktighet till mer snabba associationer endast från den attraktion vi kan se eller känna "lokalt" så att säga (om vi så vill att förutom självorganisation låter vi varje associations-bit ha viss medvetenhet utåt kanske motsvarande interferens-neuroner - och om det är nytt ej inlärt står det dem fritt att avstå från att gå med flocken också om det är dominant aktivitet undantaget när nya långsiktig kunskap först in i systemet som bekräftat stabil).


Implicit styrka vid sidan om det möjligen mer uppenbart är att egna etablerade preferenser i vilken värld man tror är meningsfull att söka efter, vad vi väljer att se från världen vi har o.s.v. är vad som kan begränsas avseende skadeverkan på prediktion. Vi kan välja att ta ett område i nära det minsta identifierbara och också om vi har indikationer för områden vi vill söka djupare indikera nivå där associationen går friare utåt samt viktigare praktiskt för att lära sig något nytt (istället för som mest typiskt runt applikationer av typen "försvara världsbild" söka argument, förekomster m.m. vi kan använda motiverande ex. i språk vi själva uttrycker) genom att låta association börja från några miljoner punkt-formiga instanser och associera ut ganska begränsat för att se vad som dyker upp och när intressant borra djupare.


Väldigt länge såg jag det egentligen som kanske omöjligt att öka upp tidsperspektivet väsentligt (såg exponentiellt samband väldigt hög samtidigt "billigare" än att lära hela världen tillräckligt för att kompensera). Den perioden klarades i bästa fall om jag minns rätt sex eller sju dagar. Fascinerande nog var det ändå innan i vad det föregrep nyheter innan ex. inte alls förekommande runt ett ämne första året efter jag gjorde det första gången lite spöklikt i mycket därför att det inte finns enkla från A till B o.s.v. och vi når denna slutsats utan vi har väldigt många tillstånd för resp. koncept och många miljoner relationer mellan dessa. Första gången förnekade jag det förövrigt och valde att se det som en konsekvens av meningsfulla sammanträffanden och/eller relaterat det i news provider bredd mycket begränsade corpus jag använde (endast en publicist vilket oavsett vem eller vad föranleder att få eller inga generella slutsatser om news providers allmänt eller vad dessa inverkar på ska dras annat än hypotetiskt till ett bättre test apropå den underliga kulturen kring det Reuters-corpus enormt vanligt i lingvistisk-forskning: är det tillåtet för Google att spindla nyhetssajter och göra statistiskt analys är det tillåtet för universitet också så det förvånar mig att det fortfarande är så dominant vanligt). Antagligen liksom mycket liknande av och till därför att jag kan tycka att resultat förringar människan som koncept (vilket jag argumenterat mig själv att inte se så begränsat längre utan ha fokus på den vackra över historien konvergens till det för människan bättre genom att dela idéer och påverka varandra vilken också har en ganska god redundans mot förändringar kortsiktigt goda men långsiktigt problematiska via konservativa-delar av mänskligheten, numera också böcker och referens-värderingssystem m.m.).

Done, Done and Done - No doubt

Jag hoppades att lägga direkt språktolkning på indata förutom att möjliggöra effektivare lokal filtrering av resp. nyhet eller motsvarande och därmed också göra att man kan använda mer information även skulle indikera motsvarande mer generiska grundläggande övergångar mellan koncept. Ett antal sådana har jag förvisso noterat där och i språk under övergången till kodningen av parserns semantiska meaning tolkning (fortgår).


Koncept och idéer i abstrakta modeller har både styrkan och svagheten att de lättare tenderar att kännas korrekta - och mycket väl kan vara det också - utan att egentligen löst problemet. Relaterat språk är det tveklöst en allmän svaghet i menar jag allt relaterat formella språk, generativa meta-språk (ex. LCS) m.m. Vi har ett språk och ska vi parsa är det vad vi parsar och tolkar. Representationer i datatyper kan förvisso lösa praktiska problem (särskilt i domänen programmering) men man ska vara försiktig med att försöka ta sådant till abstrakt sanning.


Ett problem jag här sökte insåg jag aldrig konkret fokuserande på relationen var samma problem men underliggande övriga kanske därför att det i praktiskt eller teoretiskt arbete i lösningsgruppen här någonsin rörande vid varandra förrän det senare är klart. Problemet:


  • Det enkla problemet...
    • Vi resonerar här med en dimension istället för alla vilket inte förändrar grundfrågan. Låt denna dimension vara "sannolikheten" för något i betydelsen inlärt / uppfattat och/eller associerat (ex. påverkat av upplevelser, personlighet, genetik, kultur m.m. förutom begripligt konkret relaterat).
    • Att representera P ( X ) är enkelt om vi kan beräkna det (och det kan jag) därför att även om vi förutsätter en gigantiskt allmänbildad intelligens hamnar vi svårligen för engelskan på mer än cirka 2 miljoner ngram systemet måste kunna tolka och uttrycka.
    • Två miljoner symboler också med som realistiskt här med beroende av konfiguration ca 10 till 50 egen-dimension (ex. (positive,negative), (up,down), (cute,scary), (unknown,known)...) kostar ej särskilt mycket minne eller beräkningskraft. Jag i världen av den extremt begränsade budget:en kan ta det till och med på nivåer under first-lever financed datagrid planerad för cirka 55 till 200 kilo kronor.
  • Det dyra problemet...
    • Emellertid har nu varje koncept cirka 5 till 30 000 feature relations d.v.s. en representation av konceptets för en verklig instansiering maximala betydelse och mening uttryckt via övriga koncept där ju varje koncept jfr mötet symbol- "kontra" konnektiv-mening motsvarar konvergerad betydelse där för ett tänkt biologiskt neuronnät vi har hamnat i vad vi åtminstone som hypotes för ett ögonblick antar i kontext är entydigt vilket ju också är vad vi strävar efter att uttrycka i språk.
    • Oavsett antal feature relations gäller givetvis att konkreta instanser av konceptet kan uttryckas tillsammans på sätt kritiskt för vad vi praktiskt önskar mäta ex. Land A bows to Land B, Land A stabs Land B in the back o.s.v.
    • Även om mycket troligt att A och B delar en mängd feature relations (kanske 100 till 10 000 cirka för länder beroende på prioritet) gäller att dessa inte nödvändigtvis i någon mening är intressant när vi ställer land mot land i kontext av hur länder rör vid varandra.
    • Därmed krävs ju förutom att representera dynamiken mellan ett koncept och dess feature relations (där vi oavsett kommande lokalt exakt förståelse av allt språk i nyheterna redan tillåter större integration mellan koncept i vad vi kallar do havande primacy effect som ex. title-headings med body text för enklaste tänkbara exempel men även t.ex. vad en bild konvergerar relativt bodytext även om jag inte gör visuell-parsning direkt av bilderna vilket för nyhetsanalys konkret krävs därför att andra indikationer om bild inte annat än undantagsvis är aktuellt för nyheter, pressmeddelanden o.s.v.) måste vi representera P ( koncept A && koncept B | båda i DO ).
    • Eftersom ett grundläggande antagande i alla tre instanserna av modell - abstrakt, konkret och praktiskt (programmerad) - är att människan kan lära sig saker och det påverkar fortlöpande kan vi heller inte trivialt när det kommer till det mest intressanta nyhetsanalysen kan hitta (plötslig förändring eller kraftigt påverkande men gediget dolt) anta att vad världen uttrycker just nu endast från ett begränsat tidsfönster räcker för att tolka världen.
    • Inte heller räcker Blue light d.v.s. alla koncepten med deras inlärda feature relation utan vi har ett tidsmässigt stort mellan-steg från uttryckt just nu till det att en relation med dess mening är så pass icke-volativ att den är etablerad i långsiktig inlärning.
    • Storleken på representationen av detta tidsfönster är mycket stort. Senaste större löpande nyhetsimporten med analys opererade regelmässigt aldrig på mer än cirka fyra veckor och maximalt tre månader, och där känt sedan experiment bl.a. på mitt Wikinews-corpus (alla deras nyheter) resp. mitt New York Times corpus (utvalda) resp. också med tilläggs-kunskap Huffington post corpus, EurekAlert! corpus resp. Twitter-Libya pre-revolution att skillnaden mellan 1 och 3 månader är tämligen begränsad och ligger närmare tillstånd just nu. Med full historik 1 - 3 år börjar det likna något rörande mellan-steget.
  • Den effektiva lösningen...
    • Att en effektivare lösning än fullständig representation för mellan-steget finns vet jag därför människor har heller ingen sådan direkt exakt historik.
    • Lösningen fascinerande nog tycks inkludera paradigm från generativ grammatik avseende mest grundläggande idéer, grundläggande koncept i hur Blue light feature relations redan utnyttjar dimensionsmängden egendimensioner, parsningsparadigm av formen från "vänster till höger" utnyttjande all information, relativa skillnader där vi kan se den kogntiva grammatikens idé om figure och ground som instans och motsvarande ett av de fem (inkluderande endast de viktigaste) informationsbegreppen bland egendimensionerna som jag brukar kalla Weber information inspirerat av Weber's grundläggande arbete inom perceptions-psykologin, samt direkt ge övergångar jag var säker på skulle finnas d.v.s. IN (vi går in i mängd feature relations under ett koncept vi hypotetiskt kan konvergera mot bäst illustrerat av att primacy effect och vetskap från givet fakta begränsar vad ett efterföljande koncept kan och ska aktivera i "statistisk-mängd-mening av dess feature relations), FOR (koncept agerar för och motsvarar i representativ mening explicit eller implicit ett annat koncept: ex My dream of battle I pictured myself as Lord Conan. It ended when I killed me. eller hur en del av ett företag kan bjuda över en annan del av ett företag för att ta upp huspriser eller p.g.a. av förräderi och/eller korruption för att ta ner värdet inför avstyckning), IS (givet kontext är det troligt att instansen kan konvergera till en abstrakt-representation som andra begriper vad vi menar när vi säger att instansen är detta: Ex. Det Hans skriver på är en / ett dator / tangentbord / vertyg för att skriva / blogginlägg / skryt över att ha löst det ingen annan klarat efter att ha försökt intensivt sedan 1950-talet o.s.v.).
    • För att lösa problemet förutsätts (utan detta finns tror jag ingen lösning utan gigantisk beräkningskraft på EU- och USA government-central waste big money nivå :-D ) att vi har generiska relationer mellan övergångstyper vi gör. Detta ligger nära Chomskys grundläggande idé utan att inkludera det mindre praktiskt intressanta om den generativa grammatiken.
    • Och att vi har likhet mellan vad denna förutsättning gör kognitivt resp. hur vi representerar resultatet av kogniterande i skrivet språk finns möjlig att ta en sida av det och givet vår inlärning och förståelse av världen representerat som ett just nu konvergerat tillstånd där vi från fortlöpande kontext kan aktivera upp ex. minnen översätta mellan dem. Utan det kan vi inte tolka nyheter till förändrat tillstånd och från förändrat tillstånd prediktera vad som är dolt resp. hör framtiden till.
    • Betraktar vi nu den kognitiva grammatiken i Lakoff-tradition är ju figure-ground koncepten liksom många av de nära området associerade scheman allmänt tämligen intressanta. Problemet är dock att det inte är just mer än intressant. T.ex. schemat transferering från A till B är en bra tanke-stimulans men i allt annat är det trivialt och någon möjlighet att representera ner världen till alla normalt föreslagna scheman når aldrig längre än trivialitet (praktiskt i bästa fall på nivå tolka övervakningskameror automatiskt av vad folk gör o.s.v. men bär inte tyngd att ta ett samhälle i kollektivt språk och prediktera framtiden på vettig nivå i dom domäner där den vanliga statistisken över "få-dimensionella" mätvärden ej presterar annat än sällan).
    • Samtidigt är det svårt att komma ifrån att något projiseras ner till för få dimensioner som dessa scheman uttrycker.
    • Exakt samma känsla kan ex. Osgood's dimensioner rörande adjektiven sägas ge. Att kvantisera emotionell-betydelse på detta sätt är väldigt intressant men jag kan indikera diverse direkt praktiska tillämpningar där varierat med bl.a. tidsperspektiv och relativa förändringar de inte ligger i närheten att uttrycka vad som går att se som hela meningen också om vi antar att resp. adjektiv's relationer till andra koncept i bredare mening är givet.
    • Nå lämnar vi Osgoods och Lakoff få-dimensionella värld och inte gör antaget att koncepten behöver vara konvergerade går det att lösa - och inte låter resp. domän begränsa den andra adderande så att de stödjer varandra.
    • Vilket jag uttalar utan att ha språktolkningen in klart därför att se en lösning när domänen är så pass i varje större del abnormt komplex och samtidigt nu är så enormt utsträckt över stora delar gör sedan cirka 1 till 2 år att risken att tappa helhetssynen exakt rätt (d.v.s. reducerande diverse ej relevant och samtidigt se lösning som ej förutsätter ej inkluderat eller påverkar sådant) ibland ogörligt att hitta tillbaka till. Skriva hjälper här och det kritiska är inte just detaljerna i lösningen utan att vi ansluter den tillräckligt till vad vi skriver och det till nutiden där vi är och i sådana anslutningar gärna med tydlig reward - värde, risk, prestige o.s.v. - så av orsaker relaterat de senare uttalar jag också det som tankarna ibland känner men jag gärna skjuter bort därför att det båda kan verka negativt och positivt (det tidigare oftare för mig): Det grundläggande problemet är vad vi sökt lösa och i big budget sedan 1950-talet och det hör än idag trots få konkreta framsteg annat än mer sällan till ett av de största forskningsområdena.
    • Tidigt visste jag att jag kunde lösa det därför att jag såg lösningen (denna faktiskt men utan alla detaljer) men det mindes jag egentligen inte på länge förrän nu därför allt är så komplext i delar (sista major modulen jag arbetar på nu med parsning - in-parsning språk är klar och lika stabil som någon annan lösning utan att förutsätta särskilt mycket alls - och semantisk tolkning av språk där arbetet fortgår är både sjukt trivialt i alla de givna välkända principerna som proto-agentive och proto-patient men samtidigt plågsamt komplicerat i mängden detaljer och samspelet när vi gör det i algoritmer och utan att ha gjort det bra kan man heller inte tänka sig en längre fram lösning efterföljande prediktion o.s.v. tillämpat redan idag som också kan lösa implementation av sådant effektivare: värsta i algoritmer hittills).
    • Prestige begränsat till striden är mindre min drivkraft som när jag adderat det i potten konkret för mig själv i striden gör att den aldrig avslutas förrän vi antingen segrat eller om det är omöjligt där imaginär eller konkret motståndare heller inte kan vinna och striden är en fråga om en domän borta under överskådlig tid och i den mindre värde-rationell. Irrationell rent av kontra arbete m.m. Tecknet för seger tycks vara det väsentliga. Längre bakåt var uppvisande av tecknet viktigt belönande men det tycks mer eller mindre försvunnit relaterat drivkrafter senaste fem åren.
    • Låter som här givet en intressant seger små-bra men det är verkligen irrationellt relativt upplevt värde som integral över tiden. Ögonblickets seger är som vi förstår också utan att ev. ha upplevt det från känt av vår inlärning är mycket tydlig inkluderande stora delar av de något så när aktiverande koncepten för att kunna vara så basalt påverkande. Kanske har vi något motsvarande hangar-hund i det också relaterat att jag kan ha etablerat inlärning att det ändå som faktiskt löser problemet är att seger eller ej förlust. Båda epiteten är de mest prototypiska extrempunkterna för inlärning i domän värde resp. risk. Konceptet är illustrerat i Appendix A med ett stycke filmhistoria.
    • Likväl med den begränsningen tror jag det är done, done och att and done är givet för nästa version om än säkert inte praktiskt fungerande perfekt från start. Lösningen är dock fortfarande 90% visuell för mig vilket verkligen gjorde detta inlägg oerhört viktigt för att knyta fast bilden så jag kan vandra runt i den längre fram också.

Förvisso hade jag kunnat säga mer här men detta räcker bra för mig.



Appendix A

Illustration av fokus seger på nivå där värdet det uttrycker givet en integral över tiden måste ses som mer eller mindre irrationellt när det jämförs mot också inkluderande ganska stora värden om än inte i aktuell domän (för ex. nedan pack power och risk) lika monumental gigantiska.




Vi kan från historien relaterat inspirationen till den fiktiva bakgrunden till filmen minnas Jingis Khans son Kubla Khan. Dennes tillstånd etablerat sedan tidig ungdom var de ständiga segrarna och gigantiskt expanderad makt. För honom att göra annat än att ta striden och säkra upp den större delen och den mest värdefulla delen av riket: Kina var knappast ens vad han kognitivt hade klarat även om det i belöning antagligen varit över tiden mer tillfredsställande. Omvänt bör den misslyckade invasionen av Japan resulterat i en ganska banbrytande omräkning av alla möjliga vikter givet den gigantiska kraften investerad och ställd i relation till en hel nutidshistoria av ständig seger.


Och sådant är nu livet. När konkreta segrar (för mer abstrakta sådana ex. relaterat alla normala arbetsprestation har vi ju inte så entydiga dimensioner och vår jämförelse är mycket mer relativt oss själva: vi behöver inte jämföra oss med andra för att en ny seger måste vara mycket större för att vara lika trevlig som en föregående utan vi själva som referens räcker) växer krävs att nästa seger är större. När segrarna en period kommer snabbt är förhållande inte linjärt utan närmar sig det exponentiella. Ett undantag vet jag finnas och det är att definiera slutgiltig seger vara mängden av alla segrar i en domän vilket praktiskt är potentiellt funktionellt direkt så (om än inte självklart jfr ex. releasing the nukes to win men innebär att jorden försvinner) resp. praktiskt fungerande men teoretiskt ett avdrift från vår funktionella approximation att ta den entitet vi konvergerar mot varande den dominanta största motståndaren där vi kan se det som att vi ser världen i varje enskild komponent av ett beslut som att två vägar står mot varandra med en interferens-neuron emellan och där vi från två sådana par också kan sätta en tredje neuron som antingen givet världen utanför säger ja eller nej till resp. kombination som i varje diskret tidpunkt levereras upp. För en fanatiker på ex. världs-kommunismens-sida - konvergerar Kina - resp. ex. power-brooking-rovkapitalist - konvergerar USA - blir hela mängden resp. motsatt konvergens. Båda undantagen ger möjlighet att segra ej totalt växande tills det hela är slutgiltigt avklarat i vilket fall vi fortsatt kan gå till nu domän att därmed ej behöver i objektiv-mening växa i seger. Det första realiserade undantaget (pågående strid mot hela definierade mängden) är jag övertygad kommer från behovet av att i pågående strid på liv och död definiera världen som endast detta och ha fullt fokus på att undvika att dö. Det senare undantaget när vi går till ny domän måste rimligen vara relaterat - och ungefär det samma - som ger oss förutsättning att lära oss nya saker (jämför gärna med hur kognitiva funktionshinder d.v.s. tydligast autistiska spektrumstörningar men på nivå funktionella och normal-intelligenta så att frågan kan bedömas vettigt jämförande där denna förmåga kan vara lite sämre också tenderar att komma med överspill mellan sinnen och domäner d.v.s. konvergensen i "dopamin-mening" för jämförelse och värdering fungerar troligt inte med samma möjlighet att nå en lösning och stänga övriga vägar).