Att vinna the english till EU: Zusammen Brexit! Hinter Brexit!

2016-07-17

Brexit är ett så givet hundnamn. Kanske mest passande en maskulin schäfer med dominant personlighet.


Min tyska är inte bättre än jag ville minnas att hinter betydde hit (jag är lite stolt över det) men Wiktionary kommer med sin hinder till min räddning så jag slipper slå upp rätt ord (och vis av erfarenheten definierar jag Zusammen till Tillsammans utan att kontrollera Wiktionary):


"From Old High German hintar, from Proto-Germanic hinder.

The preposition “hinter” is used with accusative case if the verb shows movement from one place to another, whereas it is used with dative case if the verb shows location."

Från: Hinter | Wiktionary

Och för hela Brexit processen tog jag det som vägande över för EU-exkludering efter att någon tysk politisk-banktjänsteman eller motsvarande menade att om Great Britain (who rules the waves) skulle lämna EU borde vara sunt att ge dem ett sämre utgångspunkt i förhandlingarna med EU för att avskräcka folk i andra länder.


Konceptet i sig är självklart osunt genom att det försöker uttrycka ett värde med EU ej från vad du har utan från en konstruerad ej rationellt försvarbar extra-sämre värld (som kanske hade varit mindre dålig eller rent av bättre om ej gjort). Det kan fungera praktiskt som tänkt men tycks åtminstone under 1900-talet i nationell och nation till nation politik falera efter några år (ibland men kanske mer sällan så efter många år likt Östtysklands Östeuropa-exit).


Praktiskt när det kommer till britterna gäller ju att man har nästan lite svårt att förstå att någon tänker sig att det skulle få EU-stanna sidan att prestera bättre. Så är ej britternas sentiment EU och Tyskland. Kommer tysken och pratar så här är exit given om räckvidd och representativ-upplevelse av personen är tung nog (givetvis är sådana upplevelsen tämligen slumpmässiga om korrekta eller ej: Folk säger alltid en massa hit eller dit utan att det avspeglar ex. Tyskland som nation men är personen upplevt representativ så blir han eller hon Tyskland). Det minns jag att jag direkt kände att det var nog kraft i roll för att ta britterna ur EU.


Titeln The Big Dog förklarar dominerande makt och sätter den nya världsordningen via strategiska ö-affärer (inkl. en bit Gotland) - 2013-11-05 kändes lika lockande relevant men ändå irrelevant på nivå med Obamas anti-brittiska Afrika-bias så jag kunde när den lilla figuren i mitt lilla visuella experiment i the snake effect (människan tycks vara särskilt känslig för att reagera på ormar och en del pekar på att det är genetiskt etablerat). Kan vi lära något av titeln här är det väl att när the Big Dog en tid lät bli att ge ett och annat common sense råd ett par månader gick EU och delar av övriga världen sönder (jag tror alltid att den här gången går det nog men världen faller alltid sönder utan mig). Så Hinter Världen! och hör här mina råd så ni kan laga er.

Många önskande the english kvar på kontinenten verkar ju efter valet varit lite små nöjda över reaktioner börs m.m. I andra sammanhang brukar man från samma roller reagera och uttrycka sig väldigt annorlunda. Själv betvivlar jag verkligen att något går att läsa av någon som helst datakälla som ger snabb-respons här (upp till ett år eller två tvivlar jag verkligen på indikationer den nationella ekonomin ges trovärdigt predikterande från sådant som valuta- eller börskurser).


Även om det verkligen hade varit att föredra dom kvar i EU där ju reglerad samsyn rörande kulturellt avgränsade geo-regioner finns och i samma problem-domän där nu en gemensam riktning med mest uttryckt nu Skottland finns (som här nu naturligt måste få möjlighet att besluta igen om United Kingdom) men mer problematiskt Nordirland. Nordirland är verkligen inte en konflikt som UK bakåt 1900-talet hanterade bra (lika lite som övriga Irland) och heller inte i allt Irland efter nationen skapades. Idag upplever jag att man sedan flera år har en ganska sund och balanserad roll stabiliserande en kraftigt polariserad region. Särskilt som flera grupper rent av lämnat in vapen (även om jag tänker att man minst sagt försvarliga lager kvarstår hos alla möjliga personer och grupper givet dom mängder Libya, UK m.fl fört till resp. sida genom åren).


Rörande debatten tycker jag av och till att den blev lite löjlig. Givetvis var det såväl effektivt i sentiment uttryckt som balanserat att efter President Obama lönande brand-name i en intern brittisk fråga att ungefär lika rationellt pekande på ett tänk afrikanskt bias hos honom (vilket jag själv tvivlar: Jag tycker nog Obama känns såväl vit-anglo-saxisk amerikan som närmast ointresserad av hela den afrikanska kontinenten. Det ända afro-amerikanska hos honom - som jag lärt mig från alla de komiska Hollywood-filmer som ju brukade ha en kul färgad side-kick eller en arketypisk kul afroamerikan i huvudrollen som Eddie Murphy är att Obama kan vara kul och skämta vilket för anglo-saxer särskilt utanför England som Kanada och USA är väldigt ovanligt: Ombytta roller i svensk titel illustrerar båda kulturerna - Vi har två arketypiska vita anglosaxiska gubbar i sig själva annat än som avbildning väldigt tråkig och så en jätte-kul afroamerikan - Men undantaget att Obama kan skämta är han lika mycket vit och urtråkig som Boris).


Sådan argumentering är nu i någon mening lika relevant eller icke-relevant / lika värdeskapande som problem inducerad som att försvara sina gränser mot tyska banktjänstemäns idéer om hur EU borde fungera för att folk ska bli lika tyskt lyhörda i England som i Berlin och Bonn.


Vid sidan nu riskerna för egentligen onödig och föga värdeskapande turbulens på Nordirland och Skottland bör EU nu betänka att det brittiska verktyget accepterande kostnader för att bibehålla och genomföra internationella väpnade interventioner är vad vi kan behöva. Förmåga kan ju här inte bara vara teoretisk med tämligen osäkra tidsramar för när möjlig i verkligheten eller några tiotusentals soldater uppbundna i Baltikum.


Därav för att medverka till sund stabilitet Nordirland och Skottland - och kanske ute i vad som nu kvarstår av övriga brittiska samarbetsformer uti världen - som möjlighet att agera internationellt krävs att EU ej riskerar den brittiska möjligheten att bygga vidare från det samarbete de mer än många såväl som övriga EU etablerat genom åren. D.v.s. tillgång till den inre marknaden.


Att kräva fri rörlighet personer jämförbart med idag är inte realistiskt. Dels en av dom tydligt påverkande frågorna som fick dom att välja bort EU. Vidare gäller nu att gränsen till Frankrike oavsett vilken sida som kontroller sker ej är så mycket en administrativ funktion för flyktingar som hoppas jag också ett erkännande av att Frankrike saknar kontroll över eget-territorium. Den problem-värld jag tagit upp av och till genom åren som möjlig risk som kan realiseras genom att EU ej upprätthåller gemensamma gränskontroller är nu realiserad.


Det är varken realistiskt eller rimligt att kräva att viktiga externa handelspartners och länder vi samarbetar med som nära vänner (minns att britterna är EU:s vänner - Allt annat är oacceptabelt efter 1900-talets historia, vår önskan om gemensam kultur för slippa nya krig och de behov av konkret hantering akuta säkerhetsproblem vi regelbundet har) ska ärva våra problem här. Utan våra problem behöver vi se till att börja lösa själva (vilket ännu ej är påbörjat alls: Folk kommer in och ut som de vill med fritt antal identiteter).


Så de här små-löjliga irrationella uttrycken såväl i UK som i EU uttryckande något av tappat prestige eller att man känner att någon förolämpat än får man lämna bland medarbetare man bäst ser till att göra sig av med i EU om man inte ska få se fler regioner som bygger starkt stöd för att exkludera EU. Istället kanske man skulle ta och städa upp diverse underligheter (där jag tidigare sista åren givet en försvarlig mängd exempel relaterat EU:s finansiering av forskning, hur leverabler av dom som får bidrag ska se ut och hur det i verkligheten fungerar, resp. mer sällan kanske bara en tyngre fråga ekonomi rörande att EU nu hade funktioner för att detektera de problem vi fick i Grekland, Italien m.fl. länder vilka också fungerade i mening att de år innan detekterade och rapporterade av problemet månadsvis uppåt där det kastades bort som politiskt jobbigt av ej i någon verklig mening politiskt valda utan tjänstemän vilka tycks det aldrig kan uttrycka något som kan irritera ett land - Vissa andra funktioner kan detta men har då mer av en tydlig big-country-sponsor i EU. Massa miljarder som dom funktionerna kostat genom åren för att hindra alla miljarder Grekland & Co kostat. Lite som avgasfusket som publicerades av samma myndighet som upptäckte det flera år innan som jag länkade till i ett inlägg: Gotta be right:ish när man reagerar förutom right om förvaltningens sundhet haltar. Det är några exempel som kan hitta här och jag tänker att andra utanför finansiering forskning finns).

SOM; Två alternativa algoritmer

Algoritmen vi hittar i den länkande artikeln:


Följande artikel har jag ej läst (Google visar också resultat från Finland GZ-komprimerad PS som jag ej läst) ännu: Emergence of invariant-feature detectors in the adaptive-subspace self-organizing map, Teuvo Kohonen, Biological Cybernetics. 1996.

Att bygga den relativa korrelationen (den icke-linjära komponenter) under träning av självorganiserade kartor

Fick mig att tänka på (kanske från viss / lite-av:ish likhet i min test-algoritm till steg två när basvektorer söks med GS) en annorlunda uppdateringsfunktion än normalt använd SOM (eller vektor-kvantifiering i bredare mening). Jag körde den konkurrerande normal och bröt samtidigt men har ej genererat ut ord tilldelade dimensionerna ännu i alla fall. De visade emellertid båda i all praktikalitet samma genomsnittliga similarity (cosinus) mellan träningsdata och resp. tillstånd med maximala likheten (varför jag struntade i att generera vilket tar en del minne och jag låg lågt den dagen givet att de också vill jag minnas visade samma senaste 20 vinnare ungefär lika rimliga startande från hyggligt pre-tränade tillstånd vilket jag normalt alltid gör - Distansen via subtraktion gör att vi kan se det som den linjära komponenten i SOM-algoritmen medan manipulationen grannskapet kan göras icke-linjär avseenden effekten av hur påverkan summeras mest självklart via reduktion inlärning med avstånd till vinnare).


Normalt tar vi ut segrande tillstånd för indatat som det varande mest lika. Men modifierar detta tillstånd mer ju mer olika träningsdatat är och detta reducerat efter en konstant så vi åtminstone ligger under ett (och för mig känns den egentligen mer begriplig som högst 1/2: För SOM med grannskapet får vi oavsett ev. riktighet där emellertid också allt nedanför eftersom vi tränar näraliggande noder p.s.s. men med en träningskonstant reducerad med avståndet).


Emellertid även om denna princip är ytterst sund känns det också mycket rimligt att den del av informationen indata's vektor representerar som var mer betydelsefull för att den skulle vinna borde värderas mer än kanske irrelevant information.


Den triviala metoden att göra det på är med samma del-operationer som vi bildar cosinus-similarity med d.v.s. betraktande varje position i resp. vektor varande vad vi bedömer. Är ex. position 1 resp. hög tror vi det är viktigare att få med än om de istället kanske indikerar olika riktning (säg 1 resp. -1 för normalt ortogonala vektorer [-1,1]).


Emellertid om vi värderar förändringen enligt detta gör vi direkt motsatsen till grundmetoden som är välkänt fungerande i alla möjliga sammanhang och namn.


Dock kan man också ta grundalgoritmen och göra en enklare variant av och till inte bara möjligt fungerande utan rent av bättre fungerande (just för denna typ av träning normalt ej bättre åtminstone för den typ av information jag har i indata vektorerna: hebbianska associatorer kombinerande similarity mellan data och tillstånd snarare än att utnyttja alla 400 positioner efter SOM tillstånden presterar dock utmärkt så här) genom att skatta antingen likheten eller avståndet vad vi nu föredrar (jag kan tänka mig det senare vanligen är lite snabbare men brukar själv föredra multipikationerna similarity kräver eftersom det brukar komma med färre defekter p.g.a. feltänk av mig då den känns mer naturlig när jag tänker) övergripande för vektorerna.


Är distansen samlat större d.v.s. vi har lägre la similarité cosinus ökar vi hur mycket vi modifierar tillståndet utifrån indata-vektorn med. Medan för varje modifikation med denna vi gör per position modifierar vi mer om den betraktat unikt är mer lika tillståndet.


Samlat sker en massa mer beräkning. Och som sagt åtminstone genomsnittlig similarity är snarlik ner till flera decimaler den samma som med grundalgoritmer för min lilla testkörning cirka 60 000 operationer påbörjat hyggligt bra för-tränad organisation. Min gissning var därför att den inte skiljer sig radikalt.


En algoritm jag körde initialt fortfarande tränande små indata mängder på färre än några tusen ord där prestanda märks så mycket mer konkret än organiserande miljoner (där det alltid tar massor av tid vad man än gör) var att avstå från att uppdatera vinnande tillstånd och istället spara informationen. När man därefter kört säg slumpmässigt 1/3 - 2/3 av totala antalet ord i träningsdata modifierar vi motsvarande genomsnittet (själva divisionen för att bilda genomsnittet behöver ej göras så det är endast additioner och slutligen en subtraktion). Därmed gör vi en normalisering (400 kvadrat operationer + 400 divisioner per uppdatering) vilket snabbade upp tydligt. Det tycks ge samma värde utdata åtminstone när man avslutar några epoker normalt resp. som var aktuellt för mig för dessa mindre specialiserade ämnen hade 0 grannskap annat än lite precis början för att få bort out-lier tilldelning. Vilket förövrigt kanske säger något om hastighet multiplikation vs addition för decimaltal.


Jag upplevde ev. inkorrekt att det kan vara sundare om man gör så här att ej per epok utnyttja alla koncept men heller ej ligga väldigt lågt i antal. Så att man per epok med resp. normalisering modifierar med tämligen varierat indata kanske minskande risken för träning på någon typ av korrelation som ej egentligen har något med vektorerna att göra.

SOM och distribuerade rep. ord: Krypteringsanalys, Intrångsdetektion och SEO

Givet följande kan man naturligtvis fråga sig om SOM-algoritmen kan användas för krypteringsanalys av enklast ECB-mode:


Emellertid etablerar vi en kodbok (en relevant namnlikhet använd traditionellt speech-processing såväl kryptologin för ECB-mode kanske först namngiven i DES-standarden - electronic code book där feedback och annan påverkan mellan block som krypteras helt saknas: samma indata och samma nyckel krypterar alltid tillsamma data oberoende av föregående och framförvarande klar- eller chiffertext vilket etablerar lägre säkerhet genom att vi kan bygga upp look-up-tabeller färdiga förslagsvis som man gärna gör det lagringseffektivt vanliga filstarter med vanliga lösenord - eller dyrare men ej brutalt för DES 56-bitar alla nycklar - mode d.v.s. praktiskt vad vi här önskar göra) där vi önskar att resp. flergrams-koncept (ex. Hans Husman och/eller ord får en meningsfull positionering i rymden är den korrelation den icke-linjära komponenten i SOM-näten skapar (d.v.s. från spreading activation i rent topologiskt - "fysiskt" - grannskap av vinnande nod mycket intressant.

Från: Att bygga den relativa korrelationen (den icke-linjära komponenter) under träning av självorganiserade kartor (2016-07-17)


Emellertid är blockchiffret - oavsett om SP-nätverk likt DES eller bättre illustrerande här skapat med envägs-hash-funktioner kryptologiskt "säkre" i mening av att man troligt ungefär som engagerad användare kan skatta arbetsbelastningen ungefär att angripa - gäller att de syftar till att reducera information analysbar i mening korrelerad nyckelmaterial resp. intext.


Om krypteringsfunktionen fungerar väl ska därför ingenting vettigt clustras eller uttrycka sig i sorteringen av tillstånden. Något man kanske vid tillfälle kunde roa sig att pröva kanske med MD5 nedskuren till sista 32-bitar eller motsvarande från i indata data som där tenderar att clustra sig mycket meningsfullt (eller kanske serier av AAAAAAAAA, AAAAAAAB m.fl. varianter förändra sig jfr innan en bit).


Dock eftersom varians helst också av sådan sort som skapats av ändringar jfr normalt data vi ej förutsätt är vad intrusion detection normalt söker utnyttja om ej regelbaserad har SOM (bl.a. Kohonen) såväl som andra liknande algoritmer ibland tillämpats här med idag en hel del vill jag minnas publicerat.


Ett värde såväl som ej korrekt genomtänkt risk är möjligheten att bibehålla träning kontinuerligt etablerande förståelse av vad som är normal värld även om den förändras lite över tiden (en till användare, ny applikation o.s.v.) utan onödiga larm. Vissa kontinuerliga förändringar kan ju emellertid reduceras i dimensioner ner till med varandra jämförbar representation (det är själva poängen här görande analys generellt effektiv längre och djupare samt hanterande förändringar normal frisk ej angripande användning möjlig utan en massa okynnes-larm). Vilket kan göra det möjligt - speciellt när förståelse djupare teoretiskt hur sådant här görs träning resp. praktiskt typ av data utnyttjat - att introducera angrepp som kontinuerligt över en längre tid tränar om nätet till att uppfatta angrepp som normal ej angripande användning.


Ej olikt praktiskt kanske som min diskreta antydan om möjlig SEO genom att förstå svagheter i de representationer av ordvektorer sökmotorer kanske använder där vissa typer av ord (jag gav tror jag ex. på vissa svamporganismer) p.g.a. strukturella utmaningar corpus (Wikipedia användes som exempel då vi där kan se det orsaka just detta) kommer tendera när vektorerna används för similarity att generellt ge överdriven likhet. D.v.s. tänkbart ge sökmotor-träffar i större utsträckning irrelevanta därför att ordet upplevs höra i "mer ämne" än egentligen korrekt. Diskussionen finns i en av inläggen nyligen om SOM.

Att bygga den relativa korrelationen (den icke-linjära komponenter) under träning av självorganiserade kartor

Betraktar vi våra självorganiserade kartor (sista inlägg innan denna med länkar bakåt till de färska inläggen men mer några år bakåt i tiden bör finnas) uteslutande eller primärt som en metod för clustering (och såväl min anpassade algoritm av Kohonen liksom alla uppenbara varianter av Kohonen presterar ungefär som andra vanliga algoritmer som K-means i denna del) finns föga anledning att ha särskilt fokus på grannskap annat än för ev. behov visualisering eller önskan inbördes-sortering förutom den som jag upplever större fördelen här att mycket enkelt utan engagemang slippa hela frågan om out-liers som ockuperar cluster ensamma eller nära så. Den sista fördelen out-liers bör normalt alltid lösa sig väl av ganska begränsad grannskaps-effekt tidigt varefter kanske ofta egentligen föga anledning finns till att alls bibehålla grannskapet.


Emellertid etablerar vi en kodbok (en relevant namnlikhet använd traditionellt speech-processing såväl kryptologin för ECB-mode kanske först namngiven i DES-standarden - electronic code book där feedback och annan påverkan mellan block som krypteras helt saknas: samma indata och samma nyckel krypterar alltid tillsamma data oberoende av föregående och framförvarande klar- eller chiffertext vilket etablerar lägre säkerhet genom att vi kan bygga upp look-up-tabeller färdiga förslagsvis som man gärna gör det lagringseffektivt vanliga filstarter med vanliga lösenord - eller dyrare men ej brutalt för DES 56-bitar alla nycklar - mode d.v.s. praktiskt vad vi här önskar göra) där vi önskar att resp. flergrams-koncept (ex. Hans Husman och/eller ord får en meningsfull positionering i rymden är den korrelation den icke-linjära komponenten i SOM-näten skapar (d.v.s. från spreading activation i rent topologiskt - "fysiskt" - grannskap av vinnande nod mycket intressant.


Vi ökar mängden information positionerna i representationen (för mig 300 decimal-tal för varje resp. träningssystem eller totalt före dim-reduktion 1200 decimal-tal kompletterat 300 st för icke-normaliserad träning approximerande "vanligheten" vilka förväntat bör naturligt gå igenom en egen liten reduktion till färre dimensioner enkelt) genom att sambanden mellan varje position bär större vetande.


Arbetande på en disk 2D kan vi se att bandbredden (mängden samband mellan positionerna som passerar från en modifikation) till priset av fler operationer (motsvarande mindre data som kan läggas ut på bandbredden per tidsenhet) ökar. 1D som jag arbetar kan man märka att det går att råka ut för relaterade grupperingar i början och slutet av dimensionen.


Vi kan betrakta tror jag hela fördelningen av grannskaps-effekten som att gå mot normalfördelning från en approximativ summering av diverse fördelningar för varje position med dess grannskapseffekt. Populärt ger det en approximation av informationen beräkningsbar ganska enkelt för normalfördelningen. Emellertid är denna skattning mindre eller lika med faktisk information. Det är praktiskt korrekt att se det som att vi gör antagande om normalfördelning på mer eller mindre väl normalfördelat och efter samma beräkningsrelation tappar vetande i ungefär samma takt som skattningen hade riskerat att komma fel (eller så har det alltid tycks visa sig för mig när jag prövat det på kontinuerliga fördelningar med olika skattningsmetoder ex. område som upplösning på histogram o.s.v.).


Så såväl defekten skattningen informationen som praktiskt vetandet en nod har om en annan nod reduceras med det topologiska avståndet. Ett sätt att uttrycka orsaken till varför man kan få dessa klumpar. Emellertid visar det också att ordnad sortering av information som när har baserad similarity på 400-dimensions-data för ord (eller flergram) kan uttrycka vettig sortering hela tiden i dess lokaliserade mening. Men jämför vi korrekt väl-sorterat i ett område med ett tillstånd långt bort kan ordningen ej garanteras bibehållas.


För sådan garanti skulle vi behöva låta det hela självorganiserat utifrån aspekt av tillståndet långt bort (eller något koncept eller grupp av koncept kanske) eller möjligen (lätt osäker på om garanti finns här och praktiskt utan tvivel extremt tidsödande att etablera hela vägen för flera miljoner koncept) totalt grannskap alltid. Något egentligt värde av det tvivlar jag på finns då vi ändå kan få ut den icke-linjära information samband mellan tillstånden i den nivå vi önskar (i all praktisk ej otrolig användning, tid- och hårdvara tillgänglig) genom att ha grannskap mer normala för sammanhanget: När jag tar ner träningskonstanten ökar jag upp grannskapet för att minska risk för att icke-linjär information tappas (för användning uteslutande clustering får man dock renare cluster och färre fel reducerande grannskapet men påverkan grannskapet minskar givetvis också när träningskonstant tas ner och stora delar ökat grannskap är troligen ren avrundning nära slutet körning) vilket är omvänt mot ofta beskrivet som normalt (en känsla jag har är dock att användning man tänker sig typiskt är clustering när språk är användning resp. avbildning fmri. EEG eller andra bilder medan mindre och mer i forskningen sista åren fokuserat på etablering korrelation - delvis troligen format av hur väl lösta vanliga data-alg. områden upplevs vara / hur färskt coola en grund metod är - såväl som ej att underskatta utvecklingen av hårdvara ty större grannskap kostar beräkning: Ett exempel på den senare forskningen har vi i Data mining and Knowledge Discovery with Emergen Self-Organizing Feature Maps för Multivariate Time Series även om jag fattade det rätt tror att man ej effektivt utnyttjar korrelation etablerad eller emergence i artikelns termonologi möjlig för språk särskilt när vi ej ser möjlighet att visualisera - vilket kan vara lätt begränsande när det gäller samband data - som det primära).


Därav efter egentligen relativt ändra algoritm ändringar begränsade tester att jag "öppnat upp arrayen" och gjort "linjen" till en cirkel. Jag kan inte se det som troligt praktisk att någon form av instabilitet kommer visa sig. Tvärtom har jag valt att ta upp en tränings-processerna som går till den högre nivån av 0.10 från 0.05 i träningskonstant (grannskap 44 på resp. sida expanderat till vid 0.05 fick kvarstå) just för att inducera förändring topologisk-sortering (självorganiserat snarare än annan hantering för att få 3 - 6 tillstånd någonstans ganska samlat 200 - 299 upplevda åtminstone projiserat ord (snarare än flergram som tränat) d.v.s. de ord mest lika genereras för resp. tillstånden sorterat - geo-relaterade vilka i övrigt alla (förutom av och till personer och händelser geo-taggade i konceptet vilka normalt som önskat sorterar med namn) ligger 0 - 100. Skillnaden är att distansen topologiskt för tillstånd 0 och tillstånd 299 förändras från 299 till 1. Vi kan (eller jag kunde så) lätt tänka oss att man kanske kan hamna i träning där tillstånden har svårt att stanna och kanske vandrar runt men som sagt ser jag det som helt otroligt praktiskt.


Och värdet förutom lokaliserat trevligare sortering mellan geo-koncepten som hamnar mot slutet av arrayen anslutande till övriga och där påverkar och påverkas vidare av dessa hamnade mer upplevt sunt sorterade får vi nu information samband koncept också effektivt byggda i början av slutet av arrayen (i det värdet spelar det heller ingen roll om det skulle börja röra sig cirkulärt) ersättande dyrare effekt över större avstånd genom den större bandbredd som två eller fler topologiska dimensioner lättare givit (möjligen ges samma effekt vid samma antal operationer: Det brukar vanligen ungefär vara så upplever jag mig visa sig vara så med vettig kod men jag har ej försökt - och vill som utanför information science lidande av matematik-PTSD inte - räkna på det).


Approximerar och generaliserar Hotelling-transformationen

Det tycks etablerat i matematik att Kohonens algoritm åtminstone under viss konfiguration approximerar eller har förutsättning att ta ut principal komponenter (Hotelling-transformationen / PCA) men jag har smärtat mig genom att försöka förstå etableringen av korrelationen den vägen utan använt verktyg och metoder jag är van att använda (PCA gillar jag som verktyg medan jag utgår utan att gått längre än sammanfattningen att det ej är effektiv tid att läsa hur matematiker förklarar vad det teoretiskt kommer in i Kohonen. Rent praktiskt är det emellertid självklart i topologisk 2D-mening:


  • Betänker vi oss en figur - säg en streckgubbe för enkelheten - har vi maximal varians d.v.s. här också maximal information om figurer där den största förändringen sker.
  • När vi går från vår streckgubbe över till den vita bakgrunden.
  • Med PCA kan vi ta ut just denna del av informationen och ex. för figur med mer än bara en streckgubbe få data vi kan automatiskt rita upp en streckgubbe med.

Kör vi Kohonen två dimensionellt på bilddata och har en similarity (eller avstånds-operation) som fångar samma typ av data får vi (utifrån vald upplösning via antal tillstånd - antagligen just p.g.a. detta möjligen delvis som man uttrycker att Kohonen näten generaliserar PCA) får vi just en dimensionsreducerad förenklad representation av bilden exempelvis mest trivialt just en streckgubbe.


Utnyttjande korrelationen (och användande det i metod-bredd lite mer begränsande från Data mining and Knowledge Discovery with Emergen Self-Organizing Feature Maps för Multivariate Time Series än jag gör för flergrammens tillstånd) kan vi också betrakta förändringen - i någon mening hastigheten eller koncentrationen / tätheten av streckgubben). Görande ungefär detta kanske 2009 eller 2010 på en bild (med största sannolikhet från Google's karttjänst: Kan ej tänka mig vad det annars skulle varit - Möjligen annan kanal GeoEye och i så fall bör det ej varit platt: Det gick i alla fall att få lite strö tid gratis utvärdering vilket jag ev. gjorde vid den här tiden: Minns ej men finns säkert att hitta bakåt här och förövrigt kanske med korrektare - jag tänker lätt fel kring sådant - års-indikation än här) klarar på villaområde Bergsbrunna, Uppsala, trots då fortfarande den sämre plattare fototypen få en grov indikation via detta på hur höga träden här (mor har ett av de högsta träden: Trädet står på tomt i nedåt lutning och betraktar vi trädet från vägen ovanför håller det samma höjd "över-havet" som träd på tomter ovanför i lutet d.v.s. ej helt trivialt). Det imponerade storligen på mig då och var inte något jag sökte när jag satte det att arbeta på bilden (körde om jag minns rätt på kanske 20 olika typer av bilder för att se vad det skulle bli) men illustrerar väl värdet av korrelationen mellan tillstånden.


Jämförelse med PCA: Principal Component Analysis and Self-Organizing Map för Visualizing and Classifying Fire Risks in Forst Regions.


Kanske kan vi se möjligheten med Kohonens nät i min och andra varianter som att cluster delen ger oss K-mean (utan grannskap får man i praktiken samma varken bättre eller sämre men kanske med mindre besvär) medan vi därefter först har vad vi kanske enklast (tyckte jag själv) ser som den första representationen av variansen i form av ordningen (motsvarande streckgubben) och därefter över dessa tillsammans en eller flera till (beroende på hur vi vill tänka oss detta vilket mer än att mena att inte en mängd vägar att uttrycka detta här är vad jag försöker mig på) lager med motsvarande principal komponenter uttryckande varians i data (ex. motsvarande det mest omedelbara att se förändringen av likhet mellan resp. tillstånd och/eller - beroende på hur man gör det - som tätheten på kartan).


Följande artikel har jag ej läst (Google visar också resultat från Finland GZ-komprimerad PS som jag ej läst) ännu: Emergence of invariant-feature detectors in the adaptive-subspace self-organizing map, Teuvo Kohonen, Biological Cybernetics. 1996.