Visar inlägg med etikett Military intelligence. Visa alla inlägg
Visar inlägg med etikett Military intelligence. Visa alla inlägg

Vektorer för n-gram, entiteter och fraser skapade ad-hoc från vektorer ord

2016-09-04

Tidigare publicerat:


kan upplevas skilja ut sig som lite högre värde att läsa än genomsnitt just för den aktuella frågan:



För översikt över området composition sista åren läser vi mest effektivt just Baroni. Frågan är emellertid om inte själva den tillämpningsdomän som ligger kanske närmast till uppenbar gör att man hamnar i fel utgångspunkt till problemet.


Istället för att fråga sig vilken till metod ej redan jämförbar som finns och hur man tränar eller i detalj annan väg skapar den praktisk kanske man kan se fler möjligheter genom att reflektera hur man kombinerar bäst för att optimera mängden information man arbetar upp från text samlat analyserat över tiden:


  • Propagerar och samlar upp värdet ex. frasen som sig bidrar med i form av information.
  • Propagerar värdet av vektor-representationen - kanske en av flera där man egentlig mening propagerar resp. av dessa också - och gärna när kombinerat föregående hjälper dem att uttrycka ut mer av sin information bättre. De tenderar för alla vanliga metoder ha mer värde än normalt praktiskt kommer ut. Om än kanske inte på nivå - eller ens i närheten med - själva bitlängden av av de 399 - 1299 32 eller tror jag säkert ofta 64-bitars flyttal har: 2^(1200 * 64) men för lite perspektiv på vad mer än själva positionen som ryms.

1. Utnyttjandet av endast ett ord ger oss om ingenting mer frekvensen som funktion av tiden och kontext. Praktiskt nog får jag säga att om vår vektor-representationen orden är skapad som typiskt LSA görs och vi i upparbetning skapar upp nya vektorer så att säga (jfr SOM) ger det indirekt högre prioritet på det språk som intresserar oss med mindre prioritet på udda ord vilka ofta tycks för mig både på egen och andras gjorda så här över-värderas. Ty själva tiden arbete på ordets representation oavsett att mer data tillförts ökar. Emedan vanliga men för oss intet-sägande ord tydliggörs allt mer som varande just detta.


2. För en noun-fras sig en entitet på ett eller flera ord även om vi ej antar hantering ordning (ex. som för ngram-modeller utifrån position eller kontext av föregående ord eller mer esoteriskt / nytt via någon av de metoder med utgångspunkt extrahering och komprimering / dim-red. till vektorer som finns) resp. ord givet omedelbart kontext av entitet som n-gram med övriga ord i denna.


3. För relationer mer i mer mening av ontologi / thesaurus eller i dokument från koncept ex. i titel undersida till upparbetat eller skapat kontext från huvudtitel + abstract + taggar (och / eller vanligare men upplever jag för välkända journaler adderande värde men ej lika bra som informationsbehandling titel och abstrakt - dock bättre numera för de flesta journaler avseende taggar) just relationen koncept-2 givet / inom / samtidigt koncept-1


4- Mer konkret relaterat Baroni's ett adjektiv verkande på ett noun kanske vi här frågar oss hur vi tar information effektivt från mest verkningsfulla adjektiv för att samla och bearbeta till vetskap om resp. adjektiv. Vilket kanske visar på andra möjligheter möjligen mer effektiva. Jag har här varit mindre engagerad givet att jag tidigt konstaterade att jag kan använda EMI som viktning av ord (där adjektiv tenderar att mindre ofta ha datakvalitet EMI sämre än en god bit ovanför genomsnittet alla ord, och får erkänna att jag i denna punkt snarare tar befintlig metod ej utnyttjande dessa vektor-representationer som exempel. Viktning emotionell intensitet eller jämförbart mått konceptuellt föga relaterat approximationen av position i det semantiskt illustrerande rummet är också relaterat diskussionen om olika typer av distanser i Ett alternativt förhållande relaterat distans mellan vektorer eller det multi-modala i bild tillsammans med ord (där jag nog tror att vi åren som kommer blir trygga i att vi alltid har en gemensam representation aktiverad där emellertid nivån av bidrag från kärna visuellt eller motsvarande som bara läsande ordet samtidigt kan variera från hur vi tar in konceptet: ex. bild eller ord, såväl som koncept - görande ex. inte bara en bild samtidigt relevant förstärkande utan även ett mer illustrativt visuellt text-språk förstärkande upplevelse såväl som att förståelse bild resp. ord kan störas av dålig information i resp.): Multimodal Distributional Semantics. För resp. ord gäller ju oavsett semantiska vektorer att arketypisk riktnings-mening denna verkar på styrande tolkning mening i övrigt finns: More indikerar mer av mer medan less ligger i motsatt riktning. Viss semantisk interferens är nu emellertid fallet för många adjektiv ej lika "rena" i hur de bidrar till mening som more och less: Kallande nu något känt rött eller något rött i en bild som green:ish kan inducera störande interferens eller alt. vara fullt naturligt om givet kontext över resp. är grön-politik: D.v.s. vi kan även här se en riktning som kan gå positivt eller negativt / Upp eller ner / Mer eller mindre.


Detta besvarar väl i och för sig inte hur man bäst kombinerar ord till ex. noun-fraser eller entiteter. Men jag upplevde att själva processen som sådan rangordnade flera metoder jag prövade.

En till kommentar allmänt för vad jag läst i domänen är att jag tror man ej fullt ser skillnaden i effektens utsträckning mellan de två enklaste operatorerna för kombination: Elementvis addition resp. multiplikation.


Resp. ensam (och oavsett vad som ofta sägs är de var för sig ensamma vad som kräver mer vid sidan om ex. kontext-beroende vikter, kombinationer av olika slag eller något, om ej prestera mycket sämre än vad som är möjligt med den information som konkret finns i vektorerna skapade med de vanligaste systemen: Många jämförelser är uppenbart defunct här) kan man först reflektera och pröva att generera sorterat de mest lika ordvektorerna till de kombinerande vektorerna.


Vilket ger mest relevant additionen möjlighet att grovt kvantifiera utan att behöva ge sig in i direkt ockult matematik varje hederlig kristen man ej ska behöva resp. som förstärks från uppenbar elementvis likhet ( två stora i genomsnitt / L2-normaliserat blir stort ) resp. "hastigheten" över kombinationer av att man smetar ut och medelvärdesbildar meningen till vad när det första ej bra räcker till gör det svårare att se skillnaden i mening.


Klustrar vi förövrigt resp. för entiteter flergram är jag inte främmande för att man tidigare och enklare upplever additionen mer naturlig. Men det tycks också som vi kan beroende på hur vi hanterar multiplikationens parametrar via ex. power kan få ut fler även om de gärna naturligt kommer tendera att bli de smalare eller något av det minsta gemensamma troligare (säg lite överdrivet för flera metoder att skapa vektorerna vi arbetar med: Men om vi säg har också feedback tillbaka från långt borta andra sidan via ex. folding där utsmetning redan sker kanske en bra sak???).


En fråga relaterat själva riktningen föreligger också betraktat elementvis. Egentligen borde jag kanske bäst avstå från resonemanget här. Mycket möjligt att jag tänker fel där flera andra saker inverkar när testar praktiskt. Men säg att vi nu har vektorerna ortogonala över resp. position vektorerna i mening av att man faktiskt effektivt där har en motsvarighet i reducerad korrelation mellan dem (konceptet att de är icke korrelerade stämmer emellertid inte i någon tillämpad mening på NLP: Tvärtom kvantiserbar redan flergram-s entiteter kanske ej orelaterat här). Men detta har nu skett givet antagande och operationer på indatat medan vad vi opererar på tenderar att skilja ut sig. PMI är ej en dålig operation skapande vektorer - eller för den delen andra definitioner av mutual information: Troligen är de alla ungefär det samma - eller för den delen mått som inverse document frequence som vikt skapande vektor-representationer av dokument-fragment (jfr discourse-förändring) upp till hela dokument eller större (jfr information retrieval). Enskilt element utan absolut-belopp mellan säg 0.2 och -0.1 en position får vi position riktning medan vi för multiplikationen hamnar negativt. Differensen till det 0 som när över alla jag ej tryggt ser om man borde praktiskt hantera som definierat konkret 0 eller se odefinierat är ej den samma:


1. Söker vi generera ut närmaste ord-vektorer snarare än vektorer av kombinationer jämförbara i typ (det senare är kritiskt just för multiplikation eftersom magnituden förändras radikalt för varje multiplikation redan elementvis medan det fungerar hyggligt för resp. jämförelser flergram till ord eller ord till flergram representationer: Skapar vi ex. upp representationer från flergram över något ämne får vi om t.ex. topologiskt sorterade SOM ett uttryck av ordets förekomst över de flergram som påverkat skapat av resp. dimensions typiskt närmaste koncept som godtyckliga entiteter och flergram: Jfr mutual i mutual information som påverkat en dimension uttryckande information science såväl som några runt ekonomi via sådant som mutual trust. Men som sagt ej riktigt bra) får vi ta ner magnituden till samma som för orden. Den metod uppenbar för mig för detta (osäker om best practise) är via kombination två ord kvadratroten eller egentligen en konstant a som är något mindre än 0.5 (försöks beräkning av default a för alla kombinationer utan hänsyn resp. ord gav 0.4: Från inlärning av hantering två-gram redan skapande vektorerna vs. skapade ord. Nivån torde motsvara förlusten information via operationerna i worst-case punkterna givet att jag ej vid träningen värderade orden från förekomst globalt corpus utan allt värderades lika). Sign lyfter vi ut så att säga: Sign * ( abs ( x(i) * y (i) )^a ).


2. P.s.s. sätt - eller lite jämförbart i koncept snarare - som att vi i en språkmodell kan skatta sannolikheten av ord A givet ord B med P(A) * P(B) (approximerar P ( A | B ) hanterande dem som oberoende d.v.s. lekande att allt verkligt i språket om sambanden mellan orden ej finns: Allt är en apa som pekar på banan och ev. samband mellan sådant är mätbart bara i så fall flera peka på banan efter varandra) gäller att representation A multiplicerat över vektorn med B vid generering närmast ord-vektorer (givet magnitud hanterat) approximerar de närmaste för två-grammet skapat direkt till vektor-representation (om också korrekt viktade via a eller något specifikt).


3. Medan additionen normaliserar approximerar den gemensamma mängden närmaste koncept genererade följande viktningen av resp. ord och resp. ords uttryck i varje dimension.


Är dimensionerna - positionerna resp. vektor för resp. ord - meningsfulla som för mig kan man också se en del skillnader genom att skära dimensioner / mening man ej är intresserad av. Är vi ej intresserade av mening relaterat länder vi opererar på som har att göra med personer, sociologi m.m. använder vi dem ej - och om vi är relativt mer intresserade av mening relaterat filmindustri resp. litteratur värderar vi upp dem. En ökad förlust i diskriminerbarhet för just särskilt fågram eller ord, och helst då mycket allmänna koncept så som ord med många meningar eller samband blir fallet växande snabbare tycks för mig (men ej noggrant kontrollerat) vid multiplikationen medan vi för additionen kan särskilt när båda är hyggligt breda starta lite grovare men ibland vinna utan särskilt utvalt för orden när vi smalnar av saker. Detta kan dock varierar ordentligt och är också svårt att se eftersom vi redan i ett fåtal dimensioner har ordentligt med information.


Accepterar vi konceptet av representation av koncept från koncept de är relaterade via - ofta i dessa sammanhang från orden i deras närhet corps - kan vi för resp. genererade närmaste förekommande till orden såväl begränsa värden genom att för topp N tro att de gemensamma eller snarare om ej N är litet värderade i kombinationen (rank eller likhet kanske) se dessa som beskrivande det gemensamma konceptet. Vilket absolut inte är dåligt på något sätt. Eller ta konsekvensen av att vi redan där är i en dyr metod vi normalt ej vill göra utan gör något särskilt viktigt och generera resp. ord från genereringen och utifrån lämplig värdering från resp. A och B först till resp. först genererade ord vidare till de från dessa genererade orden värdera de sista. P ( ord typ sist genererat | ord som genererade tillsammans med något kontext kanske bara alla ord eller något som kom med A och B).


Gör vi nu detta för en kombination likt A och B högst verklig och gärna mer än ett tre-gram (ty när orden är fyra eller fler i specialistområden är de väldigt talande med få "noise-problem"). Och är trygg i hur vi exakt gör en generering som ovan. Är det en till väg att resonera och jämföra kombinerande operationer för composition. Genererar de bättre eller sämre från kombinationen? Praktiskt är det kanske enklare när man fortfarande väljer operation om man kan utnyttja vektorerna för orden (men jag tror att det kanske begränsar lite men det är möjligt att sätt att kombinera jag ej fick över enkelt så kanske lätt hittas av någon annan: Jag hade mindre av vetskap algebra återupplivad här och såg därför kritiskt värde av att kunna göra praktiska kontroller verifierande att jag begrep koncepten tillräckligt rätt):


Jag har här ska sägas noterat att för konceptet första lagret jämförbara om än ej exakt det samma (snarare klassificering) sett att man sätter andra kombinerande metoder klassificering som övre gräns men verkligen att man där resonerar felaktigt i beviset för det (genom att tänka sig om jag minns rätt nu att vi ska ta de närmaste grannarna från en fixt-punkt d.v.s. accepterande hela problemet med centroider som gör dem så begränsade medan vi snarare här tar det antal punkter som beskriver flexibelt och när att välja mellan finns godtyckligt beskrivande vad som perfekt särskiljer ex. två ytor: Precisionen hårdvaran resp. antal koncept i rymden begränsar och inget i övrigt givet oändlig beräkningstid per fysisk tid).


Vidare rörande viktning ord i koncept kan sägas att vi givetvis kan göra något motsvarande IDF men användande koncepten om en stor mängd är kända istället för dokumenten. Emellertid räcker sambanden från NGRAM-modeller i språkmodeller parsning eller ljud till text m.m. utmärkt med eller utan sådana metoder (lite vilket som beroende på hur man vill göra det). Oavsett med eller utan gäller att samlar vi upp information från förekomsterna löpande eller för träning får vi för ev. representation som fritt får påverkas av ord, två-gram o.s.v. så länge meningsfulla koncept, entiteter, fraser eller motsvarande ett naturligt mått av hur semantiskt ordet eller flergrammet är i mening av resulterande "rymd": Denna tenderar att praktiskt ha stora likheter med IDF i magnituden / vektorlängden / amplituden på vågen eller hur vi gör / ser på det avseende likheten mellan vektorn vi börjar med och representationen vi slutar med eller har upparbetat vid punkten. Flergram tenderar under förutsättning någon addition sker med eller utan multiplikation (just nu men kan komma att ändra det kombinerar jag med båda men multiplicerar aldrig fler än två ord i resp. som istället efter övriga operationer mellan summeras). MI-liknande relationer av typen värdera förekomsten av konceptet (d.v.s. det enskilda ordet förekommande just i konceptet ex. mutual i mutual information och / eller mer påkostat läggande något mer till förutom orden som ett övergripande kontext eller för sense) d.v.w. någon variant typiskt av P (konceptet) / P(ordet) fungerar också väl särskilt för ord med operator-liknande funktion som in, of m.m. (medan konceptet av stopp-listning känns oerhört slösaktigt med den information som faktiskt finns i resp. ordvektor skapad med typiska metoder oavsett hur svår den är att få fram bra utan att tappa beräkningseffektiviteten dimensionsreduktionen gav) - för längre koncept kanske snarast först per resp. mest arketypiskt förekommande koncept d.v.s. för mig mest aktuellt för Wikipedia-kategorier (jfr People from Sweden working [...] in movie industry borned 1987 för att hitta på en illustrerande principen).


Att se IDF som en vikt indikerande hur semantiskt tydligt ett ord är i en värld motsvarande att vi för mängden koncept aktuella totalt tränar upp en representation där alla koncept är lika sannolika stämmer praktiskt väl med vad det senare ger i amplitud.


Slutligen rörande såväl upparbetning information som potentiella problem compositioner gäller att vektor-representationer skapade såväl via algoritmer i domän neuronnät som LSA m.fl. (alla vanliga) tenderar att ha säkerhetsdefekter skapade från defekter i hantering corpus:



Smoothing som del av algoritmerna tycks lura sig för samtliga när mindre information finns för något men där informationen som finns är mycket bearbetbar i effekt den omedelbart ger (eller hur man ska uttrycka det utan att behöva sitta med resp. algoritm här och följa exempel på effekt vilket jag ej gjort för mer än en av det oavsett konstaterat det för färdiga representationer som Word2Vec, Stanfords-algoritm, ett par ev. tre varianter bag-of-word, LSA m.fl.). Upparbetning från tar dock väldigt snabbt potentiellt bort problematiken: Jag kan fortfarande se problem-koncepten komma upp som liggande högst på vissa indikations-värden så som (om jag nu minns rätt på vilken mest så) summan av sitt resp. per dimension bidrag till variansen ( (x(i) - medelvärdet av x )**2 / ( summan av det samma för alla x ) ) före (ej kontrollerat efteråt än för någon men konstaterat ej visande jämförbart som vektor-indata vid generering närmaste grannar kommande för högt) innan medelvärde subtraherats följt av division av varians resp. dim (där resp. är redan innan mycket jämförbar med varandra magnitud) och slutligen softmax där softmax gjordes just relaterat detta som extra säkerhetsåtgärd mot udda svamp-arter knappt förekommande text förutom enstaka Wikipedia-listningar, samt vissa gambling-koncept (och jag kan tillräckligt från SEO-domänen ej bara från dataanalysen för att kunna känna lite men utan att klara sätta fingret riktigt på vad jag ser det från vem vi har i ett par av dem för en LSA-representation).


Utan detta eller något annat kan dessa koncept när man har vetskap om dem existerande och systematiskt sökt var de visar sig irrationellt starka defekt användas mycket praktiskt förstörande data. D.v.s. vid säg dataanalys ej med en existerande angripare eller om man är en sökmotor användande resp. LSA och Word2Vec samt ontologiska relationer mellan koncept (lite som Wordnet) ge defekta sökresultat kommande högt utan att ha ex. gambling-koncept (dock ej av mig konstaterat testande här då jag var mer intresserad av att hantera problemen med Wikipedia koncept då det är en så stark datakälla för all överskådlig framtid) utan att ha något sådant koncept alls. Det senare kanske kan utlösa kontroll i sig eller tas automatiskt men det omvända gäller självklart också. Mest typiskt för SEO-skapade satellit-länk-sajter relaterade hasardspel är att de innehåller just ord som casio, gambling eller liknande: Att betvivla någon manuellt oavsett effekt donerande vidare att de någonsin blir manuellt kontrollerade utan det.


Också konstaterat vektor-representation skapat för först länkad artikel (vilken jag tror för de flesta är ett något lite - alla är egentligen på det stora hela samma om seriöst gjorda - oavsett av vem eller metod: Skillnaden upplever jag i den praktiska användningen är mindre än ibland indikerat i studier - Det är som inte värde på den nivån som betyder så mycket jämfört med algoritmerna där det används om ej kanske något helt trivialt som en enkel information retrieval algoritm eller liknande med rena standardlösningar utan behov ambition över det: Och kanske ofta inte ens där så det ex. klarar som värde översätta skillnad sökresultat någon märker kvalitetsskillnad av). Word2vec tror jag också ej är den bästa spontant att välja. Stanfords Glove minns jag att jag prövade och upplevde bra default (även om jag ej använde den länge alls så hade jag kanske gjort det om ej hårddisk-systemet där jag hade den avmonterades av mig och ej var aktuellt bara för den att ta upp igen). Vilka ord inkluderade om behov i specialistområde eller språk finns är av betydelse. Gällande Stanford tycker jag att de kan rekommenderas också därför att jag över åren sett att de seriöst långsiktigt hanterat sina lite tyngre programvaror eller data-koncept delade:



Jag bedömer förövrigt att 300 dimensioner ger en ganska stabil resistens mot problematiken säkerhetsdefekterna jfr säg 400, 500 eller stör.

Översätta sökord: Se och särskilja kultur, grupper av personer och upparbetat representera människor

2013-09-03

Vill jag särskilja en amerikan från en britt är något ofta för många fall och många personer enkelt koncept att ta några egenskaper brutalt jämförande en amerikan med en amerikan och visa versa intet-sägande (motsvarande med bl.a. normalfördelning låg varians) ex. talande engelska, bor i Nordamerika, gillar bankaffärer i Mellanöstern med liberala tankar om affärernas frihet överbryggande andra avstånd och konflikter i världen, har en inhemsk teve-kanal som kallas för BBC, huvudstaden heter Washington o.s.v. sorterat mellan var och en.


Omvänt vill jag särskilja dem för var för sig är det självklart föga funktionellt med faktorer föga varierade. Dom är ju mer bättre använt filtrerande bort ex. fransmän, svenskar m.fl. boende ex. i ett geo-område vi försöker dra britter (förslags med återläggning så England inte börjar krympa i befolkning) från för att särskilja och sortera i olika grupper med preferenser som intresserar oss eller kanske för att optimera en tjänst de använder (rätt sökresultat, bäst kryddade hamburgare eller vad nu aktuellt).


Det gemensamma konceptet är ju inarbetat demonstrerat i stora affärskoncept på webben tämligen funktionellt som ett genomsnitt. Att analysera ex. ankartext på länkar, stora text-corpus so Google NGRAM och oerhört mycket mer (inte minst för att ge kontrast till bl.a. Google indikerat föregående stora delar av språkanalysens och informationsteorins ofta sedan länge använda och för sitt ganska välfungerande algoritmer jfr diskussion Bing!).


Centraliteten säger i sig ingenting mer än just det. Per definition har vi just valt bort andra nyanser. Förvisso kan de vara vad som andra lösningar adderar eller att "centralitets-distributionerna" / "common everday man or woman surface sense" är en utgångspunkt eller del av andra algoritmer.


Återvänder vi till min mer privata reflektion jag råkade addera i Vad har Google, Microsoft m.fl. egentligen för beräkningsutrymme per användare? För kontext-hantering och prediktion av sökningar (2013-09-02) rörande sökkoncept webb och nyheter gäller ju att vad som avgör om detta alls ger mer än ett tydligt genomsnitt eller ett vettigt mycket funktionellt sökresultat (jfr stor händelse just nu eller givet nära genomgående hos dom som söker att de vill få förklarat vad koncept X egentligen innebär) vad som endast förutom genosnittet kan skattas (vad jag inser) genom:


  • Direkt i aktuell sökning givna koncept (vad vi skriver närmare enkel ordförståelse eller flerord ex. Google men med associerad "bakgrund" ex. divergens mellan love and hate jfr större gamla konflikter) resp. direkta sökkoncept i ord och ngrams-koncept konvergerande i ordförståelsen till ex. ett namn eller motsvarande översättande via vettig transformation till sidor (trivialt men nog så föredömligt optimerande sökmotorernas arbete vara 1 - 1 till ex. en Wikipedia sida med ex. samma titel och hundra tusentals länkar med kontext av varierade sökord runt om kring det).
  • Vi har en temporal divergens avvikande från vår inarbetade centralitet men möjlig att skatta rimligt snabbt över hela populationen. D.v.s. samma utsmetade genomsnitt men nu mycket smalare i tids-dimensionen och troligt mer volativ.
  • Vi kan vi andra parameter associerade riktade eller skattade från vem som söker förstå vad dennes genomsnitt är som kulturell hemvist (ex. person A med flera goda vänner i bankvärlden och lätt intresserad av politik i alla möjliga områden såväl som ekonomi - kanske revisor, journalist eller politiker eller dokusåpa-stjärna i den mån vi kan se det och det troligare påverkar vår tolkning av vad personen skriver).

Eftersom jag nu spontant skrev mer än tänkt i Vad har Google, Microsoft m.fl. egentligen för beräkningsutrymme per användare? För kontext-hantering och prediktion av sökningar (2013-09-02) men fullföljande och publicerande för egen bearbetning enkelt ha det kvar utan blandande in min laptop jag ser som throw-away lokalt förklarar kanske resonemangen och exemplen ovan enklare vad jag avser med kontext.


Även om vi ovan egentligen gör och får resultat i färre områden än vad som var aktuellt i det diskuterade konceptet nästan direkt från början och jag insåg efter vad jag skrev tidigare (säkert som resultat av den bearbetningen) att söker man mer avsmalnad tolkning ut från sökorden närmare individuellt fångande egentligen individens centralitet kan man självklart dra ner antalet dimensioner ordentligt. Det är ju bara preferenser per individ.


Begränsningen är samma för exemplet med amerikaner och britter: det fångar mest likheten och när var avvikande har betydelse blir det lätt lite fel. Söker jag sedan evigheter med stor preferens för att få PDF-dokument i mina sökresultat är det givetvis en enkel lösning att dra upp det som faktor. Men av och till kanske jag inte söker artiklar från journaler åter-publicerade av universitet utan ex. corpus och datafiler. Är nu preferensen för PDF vad som ej orkar i en lösning att uttrycka variation från mitt kontext direkt med dom sökningarna och runt om så är det tämligen kört att få dom träffar man önskar med mindre än att man kan title (och motsvarande starka koncept enkelt översätta till sökord rada upp väldigt nära just vad man söker).


Det gjorde jag nyligen för att hitta tillbaka till corpus.byu.edu - Web Corpus / Statistics i motsvarande sökresultat som site:edu -intitle:pdf large web corpus. Men söker jag mer kreativt prospekterande utforskande efter bra data jag ej har i områden där jag gärna vill ha mer klart för att spara arbete just nu redan ansträngande datorresurserna med annan grundanalys är det svårare.


Faktiskt även kontext-switchande mer till mitt sluga sök-mindset utnyttjande erfarenheter av sökmotorer från alla möjliga perspektiv (även om jag nu aldrig tagit betalt för länkar eller någonsin förr när jag tog en del uppdrag i området utnyttjande egna sajter utan snarare kompletterande andra lösningar kunderna köpte eller hade med det mer eleganta ex. skapande värden riktade för att få universitets-länkar, eller länkar branschföreningar eller government - där Sverige är väldigt svårt men på engelska webben med konkret värde kan det gå även om det kan kräva att du hjälper till att få på plats några WLAN-hubbar hos svenska myndigheter om du ska få den tungt betrodda NSA-länken nära deras startsida &ld;- skämtande) var det svårt med mindre än att se till att min historik ej påverkade utnyttjande annan dator (men att logga ut från Google antar jag fungerar lika ba).


Exemplen illustrerar utmaningen. Därmed inte sagt att det behöver vara lätt. Skrivand här så här ges ju den abstrakta formen. I konkret implementationer och modeller kan det rent av antar jag varierat med resurser tämligen utmanande krävande ganska mycket av och till. Det är ganska ofta i domänen inte alltid ens triviala lösningar praktiskt ens när välkända enkla gamla algoritmer är vad man kanske kan nöja sig med som initialt filter därför att det är alltid så mycket data.


För mig precis som jag tidigare skrev kan jag heller inte riktigt skatta hur svårt därför att jag insåg att jag saknar referenssystem för vad som är normal basnivå på cpu-tid och lika mycket minne som är möjligt att lägga per användare. Vad orkar en invant kompetent hårdvaru- och mjukvaru-optimerande entitet egentligen i kostnad per användare i mängd minne och beräkning? Vektorer med tusen dimesnioner? Eller hellre minst tio tusen i magnitud? Eller för närmare magi i avbildning flera hundra tusen (där tar det verkligen kraft).


Av och till inte helt orelaterat kanske tänker jag på alla pay-load av ytlig men bred datakunskap stat m.fl. tryckte ut för ett antal år sedan när jag var barn. Före webb var ett koncept och långt innan hem-pc. Mycket om problemet samkörning, lagar om personregister m.m. I uppdateringarna av grunddata jag gjorde nu tror jag antalet personer med namn och enkla fakta som födelsedatum, kön, nationalitet, födelsehemvist m.m. hamnade på cirka 500 - 900 000 (efter att jag skar ned brutalt för att hålla nere tiden det tar att också föra in för presentation där MediaWiki utnyttjas).


Nu är ingenting där brytande mot aktuella lagstiftningar runt register - ej heller några andra - men vi ser en kontrast fortfarande kanske varierat tydlig mot förr (indikerande kanske flera emergence görande stora mängder inarbetade centralitets-vikter värdelösa ofta ganska snabbt) på var vi tar som naturligt att någonsin dator har och vad det innebär och upplevs. När Staten och Storföretagen hade Stordatorer med vi övriga kanske hade en Vic-64 med bandstation för kassetband var personregister av den här storleken väldigt ovanligt d.v.s. stor kontrast. Idag inte särskilt ovanligt för som här kända personer från historien eller nulevande (politiker, skådespelare m.m.) huvudsakligen genererade från Wikipedia text.


Gigantiskt personregister redo för samkörning öppet publicerat på webben

    För att inte oroa känsliga läsare (jag vill ju inte att en för medarbetarna engagerad Obama ska ringa och försökande projiserande medkänsla med att deras myndighet NSA har det tufft redan utan att behöva läsa att folk lite varstans i världen i bara vad som publicerat hundra-tal kanske bygger större common sense representationer än känt indikerat från något finansierat från den kultursfären)i onödan indikerande Wikipedia ex. samkörd med Commons (också Wikimedia stiftelsen och kulturen men inriktat lagra bilder m.fl. informationsuttryck som mer komponent-baserat används i uppslagssidor.)

Och ett antar jag uppenbart svar på tekniska grundförutsättningar som hjälper oss att ta en bredare bild av en kultur ner till mindre grupper, eller blandade kulturer, eller städer, eller en enskild person, för att riktat se vad någon egentligen söker efter eller vill veta eller söka prediktera andra ongitiva eller emotionella preferenser om vad nästa steg blir eller önskas bli ligger om något ännu närmare 1980-talets rädsla för personregistret och samkörningen (jag samkör hej-vilt över många tusen dimensioner och för riktade områden ett ganska betydande antal datakällor) men det är värt att komma ihåg att vi kan fortfarande moraliskt såväl som juridiskt gå över dom gamla lagarna.


Inte helt orelaterat mer än vad en individ skriver ser jag egentligen bara ett typiskt namn-exempel resp. postnummer som tillför värde i kontext och som sådana minst sagt obetydliga annat än väldigt tidigt. Valfrihet och förståelse av vad ex. en sökmotor lagrar är ju vettigt. Jag ser heller inget problem att kunna garantera att allt data förstörs utan propagerat data som ej försvinner globala tillstånd. Andra applikationer mindre vanliga mindre troliga för egendel men väl så intressanta och indikativa kanske för åren som kommer är dock uttryckande tillstånd för personer, företag m.m. Mining så bra data vi kan och skattande en förenklad liten kognitiv grunka som i något sammanhang förklarar lite hur dom tänker och resonerar eller tänker göra. Ser vi det som problematiskt - och det kan det vara och är tror jag ofta i sammanhang mer dolda rörande hur man får tag i data och vad man gör med det - är det ändå inte helt enkelt att se bra metoder för att begränsa riskerna. Så stora mängder data är redan i vår globala gemensamma kultur i vardagligt språk genom åren. Vanligen sägande ingenting för ingen bryr sig. Men av och till för intressanta personer värda besväret att följa vad de uttryckt genom åren kanske man lär sig saker problematiska för enskilda aktörer att förstå i bredd eller avsmalnat.


Egentligen tvivlar jag på något egentligt samhällsproblem annat än kanske övergående. Viss vaksamhet kanske mot mer problematiska men resursstarka entiteter som söker icke-definierat inflytande är väl dock kanske sunt. Jag vet dock med säkerhet att t.ex. Kina trots alla sina resurser helt saknar något i närheten av att approximera personer för påverkan o.s.v. Och rörande Iran m.m. betvivlar jag det starkt även om jag egentligen vet tämligen lite om något kring deras forskning och satsningar runt data- och kognitiva modeller.


Min bakgrund under så många år i risk management och infomationssäkerhet ger mig dock en i centralitetens märkbara påverkan för de flesta väldigt överdriven preferens för att se oftast ganska esoteriska risker. Mest troligt utan varje verklighet samhällspåverkande eller kanske ens mindre (utanför traditionella domäner i konkreta fakta hittade snarare än att likt sökorden aldrig skrivna men som vi ser från en personlighet vi skattar).

Så byter vi dörr: Att vingla till där vi faller heller än att ligga utslagen

2013-07-28

Förutom snart nog klassiska beviset för Monte Hall problemets tilltalande förklaring av vår verklighet - kanske längre ifrån vad vi spontant gärna vill se också är en del av det mänskliga - med dess utgångspunkt statistiken och sannolikhetsläran roade jag mig med ett mer "abstrakt" än strikt eller noga i härledningar m.m. från informationsteorin (finns från 2010 eller 2011 tror jag):



En tredje väg att förklara närmare intition i en tänkt mång-dimensionell värld är att vi behöver definiera dom dimensioner vi utgår från både för att göra vägen verklig för oss och "världen" (d.v.s. vi definierar verkande dimensioner som vad därmed definierande vägen). P.s.s. innan en population, subkultur, företag eller vad som helst väljer att gå vägen och faktiskt konkret lyckas med den finns den sällan för oss.


Väljer vi nu att definiera om världens dimensioner till att inkludera möjligheten kan vi visst se det tidigt. Mer än så kan vi kanske ibland göra väg farbar för dem. I en större värld vad som inte behöver vara mer än att vi ser vägen och går den liksom många andra.


Har dörr två brunnit upp är det bästa om vi redan tagit oss en titt på den tredje dörren. Och vem vet? Kanske är den vägen bättre än den väg vi redan nästan börjat vandra ned för? Byter vi dörr är det förändring och i människans värld med så kraftfullt fungerande modeller baserade på markov-antaganden vad vi i flock och person tenderar att skatta från världen där vi står. Så om vi rör oss i den mångdimensionella världen av flockar av människor varför skulle vi inte byta? Mer en språklig-visualitet än ett bevis eller ens matematiskt argument men inte utan värde att reflektera över.


Praktiskt konkret verkligt många gånger oftare innebär att vi definierar om världen att vi ser vad vi innan inte såg d.v.s. vi stirrar oss inte blind på den värld som dog.


Jämför gärna med hur många (relativt vad man tycker är vettigt för mentalt sunda personer i övrigt) i Sverige definierat en flock-tillhörighet och fört emotionell kraft och pay-load från det så brett att vi fortfarande tills för ett fåtal år sedan av och till kunde se ganska seriösa försvar av den Nordkoreanska diktaturen.


Med mindre än de får någon form av ekonomiskt ersättning därifrån vilket verkligen är att betvivla är det svårt att se vilken värde det ger personen och om man vågar ifrågasätta det inlärda vad de heller inte han se att utgångspunkten ger någon annan. Möjligen rent av lite skada för ganska många om än försvinnande liten jämfört med det mer konkreta där som att kommentera ut tusentals till att dö i lerjorden krävande med mankraft för att förstöra jorden ytterligare eller värre.


Det finns en kognitiv kostnad att förändra vårt perspektiv. Att flytta kostnad för att ta in den information som ger oss indikationer och hellre läsa och tycka vad vi har lust tills där indikerat är en delvis funktionell väg. I den organiserade gruppen föreligger givetvis sedan av och till en pedagogisk utmaning. I ett demokratiskt system är det senare vad vi inte ska stressa upp oss över som problem. Den större gruppen tenderar om än benägen att hålla kvar perspektiv till att komma mer rätt än det mesta i övrigt om man ger det lite tid (jämför t.ex. 1900-talets utveckling i Europa och Nordamerika med övriga världen).


I kroppen kan det ofta växla approximativt binärt eller vad vi upplever som det (emergence). En upparbetad potential som orkar till att växla fler och fler mer märkbart i kollektivt språk och därigenom om vi så vill utlösande förändringen i övrigt. Att se andra göra eller tycka är väldigt starkt när det är nytt, i relativ ögonblicket innan diskret steg för steg växande, och intensivt är potent.


Ett cyniskt kanske lite pessmimistiskt sätt att uttrycka det på är att vi står där vi faller: . Tills vi går därifrån eller står kvar.

Semantiska nätverk intressant nära mitt underliggande nät

2013-07-17

Neurally Implementable Semantic Networks (Mars 18, 2013) är konceptuellt mycket nära Blue light tidigt och troligt nära unikt så. Förutom grundprinciperna fann jag perspektivet man kort också tog från några principer kända från djurmodeller baserade på zebrafinkorna intressant om än här tyckte jag särskilt bidragande (även om jag tycker att egentligen annat där var mer intressant när jag tittade på det för ett par år sedan).


Vad jag både upplevde irriterade och lugnande är att hela konceptet som uttryckt i artikeln är före praktisk verklighet. Normalt när något kommer nära ett koncept jag har etablerat får jag ut åtminstone något från artikeln när så noggrann och ganska omfattande som denna men ej så här. Det gav viss irritation men är antar jag naturligt för ett av mina äldsta mest grundläggande koncept.


P.s.s. var det lätt lugnande därför segmentet där man troligare kan få ut något ligger i det mer komplexa praktiska. Konceptet är ju så elegant tilltalande i dess grundprincip uteslutande föga samtidigt som det mesta är möjligt. I princip. Svårigheterna - väldigt mycket större - ligger praktiskt i att:


  • Etablera matematik i form av operatorer för att kunna utnyttja nätverken till dra slutsatser.
  • Beräkningseffektivt ta fram den statistik som krävs för att driva operatorerna.
  • Hantera överföringen från relationer i ögonblicket - ex. så precis som i deras exempel för en enskild scen i något tänkt pågående - till etablerad långsiktig inlärning d.v.s. vad jag ser som Blue light relativt inlärningen pågående i Symbol mind (vilken förövrigt fodrar sina operatorer därför att vad vi lär från är verklighet också väsentlig för analys jfr ex. Egypten: Att tala tydligt igen nyligen).

Just den binära principen för förekommande noder anslutna ett koncept etablerande vedertagen inlärning (jfr Blue light) tillsammans med situationen just nu illustrerar den enorma skillnaden mellan idé och verklighet. När en Blue light är etablerad med mycket hög kvalitet i relationer (och där ligger mina koncept beroende på hur en Blue light tagits ut utifrån krav minnesåtkomst o.s.v. inte sällan på ett antal relationer varande flera tusen upp till om jag minns rätt som mest på nuvarande hårt optimerade cirka 24 000 på en av de största). Där är ex. similarity helt oviktat förvånandsvärt funktionellt även om jag normalt inte på flera år gör similarity riktigt på det sättet eller sedan cirka två utan också vikter per noder och staitstik på co-occurences.

Steget att uttrycka Blue light som expanderande och lärande från situationer i ögonblicket är vidare vad man visst gärna vill tro ska gå att göra via enkel förekomst som byggs över tiden. Men åtminstone när vi ser vår värld i ögonblicket som "alla" nyheter på engelska har vi fenomenen kring emergence (kort diskuterat igår i Egypten och Markov: Vi står där vi faller men en hel del längre bak över sista åren finns även omag avpublicerat en del) och hur värderingen av intensitet i ögonblicket hos människor ej direkt översätter till påverkan på befintlig inlärning. Vidare besläktat gäller att vi etablerar enorma kunskapsmängder via skola, universitet, utbildningar av andra slag m.m. som tas för given och ej uttrycks statistiskt jämförbart dess implicita inverkan på koncept och deras relationer som uttryckta i nyheter såväl som ex. fullt corpus av allt Plos givit ut.

Värt att peka på är att jag kompletterat Blue light med ett antal semantiska nät ovanför inkl. nät med konkreta named relations och kategorisystem för att förklara vad ett mindre antal koncept (cirka 300 MB koncept med deras relationer och kategorisering) är i en förenklad mening. Jag ser dessa huvudsakligen som en presentationsfråga där dom underlättar och optimerar när det kommer till att förklara en del relationer tämligen vanliga. Inte minst för att enkelt kunna göra meningsfulla och lätt tolkade grafer (se ex. Sverige-grafen). Vidare har jag en del mer parallella lösningar ex. Visual light som egentligen är ett underrum till Blue light (endast cirka 5 MB stort i koncept och relation utan associationsvärdena) inriktat på visuella relationer ex. scenarier vi kan ha i nyheter för att fylla i resp. förstå. Samt också en väsentligt större som fortlöpande grundtillstånd för spreading activation.

Från Penn State University har vi också via dess cache-funktion av forskningsartiklar praktiskt mycket användbara citeseerx.ist.psu.edu även om jag kunde önska att Google Chrome som default visade dem i webbläsaren hellre än att tvinga nedladdning (troligt något relaterat hur PDF-filerna skapas av Citeseer) och därefter öppna den nedladdade filen i webbläsaren problemfritt (om man inte använder Adobe's fetare applikation istället som egen process) även om jag inte är 100% säker på att det egentligen är tänkt att det ska gå heller i Chrome givet dom tycker jag ganska över-uttryckta varningarna om dessa pdf-filers risker för min dator.

Corpus för hela Citeseerx (inkluderande titel, sammanfattning och referenser men oavsett om tillgängligt eller inte ej brödtext) som cirka tror jag andra kvartalet 2012 eller alternativt fjärde kvartalet 2011 var vad jag prövade som en statistik källa till co-occurance tillsammans med ett större antal liknande. Dess omfång över koncept var emellertid inte större än att det gav föga och givet en del andra problem ej relaterat statistik källan brydde jag mig inte om ta in det datat alls (varande tämligen litet jämfört med hela samlingen använd och parallella metoder) vilket är vad jag tror är en mycket talande indikation om ungefär datamängderna, områdes association (här för området forskning och associerade områden med alla dess koncept), metoder o.s.v. som krävs för att etablera "associations- / närhetsmått" mellan koncept i Blue light eller jämförbart.

Jag tror dock det kunde vara ett spännande och givande projekt för Penn State University att göra något jämförbart på hela verkliga CiteSeerX inkl. deras cach:ade PDF-filer av artiklarna (annars är det föga) hanterande enligt olika varianter gärna artikel-komponenter som undertitlar, bildtext, sammanfattning, titel o.s.v. särskilt men ej i relation till sådan hantering heller utelämna brödtext (ex se avgränsad brödtext mellan en titel och nästa som ett under-händelse-rum eller liknande). Och givetvis publicera data för det också mer raw.

Lycka till med det. Och verkligen att få projekt man kan sysselsätta sig med är så glädjande och utvecklande som att ta fram statistik från feta-corpus. Man både lär sig mycket om sitt område såväl som hela världen. Verkligen vad en två - fem doktorander skulle minnas hela livet som något riktigt kul att ha gjort. Föga av känslor relaterat misstankar om att man torterar sig själv och gör det därför att man egentligen är mentalt eller emotionellt skadad eller akuta drömmar om att datat är levande konspirerar mot dig skärande bort delar av hjärnan finns någon risk för. Bara sund glädje och avslappnad förnöjsamhet. Vi vet ju alla att bigdata är kul och samhällsnyttigt: coolt och utvecklande för ungdomen hålla på med. Hade jag inte så mycket annat roligt att göra skulle jag själv tveklöst spindla ner alla Citeseerx PDF-er och göra det själv. Kanske att belöna mig till jul med om ingen annan tycks ha påbörjat det eller om så ligger i erfaret god fart mer än för erfarenhets-tidiga sådana lösningar ligger närmare sex månader eller längre tiden.

Från ljud, över ord och ngram, till gömda lager och slutligen i kartor

2013-06-09

I Handbook of Graph Drawing and Visualization jag tipsade om kommer detta citat inkl. efterföljande visuellt citat:


"Recently, a completely di erent style for drawing metro maps has attracted considerable attention: the curvilinear style. Roberts et al. [RNL+11] did user studies to compare (hand-drawn) schematized maps to (hand-drawn) maps where the Metro lines are represented by Bezi er curves. Surprisingly, users were up to 50 % faster in completing certain planning tasks with the new and unfamiliar Bezi er maps rather than with schematized maps. Still, being used to schematized maps, they liked them better."

Handbook of Graph Drawing and Visualization,
Kapitel 23, Graph drawing & cartography, Wolf


En anledning till varför de ibland kommer fungera kan vi härleda till samma mekanism som gör markov-modellerna av samband över ord och fler-gram i statistiska språk-parsers effektiva såväl som i tolkning av ljud från tal till ord vidare till meningar (eller tror jag oftare när-grupp av ord).


Eller bättre uttryckt samma orsak som gör att dessa modeller är funktionella genom deras stora möjlighet att styra vilken komplexitet vi vill acceptera och något så när enkelt och funktionellt kunna beräkna hur stor "förlust" i feltolkningar vi gör.


Grundprincipen förstår vi från enklaste fallet när sannolikheten för att ord (i) verkligen betyder exakt det ord som står och när flera tolkningar menignsfulla för oss av vad det betyder den vanligaste skattas endast av sannolikheterna direkt relaterade det ordet och föregående ord-sannolikhet (eller levererad tillståndsvikt): P(ord(i) * P(ord(i-1).


Vi har nu begränsat vårt perspektiv till att anta att endast det föregående ordet ger relevant information om kontext inverkande för hur tolkningen av ord(i) ska göras.


För aktuell sorts karta gäller att transport typiskt sker från en punkt till en annan med en logisk enhet i taget utan att vi däremellan behöver göra något. Bedömande om vi med en linje kan nå rätt punkt eller en punkt kommande in på en annan linje som går vidare till rätt handlar ju just bara om tillståndet vi står på (ex. tunnelbanestation Norrmalmstorg) resp. tillståndet vi ska till (ex. T-centralen eftersom vi har en stukad fot vi inte kan gå på ens sådana små-sträckor).


Allt mellan kan vi strunta i. Och ev. möten på sådana mellan-liggande stationer anknytande andra t-banor eller samma "färg" i annan riktning behöver vi heller inte bry oss i.


För all normal tillämpning av t-bane-kartor och liknande tillför därför ingen information i övrigt normalt värde. Och kartan i exempet tror jag är ett av de mer uppenbara effektiva sätten att klara av att göra detta på utan att behöva förfalla till skriven-text eller tabellernas mindre tidseffektiva språk.


Biologiskt vet vi att aktuella neuroner relaterat rum - spatiella, kartor såväl som kunskapssamband organiserat i nätverk som ju normalt - uttrycks faktiskt spatiellt lite motsvarande lokalisering i aktuellt rum (d.v.s. rum både kopplat i mening spatiell rum och kartor såväl som mycket av den matematiska meningen tillämpat på kunskapsdomäner).


Enklaste snabbaste sättet för dessa neuroner att klara av denna konvergens är när maximal aktivitet går samlat mest "avsmalnat" - och helst med färre neuroner mellan start och slutpunkt även om jag tror att för åtminstone alla visualiseringar av aktuell typ där vi inte behöver vrida på huvudet gör det föga skillnad märkbart - d.v.s. från ett givet tillstånd solklart direkt till nästa utan att behöva bibehålla flera möjliga vägar aktiverade antingen som möjliga färdvägar eller för att ta bort en på kartan störande linje spatiellt nära-liggande vars aktivitet "spiller" över på vad vi följer vägen över.


Givetvis är konceptet också det samma som mer praktiskt konceptuellt underliggande flera av dimensionrna i Abstrakta dimensioner för övergripande större organisation att bedöma informationssäkerhet relativt offensiva och defensiva mål givet större uppgift och såväl varför KSA och liknande algoritmer behöver, konkret vettigt kan ge goda approximationer men också ibland kan hamna ordentligt fel.


också om det nog kan verka lite underligt har för mig heller aldrig någon konceptuell underliggande skillnad varit vad jag upplevt från informationssäkerheten och risk management till som här närmare modeller av människan och vårt språk relaterat agerande och förstå samband över inträffat, här och nu och kommande in i framtiden med vissa sannolikheter. Det är människan och vad vi ser likheter i allmänt handlar mycket om vår kunskapsbakgrund befintlig som ett stort enkelt lite långsammare föränderligt tillstånd och vårt behov. Är vi däremot stämplade i ett segment ex. forskare på lingvistiska enheten vid ett universitet tenderar ju självklart också det tillståndet att uttrycka en gemensam kultur vilket kanske tänkbart är en orsak till varför universiteten relativt deras stora värde för att ge kunskap levererande medarbetare levererar väldigt lite mer direkt nya applikationer,, verktyg m.m. problemlösande på nya sätt. Likhet är ju väldigt styrt den givna subkulturen för ämnesområdet snarare än att man ex. som jag ofta gjort senaste åren sökande flera områden som troligt vid universiteten upplever varandra väldigt olika för att lösa ett problem (och uttrycka ett modell-område mer vertikalt äldre mer inarbetade forskningssegment där similarity initialt handlar mycket om att försöka se hur det kan optimera eller ibland förklara hur något kan mätas, beräknas eller förstås. Tidigt för ett helt nytt sådant område behöver likheten ofta vara ganska konkret därför att man är ej helt optimerad rörande termer, hur man visualiserar, och grundkoncept som antas givna hos läsaren. När sådant är etablerat kan man lättare söka likhet i mer abstrakta funktioner. D.v.s. för att se ny användning av subkulturell kunskap är det viktigt att titta på den från ett praktiskt annorlunda område där kunskapen både troligare saknas och ej från subkulturen upptäckts.


Sådan analys motsvarande den kreativa processen rörande identifikation av likhet och en indikation om möjligt är förövrigt möjligt att implementera analys av maskinellt ex. tidigast för mig i logik-analys relaterat min större representativ av kunskaps-koncept och deras relationer (ca 100 000 till 10 000 000 koncept beroende på hur db-filen kompilerats ut relativt prestanda med från för minsta cirka om jag minns rätt 7 miljoner relationer med dem med för optimering färdigberäknade likheter för alla där givna relationer såväl som för en försvarlig andel av alla relationer mellan koncept också sannolikheten P ( koncept a givet koncept b) direkt för resp. fler-gram utan förenklade skattningar via sannolikheterna för endast orden - och jag tror starkt att en sådan samling sannolikheter är vi kanske 10 - 30 aktörer i världen som har).


Den sorts gedigna värde man kan realisera ut för väldigt mycket och utan att det annat än väldigt långsamt försämras över tiden givet riktade uppdateringar av och till (vilket praktiskt på alla sätt är enormt enklare och dessbättre krävande föga om något av de åtminstone i artighet av och till mindre korrekta operationer som krävdes av och till). Också en praktiskt predikterande kortare tid oerhört lugnande stabil bakgrund att relatera relativa förändringar i intensitet ex. mellan dagar till utan att tvingas försöka dubbel-använda sådant data från förvisso längre periodeer som en månad eller ett par år ex. för nyheter (som jag gjorde innan) men ändå både är mindre beräkningseffektivt och är vad som rekursivt i sig vinner på det datat bakom sig med en inte alls trivial skillnad i kvalitet. Dessutom utan att man behöver ödsla tid, bandbredd, och cpu på att extrahera ut relationer och koncept egentligen i sig ej indikerade som viktiga eller intressanta därför man inte gärna önskar läcka kunskaps-koncepten och deras relationer utan en så försvarlig mängd komplexitet att det praktiskt är ogörligt att härleda den ex. genom att tappa kommunikationen ut från informations-extraherande-dator när den pratar ut med annat på nätet. Totalt vad som tog ungefär 2 år att skapa även om det inte var görligt att ha det gående förtlöpande utan typiskt fyra veckor i taget.


Ett arbete som dessutom mycket konkret tycks ha förändrat hur stora delar av internet hanterar tolkning av sub-domäner i kontext av en del informations-presenterande och indexerande konsumenttjänster (vilka i bred mening stod för ungefär 10% av skarpa relationer för annars mer svårskattade genom ex. news-sampling, böcker o.s.v.). Och jag kan lugna alla läsare med att jag med min sunda cyniska personlighet utgick långt innan i tid med att en viss funktion skulle behövas redan väldigt tidigt men som ej krävdes innan i tredje varvet från slutet faktiskt nödvändig och den funktionen för att hantera att entiteter mitt system små-pratar lite med för att förstå världen börjar ljuga för den om vad de egentligen vet eller tror. Och de få det realiserades ljug dessutom anmärkningsvärt dåligt mot vad jag med min pessimistiska risk management personlighet hade räknat med (min tidiga nivå låg ungefär på att det kanske inte alls skulle vara möjligt att ta till mer än kanske 5% - antagligen redan där bland de 1000 största i världen men berörande givetvis kompletterande alla publikt tillgängliga eller vad som kan tas från enkla att nå corpus - men väldigt få problem.


Jag ska dock inte helt utesluta också om jag inte försökt bedöma det att saker kanske passerade lite mer dedikerat förbi relaterat en del aktörer därför att man kanske såg visst gemensamt värde i en annan grupp jag av och till sista åren levererat smalare anpassningar till för att möjliggöra en del mer modern text-mining-analysis för demokrati-arbete. Lugnare dock egentligen om ej så därför att dom relationerna hör till sådant jag mycket ogärna vill acceptera förtroende för att andra inte läcker. I kontext av bredare analyser nättrafik, samarbeten mellan flera större aktörer med varandra och med kompetens-stöd från regerings-relaterat och liknande.


Nå sammanförandet av de nya moduler jag utvecklat sista halvåret som ligger mycket närmare enklare att produktifiera inkluderande parsning av mening från enskild mening upp till nyhet, och en visualiserings-plattform, förutom de mer grundläggande koncepten rörande attityder, relationer, likhet m.m. mellan 10 miljoners koncept-hjärnans alla dimensioner över och mellan dessa. Att toppa min nöjdhet med att indikera ett kraftfullt värde men ändå utanför något egentligen core-värde relaterat egna koncept och modell-anpassningar i implementation (sannolikheter är ju tämligen allmänt tillämpat sedan närmare koncepten här diskuterat redan med kanske första steget under 1600-talet av Bayes9.

Är Josef Stalin en hjälte?

2013-05-26

En tror jag tydligare illustration av de två synsätten i Medvetande om situationen i part-of-whole är svaret på frågan om Josef Stalin är en hjälte.


Är jag intresserad av att definiera världen - ex. sökande ett svar på frågan själv - ligger i grunden ett perspektiv på vad en hjälte är, vem vi avser med Stalin, vad jag tror han gjort och vad det innebär för min åsikt om han är en hjälte.


Det intresserade oss inte alls i föregående diskussion. Vad som intresserar oss är:


  • Situationen som avses d.v.s. inte någon sammanfattning av en person som given sanning.
  • Ej ett givet perspektiv med en åsikt från systemet som default. Eftersom vi söker vad som sker egentligen och vad som kommer att ske är vi mer intresserade av hur entitet vi tittar på tänker krig frågan.

Sådant kan ju dessutom förändras. Möjligen tyckte Leon Trotsky vid något tillfälle att Stalin var en hjälte men vi spekulerar att han i andra situationer inte upplevde det utan kanske mer såg honom som en förrädare till världs-revolutionen.


Vidare gäller att om frågan alls ska finnas att hantera måste information där den blivit aktuell finnas. Där gäller ju mer än rollen vem som tillskriver personen rollen. Det i sig är givetvis en indikation om perspektiv och målsättning oavsett i vilken utsträckning vad som framställs i sig är viktigt, engagerat eller känns riktigt för avsändaren eller informations-skapare. I propaganda-framställningen nedan har vi ett exempel tydligare polariserar i en riktning här (men även entiteter som söker ett mer objektivt perspektiv färgas givetvis alltid i viss utsträckning av allmän kulturell grund och vi kan se skillnad i uttryckta attityder för symbol-koncept redan av och till ganska tydligt när vi vandrat från USA till UK, och inte sällan lika tydligt och i en del frågor ännu tydligare mellan New York York och Kalifornien även om de mer globala publicisterna ex. New York Times tenderar att vara lite mer medelvärdesbildade och p.s.s. oavsett publicist skribentens ursprung, kulturella hemvist, och åtminstone visst i mer filosofiska grundsynsätt o.s.v.).


Medvetande om situationen i part-of-whole

2013-05-25

Ett excellent område att betrakta praktiskt är krigföring: stor budget, och vanligen väldigt intresserade av vad som sker just nu resp. vad som kan komma att hända.


Vi kan - och korrekt så - argumentera att stor förståelse för vad vi exakt avser är viktigt. När vi är nära det praktiskt implementerande. Vi vill t.ex. ogärna att vårt spionplan spårande fienden istället börjar förfölja vilda djur den får syn på därför att en lantbrukare den hörde prata kallade älgarna för terrorister efter att de åt upp hans tulpaner.


I det kreativa och resonerande är dock samma sak på andra sätt begränsande. Vi avgränsar världsbilden möjlig. Part-of-whole som koncept har jag haft svårt för från det perspektivet genom att det fodrar att vi definierar ett perspektiv för vad som hör till vad. Jag reflekterande det närmare såg dock då ingen bra definition av vad jag upplevde problematiskt i den mening att ett alternativt synsätt presenterande sig direkt.


Följande definition i kontext av agerande roller i språkanalys tyckte jag uttryckte hur man i det kreativa mer rörliga parallellt mer entydiga interna representationer - om alls (människor tvivlar jag just på är entydiga över längre tid om ej repeterat konvergerat en mening: snarare att det entydiga är just situationsberoende) - kan se på del av en helhet:


Ofta både mycket tydligt - praktiskt ibland för tydligt - definierat och ändå konceptuellt otydligt.

Här säger vi stället att delen A är "del" av B om inverkan på A påverkar B's potentiella agentativa egenskaper och/eller inverkar på sannolikheten att B agerar agent.

Ex. avlägsna armen av mig inverkar här akut resp. troligt permanent i viss utsträckning. Invaderande land p.s.s. Att gå in i område med risk för rån lika så introducerande mål för det.

"Helheten" är centrum för perspektivet vi tar. Den entitet vars handlande vi vill prediktera.

Tänker vi oss nu vårt spionplan igen är vingen en mycket sannolik del. Skjuter vi sönder den har vi mycket trovärdig förändring av dess agentativa egenskaper: det störtar. Vet vi av erfarenhet att dess övergripande människor blir nyfikna om vi skjuter raketer i område Q där de förvarar kärnvapen är området i det agerande del av helheten spionplanet är med sannolikheten för att dess agentativa, förändrande agerande, påverkas.


Ytligt kan det tyckas underligt när vi jämför vingen med raketen. Men jag menar att det känns underligt därför att default-perspektivet är det direkt visuella som synonymt med handlande. Vi är vana att handlandes fokus konvergerar för vad vi ser.



Från: Att besegra Tyskland: Kunskapsdriven militär-innovation (2012-12-30)

Likartat kan vi definiera vad något är. Det är centrum för dess delar. När det i tidpunkt N agerar och gör det i en tänkt sannolikhetsfördelning och vi i den domän vi analyserar från mäter får vi dess mening som centrum för den utgångspunkt vi skattar.


Den definitionen är samma sak som att i domän skriftligt språk säga att centrum för hur vi refererar den är den troligaste mest självklarta symbolen: typiskt ett ngram bestående av ett eller flera ord med bokstäver.


När vi refererar något internt "entydigt" (antaget jfr den verklighet vi säger är självklar rörande vår tolkning av den och projektion till den interna representationen) gör vi samma sak. Vi inför en given självklar mitt för att inte i onödan hamna i problemet (när vi är rationella: väldigt ofta kan den intresserade märka att dessa representationer vanligen införs för att sedan söka få världen att förändra sig - i pengar mätbart noteras det vanligen i samband med datainteraktion över olika system).


Från detta återvändande till slagfältet kan vi se två domäner. Att när vi representerar vad vi redan satt fokus på förstå vad vi refererar mellan samtalande. Resp. predikterande och tolkande inte inducera eller antaga att världen följer våra antaganden.


Praktiskt exempel på försök att nå det mer entydiga över system vi refererar och också inkluderande i den senare versionen ett tänk kring situation awareness finns i universal core (särskilt senare SL):



Dels tycker jag lagom begränsat i omfattning och ambition samtidigt är känslan efter att tittat över vad publicerat att man ändå haft stort fokus själva standardiseringen snarare än att börjat från direkta praktiska behov med fall där. Om så lätt standard-farligt då standarders förmåga att klara metamorfors till verklighet är att de används: där löser man problemet d.v.s. avgör om standarden är verktyg i verkligheten eller försök att förändra verkligheten till något ej värt kostnaden för det.


Surfande Universal Core är också ett fascinerande möte i trasig SSL: ej fungerande klient-certifiering, ej korrekta server-certifikat, implicita ldap-kopplingar, indexering i sökmotor av sidor som kräver klient-inloggning m.m. Dessbättre för entiteter vars interaktion med delar av den militära helheten ej fungerar riktigt som tänkt är nu säkerhetsproblem i SSL lätt fascinerande bland de minsta säkerhetsproblem man kan ha. Angripare tycks genomgående helt ointresserad av det.

Genererande prestigelöshet blir dimma: CIA i Ryssland

2013-05-15

Relativa skillnader för oss själva och när det gäller andra just sådana vi kan leva oss in och förstå fäster vi gärna betydelse vid. Handlar det nu om genererande och värde-reducerande bekännelser vi kan tänka oss kommer med motstånd bär det också trovärdighet. Och reducerar det dessutom ex. associerad manlighet av betydelse för annan bedömning kan det kanske styra lite varaktigt också.


En konsekvens vi kan uppleva oss se i media relaterat kändisar är den reducerande på sätt vis i kollektivt språk kanske förhandlade (eller rent av konkret med journalist: det här är vi mer osäkra om men...).


Nu är människan inte dum och det behöver inte betyda mer än rationellt tänkande. Vi kan ändå roa oss med ett alternativt scenario till det i media återrapporterade från myndigheter i Ryssland rörande en ambassad-anställd tagen i förvar för att ha försökt rekrytera ryska medborgare till kreativt informationsutbyte (mot pengar på helt andra nivåer än jag vågade värdera mig själv till i Kan jag få saker av Kina? Jag vill ha Eurowordnet och en Kungspudel: massor av kungspudlar och Eurowordnet-licenser).


USA beslutade sig för att bjuda över Kina
Kan jag få saker av Kina? Jag vill ha Eurowordnet och en Kungspudel

Om nu attiraljerna - peruk, pengar m.m. - var verkliga och något fanns att dölja varför inte bekänna:


  • Cross-dresser i panisk-moralisk-kognitiv-dissonans relativ kyrkan som ju hela världen vet att amerikanen tror starkt på.
  • Och svarta pengar intjänade på hantverksarbete på ambassaden (fördel ej gränsöverskridande om verktygen fanns på plats) sparade för könsbyte.

En markering på kartan för lämplig läkare hade dock kanske adderat till trovärdigheten.


Ett potent tips som gav fin möjlighet att illustrera den goda humorn uppmuntrande till ett sparsam tänkande och uppmärksam hörsamhet på leveransvariablerna.


Washingtonpost indikerar hur som de upplever att något inte känns riktigt rätt (och de är ju efter Watergate - och beslagen av amerikanska staten för några år sedan av information - den stora kännaren på allt sådant här). Dåligt skrivet e-post och peruk fick dem att ana ugglor i mossen. Vi har dock ett till alternativ de inte fick med på sin lista (minst): Att det inte är CIA men likväl jämförbart. Kanske rent av både CIA men ändå inte CIA. Om så börjar det kännas smått intressant på vilket sätt mer exakt Ryssland noteradepersonen (om inte bara DEA utlånad till något forskande kring deras intressen: sprit, droger och gevär).



Man ska nog inte ge sig på att gissa längden när han är sittande på fotot. Men han tycks nog under vad jag varande någon centimeter under 2 m upplever medellängd. Möjligen inte helt irrelevant då viss preferens mot ej längre för sådana som smyger runt på gator tycks finnas. Givetvis är värdet en ren myt: Imperativ längd är alltid kraftfullt värde och kring sådant här kan du ju promenera skuggande fiender trötta med dina långa-ben. Dessutom ser du omvärlden lättare med god översikt med naturlig förmåga sedan barnsben att kunna förflytta tankarna mellan konkret och abstrakt. Och att uppleva att prototypiska smygare att identifiera på längd och "vanligt" ansikte pekar på det större värdet i kunglig-höjd.


Axlar kanske indikerar att han inte har reducerade nivåer av dopamin m.fl. signalsubstanser. Kan tänkas vara en ledtråd om att det inte är narkotika-smuggling egentligen (jfr kokain-abstinens eller vilka droger ev. aktuella Ryssland för smuggling och/eller missbruk bland ambassad-personal).

Skrämmande: Nedsövda apungar, annorlunda ap-huvuden och ovanlig klädsel

Jag träffade på referensen till Hebb's studier av apornas reaktioner på vad som inte riktigt stämmer. -Ett koncept bredare mediterat i:



Liksom en bärande dimension i den bondkomik jag projekterar dels för att balansera komikens drogeffekt avtränande och kanske också visa min folkligare sida med sådan här enklare bondkomik (en god grund till en politisk-karriär kanske?) i:



Bläddrande och funderande rörande frames i kontext av parsning och inkongruens hittade jag Hebb-forskningen och citerar:


"Later Hebb (1946) found that even intense panic reaction could be induced in laboratory-reared chimpanzees by showing them the sculptured head of a chimp, where the expected remainder of the body was absent, or by showing them an anaesthetized infant chimpanzee, where the customary postures and motions were absent.

Near panic could be induced in young chimpanzees by having the familiar experimenter appear in a Halloween mask or even in the coat of the familiar 'keeper' or visa versa [...]."

Motivation and Social interaction, Cognitive Determinants,
Editerad av O.J. Harvey,

Utgiven 1963 men fortfarande en idag excellent översikt av inkongruens-teorin såväl som kognitiv-dissonans. Inga av dessa koncept blev den övergripande verktygs-förklaringen man längre bak trodde men praktiskt är det idag nästan intressantare koncept att mindre försöka förklara allt se som konceptuella byggstenar vi kan pröva att tillämpa i nya situationer i den värld av mer information, fler kanaler och allt tydligt mer varierade händelser såväl som språk. Kanske vad vi kan jämföra med Students t-test?

Vi kan våga oss på en intressantare applikation i kulturernas möten. Nr vi som vuxna bygger och skapar representation av scenen vi betraktar eller händelsen vi deltar i aktiveras koncepten inte uteslutande i arbetsminne utan förstärker andra mer permanenta representation och förhållanden till koncept och plats.


Det samma gäller nu också språket vi uttalar och språket vi läser och hör. När större kulturell-distans råder sker därför en annorlunda aktivering även för andra närbesläktade koncept ex. kanske också mötande i plats eller vad vi gjorde före eller ska göra efter samtalet.


Är likhet i klädsel, kropp och tal nära det genomsnitt vi vanligen möter finns givetvis god bredd innan vi reagerar på det annorlunda - åtminstone om nu inga för oss nya eller underliga koncept används. Emellertid när nu själva ordningen på saker och ting blir lite eller i delar förskjutna märker vi det lättare. Ex. rörande vad vi och vår samtalspartner anser bör vara logiskt nästa aktion-event utifrån information.


  • "Jag tycker du ska besöka din pastor och prata igenom din livssituation."
  • Du vi har varit kompisar länge så vill du kan vi åka tillsammans någon kväll och futta eld på hans garage.

Är två förslag de flesta svenskar skulle finna lite anmärkningsvärda. I andra kulturer och tidpunkter däremot ganska normala. De isländska sagorna ger oss ett exempel på futta eld problemlösningen (och kanske att kvinnornas pådrivande attityd törstande efter blodet kan förstås av aktivering av deras kraftiga mycket obehagliga minnen av att inte helt sällan kidnappats ex. på Irland).


Vi har händelsernas representation mellan koncept och idéer som stämmer i de flesta detaljer men ändå känns totalt fel. "Vem är min pastor? Är det den stora kryko-domen eller den lilla lokala man besöker för de? Om bara munk eller nunna finns plats är det samma sak? Ska jag fasta och slå mig med något innan? Är det vi eller papisterna som måste bekänna synder eller kan jag tillrätta-lägga händelserna lite jämfört med här och nu?"


D.v.s. vi kan se att sannolikheter i co-occurance har betydelse och helt säkert förklarande effektviiteten hos Bayes sats rörande mycket relaterat vår kognition och ntur såväl som imaging av hjärnan och emulering beteenden (jag skulle inte helt förvånas om jag kan ha en av de största P(A|B) databaserna där A och B är koncept av 1 till fem ord).


Det i sig räcker inte för att förklara allt. Världens såväl som språkets kreativitet ger oss fascinerande kombinationer där samband och avstånd inte bara genom det befintliga topologiska kan avgöras genom graf-vandrande. Här vill jag föreslå att vi kan komma väldigt nära hur det fungerar genom att tänka till hur aporna reagerade och på vad, och hur vi reagerar på ovanlig klädsel. Similarity och givet mängden inlärning i relationer mellan neuroner funktionellt i flexibla representationer om inte just similarity avseende något speciellt krävs (i vilket fall det beroende på avstånd från ett eller båda koncepten snabbt blir mega-dator behövande).


Likhet och olikhet i vad som i sig inte behöver vara praktiskt relevant situationen (att en afrikansk klädsel ej vanligen ses ger uppmärksamhet medan en kostym lika ovanlig men mer lik kostymer vi sett inte ens är vad vi märker). Ofta känns det tydligaste som vad vi minns mest. Kanske den afrikanska hatten och att klädseln var vit. Varken eller är dock särskilt ovanligt i klädsel. Detaljförståelse av vad vi reagerade på kan vi dock inte förvänta oss från det similarity-styrda.


Men hur är det nu med dom här cyklarna:



Koncepten är fel. Emellertid är också de relativa positionerna för koncepten fel. För cykeln har vi olika i båda egenskaperna.


Exemplet nedan från forskningsstudie diskuterad i kapitel Trust and stable actions (samma bok redan refererad).

- I had a flat tire.

- What do you mean you had a flat tire?

She appeared momentarily stunned. Then she answered in a hostile way: "What do you mean?"

Informationen är given. Antagligen tolkar vi frågan som att det söks omständigheter på ett positivt medmänskligt sätt (kanske oftare med lite känslouttryck för det innan) eller att något är fel med informationen vi givet. Förflyttande oss och talande uppvisar människan det proto-agentativa d.v.s. vi rattar händelsen. Något fel med oss om nu inte informationen i sig är felaktig. Och uttryck relativ makt projiserande potentiellt en negativ stereotyp mot kvinnliga bilkörare - en tolkning säkert lättare upphetsad över punkteringen - är ilsken reaktion inte otrolig.


Förklaringsmodellen med inkongruens-teorin ligger närmare inte mer än Hebbs apor. Kvinnan förväntar sig att åhöraren förstår situationen och kan leva sig in i den. Det faller och saker stämmer inte. I steget från det i de kulturella avståndet vi tillämpade och såg kan inkludera bl.a. inkongruens-teorin kan vi jämföra med när det verkligen saknas förståelse av hur saker passar in i situationen eller lösningen. "En präst? Tar man med ett smådjur till honom som när vi offrar till Gudinnan eller passar en pilsner bättre?"


Motivation and Social interaction, Cognitive Determinants,
Editerad av O.J. Harvey,
Utgiven 1963


Kongruens-teorin sammanfattad när teorin stod på topp. Troligt viss utmaning att få tag i. Informationen nedan kan säkert vara till hjälp för enskilda kapitel (även om jag inte kontrollerat men det är ju inte vanligt när böckerna är svåra att få tag på att de ex. dyker upp hos universiteten. Möjligen kan materialet kanske också hittas via Dtic.mil eller fås från dom eller University of Colorado.


Symposium finansierat av "Group Psychology Branch of the Office of Naval Research under Contract Nonr 1147(07) with the University of Colorado".


Alan B Andersson, Yale University,

William Bevan, Kansas State University,

Harold Garfinkel, University of California,

O.J. Harvey, University of Colorado,

J. McV. Hunt, University of Illinois,

John Lanzetta, University of Delaware,

Omar K. Moore, Yale University,

Harold M. Schroder, Princeton University,

William A Scott, University of California.

Strategiskt paradigm: Slagfältet fienden inte känner till

2013-05-06

Hur kan vi hantera en fiende som har en abnorm mängd resurser tillgängligt? Ingenting egentligt nytt från generella taktiska och strategiska principer torde vara nödvändigt för den teoretiska möjligheten att segra men vi kan se att följa paradigm kan ha värde:


  • Möjligheten för att fienden ska kunna försvara sig är att denne vet om att vi angriper.
  • Också om denne tror eller rent av anser sig veta att vi angriper denne gäller detta paradigm om denne inte kan bestämma "var / hur / när" vi angriper.
  • Där vi säger att denna vetskap bestäms av att denne inte heller i efterhand inom ett givet tids- eller energikostnads-fönster kan bestämma punkten för angreppet.

Värdet av paradigm ligger mindre före eller under Kalla krigets tidsålders (åtminstone fram till President Reagans idé om "Stjärnornas krig" vilket jag emellertid räknar till paradigm Riktad information d.v.s. förändra föreställning om världen genom att tala oavsett om helt korrekt eller helt inkorrekt information) vapen utveckling och mer idag genom att:


  • Att ytan resp. entitet uppvisar som går att nå är större och mer tekniskt och kognitivt och emotionellt varierad än någonsin tidigare (ex. inkluderande ett större antal operativsystem och hårdvaruplattformar att nå resp. ett större antal människor att ex. tala med emedan t.ex. Östtyskland hade goda förutsättningar att söka isolera medborgarna från omvärlden jämfört med ex. Kina och tror jag också Nordkorea).
  • Innovativ eller bara kompetens-utveckling för att hantera ett angrepp kan vara en enkel eller relativt görlig uppgift för vår tänkta fiende under förutsättning att angreppet kan detekteras och att dess existens som typ är känd.
  • Medan att detektion av ett eller flera sådan okända angrepp kan vara görlig behöver det inte indikera att resp. angrepp kan hanteras.

Ett tror jag genomgående mer realistiskt syn är att inte betrakta mot-medel som binärt utan att detektion av angrepp utan typbestämning snarare gör sämre mot-medel möjliga än när angreppen i sig är typbestämda och motmedel kan optimeras. Antag ex. att vi applicerar riktad information där angreppet detekteras per större befolkningsgrupp emedan där den specifika access-punkten i form av mer enhetlig under-grupp av människor inom denna grupp vilka bedöms föra informationen bättre vidare (jfr hur t.ex. svenska myndigheter ibland resonerar om information i skolan där barnen antas lära upp sina föräldrar om kost, sopsortering m.m.).


Vidare i möjligt värde för praktiskt hanterande kan vi också se att riktad information, fog m.m. kan tillämpas tillsammans med urvalet av antaget för fienden okända slagfält för att öka kostnaden / mängden energi för att detektera ett slagfält. D.v.s. kan vi små-prata lite med fienden av och till kanske vi kan övertyga honom om att de intressanta slagfälten förutom det korrekta (för att på bedömd nivå skänka informationskanalen trovärdighet och därigenom träna honom till att faktiskt gå igenom alla indikerade slagfält hellre än att tänka själv till en mätbar energikostnad för denne) finns 500 andra intressanta. Alla fordrande kanske 1 - 5 man-timmar under ett kvartal eller så.


Det tycks som vårt paradigm när sam-hanterat med riktad information också är vad vi kan betrakta strävande efter olika grundläggande kognitiva baspunkter hos deras motsvarighet för en individ avseende hur den investerade kognitiva-aktiviteten får verka (d.v.s. målsättning eller antaget perfekt fungerande):


  • Inlärning. Motsvarande som indikerat i ex. träna denne (mest proto-typiskt reinforced learning) till att förstå världen på ett sätt vi ser som mer optimalt genom det sätt han bedömer vilken aktivitet för att söka slagfältet som är effektiv.
  • Paranoia. Inducera en känsla av att tycka sig se samband men hela tiden där det heller aldrig blir tydligt återanvändbart i möster och mening. D.v.s. i de korrekta slagfältet se till att similarity finns där den i resp. "under-rum" ex. avseende sista serien med föregående serie tycks meningsfull men där det återanvänds ej är fungerande samtidigt som det trots detta uttrycks similarity med detta underrum.

Värdet för de flesta läsare ligger gissningsvis inte i att påverka olika grupper av människor (det ska dock inses att en ordentlig andel av de lässre jag har tenderar att ha en marketing motivation oavsett försäljning eller hög motivation kring någon idé om världen de tycker är viktigt att förklara för oss andra vilka vi kanske kan se som direkt subjekt till paradigmet även om jag aldrig upplevt dessa grupper som att ligga där det primära värdet kontra en motsatt grupp ligger där detta paradigm skulle tillföra värde) tror jag att konceptet som tanke-experiment kan ha värde för att ge ett alternativt perspektiv på hur drivande strategi relativt riktad information kan ske systematiserat över tiden mer genomtänkt och långsiktigt än jag tror vi vanligen vill se oavsett om detta paradigm är verkande eller om vi ser det som att olika aktörer kan själv-organisera till att uttrycka detta paradigm tillsammans utan medvetenhet om det.

Krigets energieffektivitet: Vapeninnovationens hastighet relativt fiende och vårt försvars- och politiska-systems förmåga att tillämpa vapnen vi skapar

2013-05-02

Vi noterar att kapprustning mot det ontologiska vapensystemet först anpassat det tyska-hotet pågår:


  • Tactic of Military Knowledge Interconnection Based on Semantic
  • JOURNAL OF SOFTWARE, VOL. 8, NO. 4, APRIL 2013, Liquan Han College of Computer Science and Technology, Jilin University, College of Computer Science and Engineering, Changchun University of Technology ChangChun, Shufen Liu and Zhengxuan Wang College of Computer Science and Technology, Jilin University ChangChun, China

Konceptuell ritning av mitt vapensystem tidigare publicerat i Att besegra Tyskland: Kunskapsdriven militär-innovation (2012-12-30) och kommer igen nedan...



Lämnar vi det komiska och tar mitt komiska weapon of ridicule som utgångspunkt till diskussion information warfare kan vi i skämtet både se både skölden och svärdet.

Och vi vet ju att sanningen i citatet nedan är riktigt i dess fulla konsekvens:


“There is no teacher but the enemy.
No one but the enemy will tell you what the enemy is going to do.
No one but the enemy will ever teach you how to destroy and conquer. Only the enemy shows you where you are weak. Only the enemy tells you where he is strong.
Mazer Rackham"

Från: Ender's gane,
Orson Scott Card

Men som vi kan lära av President Reagan och hans vision om visualiseringen och marknadsföringens kraft att skapa värde från fantasins rymdvapen utan att faktisk krig krävs och med låga kostnader och få riktiga vapen ovan mark mer än stridsplan gäller att det också är viktigt att förstå vad fienden lär dig. Annars tränas du likt Sovjetunionen att dra väldigt fel slutsatser om världen. Det är möjligt att diktaturer alltid kommer tendera att förlora mer i det. Motivationen att söka se är hög från medvetenhet att statsformen i sin natur är ytterst volativ oavsett om förändring går till ny diktatur eller närmare demokrati.


Det skapar lätt en process med ständigt fler medarbetare som processar och söker tolka information. Kina och Östtyskland är välkända exempel. Informationsanalys oavsett grad av dator resp. människostöd skalar emellertid inte linjärt utan kommer liksom allt organisatoriskt hanterat samt i informationsanalysens och språkets natur med en exponentiell kostnad. Ovanpå det gäller att diktaturens lösningar inte sällan blir onödigt ineffektiva därför att intern-maktdynamik har större betydelse och att kritisera din politiska-polis ledare för ineffektivitet kan vara problematiskt: vem vet vad han har för information om dig?


Dagens verklighet i och med internet erbjuder ju dessutom att lägga rena analyskostnader genom att generera analysträffar som måste följas upp av medarbetare inom censuren. Det är denial of service i form av en kostnad i mantimmar beräkningsbar och också analysbar när leveransförmågan reduceras märkbart. Hur lång tid innan reaktion i genomsnitt per miljoner informationsstycken per 12 timmar (eller var nu den rimliga brytpunkten börjar bli absolut: normalsering både mot algoritmiska lösningar i mjukvara mer än bara personer påverkar ju där ju bättre denna är desto närmare intelligent generering närmast deltagande i världens nyhetshändelser, aktualiteter m.m. i naturligt språk fodras: mänskliga med varierad personlig och språk: jämför ex. med koncept likt Drifting thoughts även om det konceptuellt - inte minst inkluderande mer implementerat än konfigurerat aktivt resp. övrig teoretisk modell över och ännu utanför praktisk modell är over-kill mot behovsnivån idag och överskådlig tid framåt men givet kan vi se oändligt med liknande applikationer).


Cold blooded Warrior chilled by blue ice,
While joking forging new,
    to ease hunger to keep outer layer - the wall of fog
, Weapons

Vad kan vi beordra?

2013-05-01

Varande en välkänd maktmäklare och inflytelserik gömt maktblock (ofta när en osynlighet hand kan upplevas utan att den går att se är det jag som tagit mig en promenad ut i skogen och offrat till Gudinnan för att förändra) reflekterade jag rörande engelskans order där vi har åtminstone två meningar:


  • Hans beordrar något realisera hans vilja.
  • Hans beställer en bok från ett dot-com buiness to consumer venture.

Vi kan se att begreppen är besläktade i att i båda fallen förväntar jag mig att någon ska göra något.


I det första fallet är det kanske inte intressant att fundera över vad vi egentligen kan beordra att göra saker. Det tycks när jag funderar över det att allt som klarar att fullfölja en uttalad önskan går att beordra: personer, företag, hundar, datorer m.m.


Ett träd går däremot inte bra att beordra. Inte heller kan vi beordra Orkanen Gudrun om hon är ett väderfenomen. Det senare kallar jag _HUMANOID men inte _ANIMATE d.v.s. något ej levande vi läser in mänskliga drag i (vi kallar det tillsammans här för humanoid fortsatt). Det gemensamma för dessa är att de kan agera uppfattat agentativt d.v.s. de tycks förändra världen på ett sätt vi inte enkelt kan referera till vad vi är van med att icke-levande gör.


I perception ser vi ibland tillfälligt också mänskliga drag men inte i annat än fiktion är det regelmässigt vanligt kollektivt språk eller privat språk (där vi återvänder till ett undantag mycket tvärtom rörande bilar man ev. kan relatera till ett samband runt relativ makt).


I fiktion oavsett tecknade filmer eller som nedan propagande från Vietnamkriget kan humanoid också när föremålen som sådana agera tillsynes agentativt (ibland pratar dom också). Det ligger i det givna att beteendet som sådant avviker från förväntad vardag och vanligast mycket tydligt. Det var ex. relativt vanligare med föremål som såg helt normala ut men uttryckta agentativt beteende i övrigt när tekniska lösningar för pratande och resonerande maskiner var mindre vanligt.



Utanför det fiktiva tycks vi dock inte kunna beordra humanoid. Undantaget existerande är vanan åtminstone existerande att referera till ex. bilar med personligt namn. Här särskiljer vi oss dock från ex. väderfenomenen i att dessa redan är verktyg vi kan beordra runt. För mig som kund till en nätbokhandel gäller ju dessutom att jag helst vill se just att det är ett perfekt fungerande verktyg. Vill jag socialisera med personalen besöker jag istället en fysisk bokhandel alt. för affärsrelationer försöker boka ett möte med dem.


Därmed gäller nu att vi kan beordra en grupp av människor att göra eller inte göra saker men där det är möjligt i språk att de uttrycks endast med sin konvergerade symbolmening ex. Amazon.


En perfekt skillnad för detta väsentlig ser jag därför inte. I den mån intressant för textanalys tycks det väsentliga ligga analys ej särskilt beroende som det uttryckta avståndet till ev. personer genomförande saker. Ju mindre de märks relativt den konvergerade symbolen ju mer verktygsbetonat är dom.


Den skillnad vi istället får i praktiskt språk är att när jag beställer en bok är fokus på det viktigare just att jag får en bok. Den läggs därför naturligt närmare verb:et medan vad jag beordrade att leverera en bok i den mån det alls är viktigt läggs längre ifrån verbet.


Vi kan se verb:ets betydelse för att beställa en bok som att konvergera till boken som resultat där denna konvergens kan sättas in i en dimensionspåverkande rymd med ex. from. Bokbeställning sker rummet Amazon där vad vi vet kan aktiveras för att påverka. Jag kan p.s.s. beställa boken i Sverige, ovan mark, under gårdagen m.m. som positionerar beställningen i ett rum som inte nödvändigtvis behöver vara spatiellt.


Ännu är emellertid gränsdragningen inte perfekt utan styrs fortfarande av de två poolerna. I sammanhang där människor vi direkt ser beter sig som vi kan förvänta verktygsmässigt är det fullt naturligt att beordra en bok (för den mindre van vid det känns troligt beordra fram en bok mer naturligt: delvis en fråga om energieffektivitet i språket där vi "komprimerar" det vanligare). Det är därför inte positioneringen i sig utan hur vi tolkar och heller inte hur vi tolkar och förstår argumentet utan snarare hur perspektivet från den som genomförde eller uttalade händelsen betraktade argumentet (uttalat i text eller inte) som genomförde vår önskan.