Argument - Brott mot konjunktion: Förklarat med härledning av Weber's lag från t-testet

2012-10-31

Notera att antagandet i Detektion samförekomst och härledning Weber's lag: Via Students t-test om att vi konvergerar mot en neuron för mening tillsammans med uttrycket härlett mellan t-testet och Weber's lag också ger en förklaring till en del bias och feltolkningar människor ofta gör.


Ett exempel är människans tendens att acceptera argument som bryter mot rimlig konjunktion rörande just samförekomst d.v.s. accepterande att en händelse eller argument indikerande att A och B tillsammans kan vara större än A resp. B var för sig. Människor har står benägenhet att acceptera detta i information.


Genom att det egentligen just är intensiteter och inte sannolikheter samtidigt som att efter att samförekomsten är inlärd konvergerar den till en neuron kommer A och B ej blandas in i bedömningen för bedömningar som söks vara energieffektiva utan kräver att vi tänker till och skapar mer arbetsamma representationer av information från flera olika neuroner i motsvarande arbetsminne för detektion.


Uttrycket för intensitet för samförekomst jämförs primärt endast vid konvergensen enligt uttrycket sist presenterat.


I alla situationer där effekten och skattningen är den samma är detta dock inte ett brott mot konjunktion-lagen. Ett exempel är symboler bestående av flera ord vi tolkar till en mening ex. Costa Rica. Det är endast ett brott mot konjunktions-lagen om vi antar och förutsätter att orden i sig är den enhet vi följer. Någon anledning att göra det för Costa Rica i engelskan där orden costa och rica approximativt inte alls förekommer finns inte. Från detta och dess stora realitet inte minst i visuell information inser vi varför detta är en effektiv optimering trots att vi kan bli lurade av bedräglig riktad information skapad av människor.


Det ger mig ibland viss tillfredsställelse att diskutera dom här uttrycken mer troligt först. Allmänt gäller dock att det nu när vi mycket oftare är nära det praktiska (vilket gör dem också intressantare för andra än en själv) tenderar jag att vara väldigt försiktig i vad som översätter till beräkningseffektiva algoritmer och som inte är välkända.

Detektion samförekomst och härledning Weber's lag: Via Students t-test

I Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext diskuterades ett sätt vi kan förklara Weber's lag utifrån behovet att i inlärning kunna detektera meningsfull samtidighet i händelser, förändring av nivå, objekt m.m. En lika praktiskt i att det också översätter till ett både enkelt och beräkningsmässigt snabbt väg att motivera Weber's lag också från det absoluta behovet av detektion samtidighet är via t-testet.


Låt oss definiera samtidighet som att A och B sker vid samma tidpunkt. Tidpunkten definierar vi som ett tidsinterfall vilket är absolut tid relativt antalet händelser inträffande vi klarar att särskilja (vi kan dessutom förklara Weber's lag genom att gå vidare djupare från tidsdefinitionen men det är väsentligt mer krävande i text för att förklara det: 50 sidors behov om det ska göras seriöst). Här ser vi tiden från och med nu som en diskret tidpunkt.


A och B kan dessutom inträffa utan att den andra inträffar.


Lika från praktiska försök inom psykologin väldokumenterat är relationerna kring diskriminerbarhet (se ex. Signal-to-noise ratio in neuroscience) där vi här utgår från medelvärdet / variansen.


Problemet här är att vi vill kunna diskriminera samtidighet. Att i sig utan ev. bias byggd från befintlig inlärning avgöra om något är vettigt samtidigt eller bara samtidigt med vad som ger reward-påslag är inte möjligt. Reward kommer därför tendera att förstärka all samtidighet där upprepningen tenderar att komprimera det effekt ganska snart (även om det går att få folk att göra precis vad som helst oavsett hur irrationellt om de tror att det är kopplat till 10 kronors vinst på en enarmad bandit).


Problemet är att det inte är rimligt att anta att vi kan uttrycka volativiteten via variansen. Det förutsätter att vi har talserier av händelser vi kan göra beräkningen ifrån. Givet att människor har direkta svårigheter att lära sig saker utantill - inte minst mätvärden - är det att betvivla att vi har något annat än approximativt i resultat något liknande det.


Så hur är det tänkbart att vi kan approximera variansen? Jag undviker regelmässigt att i dokumentation, bok-kapitel m.m. att referera till det som varians därför att det är inte riktigt varians. Termen volativitet är bättre.


För att kunna detektera samtidighet är förutsättningen att A och B kan särskiljas. A och B är därför i sig inlärda. Volativiteten för att dektetera samtidighet kan endast styras av denna eftersom samtidigheten (om verklig) i sig inte är inlärd.


Uttrycker vi beslutet om samtidighet med Student's t-test har vi i princip samma sak som Signal-to-noise uttrycket refererat också anger d.v.s.


    Skillnaden i medelvärde dividerat med variansen

Medelvärde förutsätter inlärning och är vad som kan göras både approximativt och exakt utan att vi känner talserierna. Vi kan vidare se hur vi bibehåller intensitets-representationer av det mesta. Vi kan därmed p.s.s. vi förändrar varians till volativitet se medelvärdet som den intensitet vi litar på. Dess stabila värde om vi så vill. Vi får för t-testet:


    ( Intensitet (A och B) - Intensitet ( A ) * Intensitet ( B) ) / Volativiteten

Det därför att hypotesen är att intensiteten av A och B samtidigt är meningsfull och är konsekvensen av A och B vanliga intensitet oberoende av varandra. För att göra det enklare att följa skriver nu igen om "medelvärdet" nu från intensitet till sannolikheter d.v.s. hypotesen är sannolikheten för samtidighet mot att A och B är oberoende:


    ( P ( A | B ) - P ( A ) * P ( B ) ) / Volativiteten

Kvar återstår att ge en möjlighet och rimligt fungerande skattning av volativiteten:


    Volativiteten = Volativiteten( P(A) , P(A) )

Därför antar vi att P(A) och P(B) är i samma domän eller att inlärda relationer för hur vi kan "omvandla" mellan domäner gäller P(A) och P(B) måste uttrycka vad aktivitet i hjärnans neuronnät kan konvergera mot d.v.s. det kommer vid slutet träffa en neuron eller en liten grupp av neuroner. Dess morfologiska form resp. mekanismerna för hur signalsubstanser sprider sig och via enzym-system (ex. MAO) bryts ner är vad som påverkar.


Desto större P(A) och P(B) ju mer aktivitet uttryckt i inlärningen d.v.s. enklast här att endast utgå från förenklat reducerad topologisk distans i dendrit-trädet. Reducerad distans ger att mer träffar troligare. Det innebär också att mer träffar troligare precis bredvid och skillnad i tillväxt bred ökar inte linjärt utan exponentiellt enligt någon fördelning precis som för centraliteten. Och där hur troligt signalsubstanserna träffar oavsett oavstånd också minskar approximativt exponentiellt när vi går längre ut från centraliteten.


Hur volativa A och B är styrs därför av deras magnitud. Det är det enda som styr därför att som vi vet gäller att olika typer av neuroner uttrycker sina former på dendritträden. Därmed kan vi approximera volativiteten för hur praktiskt fungerande i detta sammanhang (men ej p.s.s. alltid i andra situationer) utan att känna variansen genom att bilda:


    Volativiteten = sqrt ( P(A) * P (B) )

Det ger oss t-testet enligt:


    ( P (A | B ) - P (A) * P ( B ) ) / ( sqrt ( P(A) * P (B) ) )

Antag, att vi accepterar inlärningen av P ( A | B ) = P ( C ) och nu vill avgöra om denna relevant förändrats. Dess inlärning representeras av centraliteten vars avstånd reducerats till föregående neuroner.


Dess aktivitet vid tiden t + 1 ges av om vi aktiviteten nått oss via centraliteten, någon sidogren eller kombinationer av dessa. Volativiteten som är normal ges bara av centraliteten och vi får:


( P ( C | t + 1 ) - P ( C | t ) ) / Volativiteten ( P ( C | t ) ) =

[ Volativiteten är fortfarande samma uttryck som för inlärningen av P ( A | B ) att förstå ex. från teori för pooled variance inom statistik. ] =

( P ( C | t + 1 ) - P ( C | t ) ) / sqrt( P ( C | t ) * P ( C | t ) ) =

( P ( C | t + 1 ) - P ( C | t ) ) / P ( C | t )


D.v.s. Weber's lag.


Veni vidi vici

Lek med Tjuren

I visualiserad fortsättning av Våren väcker björnen.

Våren väcker björnen



"2011, sensing sun

Stepping out

Stretching

Sudden cold wind turned energy to sleep,

And I burned some of my fat resting another year.



2012, the sun over the trees,

- Hunting close to 2013 perhaps I let the true me running fast straight into spring."



Poeten och äventyraren

Hans Husman




Foto: Beingmyself

Beslutsteori och kreativitet: Fano inequality och diskriminerbarhet

2012-10-30

Betraktar vi problemet vi löste i Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext precis omvänt har kanske en motsvarighet i vad som indikerades här:


"In a new study, published March 27 in the online, open-access journal PLoS Biology, Anne Collins and Etienne Koechlin of Ecole Normale Supérieure and Institut National de la Santé et de la Recherche Médicale, France, examine frontal lobe function using behavioral experiments and computational models of human decision-making. They find that human frontal function concurrently monitors no more than three/four strategies but favors creativity, i.e. the exploration and creation of new strategies whenever no monitored strategies appear to be reliable enough."


Från: Creativity and human reasoning during decision-making | EurekAlert!, AAAS.


Här är ju släktskapet med Fano inequality ger oss en skattning av tydligare. Det handlar ju just om ett mått på hur "fel-tolkningen" påverkar gränsvärdet för meddelandets information:


"Then, for each incorrect output message the correct input message must be identified. The number of possible input messages is N−1 because the output message is known to be incorrect. Thus the amount of information necessary to identify the input message cannot exceed log(N−1) , and the corresponding average amount of information to be provided cannot exceed P(e)log(N−1) , the second term on the right hand side of (2)."


Från: Robert Mario Fano (2008), Scholarpedia, 3(10):6648.


Så vi kan kanske se det som att när strategier falerar här blir vi kreativa och söker något nytt och spekulera att kostnaden för att hantera det ökar med ökande n (och oavsett om en möjlig kostnad hade existerat innan är det kanske inte vad vi i klassiskt evolutionär-verklighet någonsin riktigt har rutiner för givet kända samband från mänskliga beteende relaterat hasardspel. för snabb-inlärning kring irrationella ej väsentliga faktorer på 1 till 2 träffar ej påverkat av många fall därefter o.s.v). Innan tre (för andra logaritmen) är ju tänkbar information vi behöver tillföra inte definierat alternativt 0 (vad vi saknar uttryck för). Stämmer det behöver kanske inte antalet strategier vara så hårt bundna till tre och fyra utan kan kanske variera också en bit uppåt beroende av hur sannolikheterna upplevs.


Åtminstone om vi ser det från Fano inequality världen. Vi kan ju också tänka oss att det åtminstone handlar om diskriminerbarhet d.v.s. det måste gå att särskilja vad som hör till strategier eller varför inte n stycken objekt vi håller i arbetsminne. Är ex. objekten features till visuella bilder har vi en enorm-mängd träningsdata vi plöjt igenom under vårt liv och skattningar av osäkerhet ex. enkelt relaterat gränsvärden via normalfördelningen för variansen blir därefter, och vi kan hantera många fler detaljer. Handlar det istället bara om vanliga ord räcker det inte lika långt därför för dom har vi mycket större varians. Det här resonemanget har en del praktiska värden också ex. blir det möjligt att resonera praktiskt görligt jämförbart mellan en individ i beslut och kollektiva beslut för populationer under antagande av funktioner för att uttrycka motsvarande pooled variance (bättre uttryckt som volativitet).


Tveklöst ett fascinerande intressant ämne också för många läsare. Eller kanske hade varit det om mer applikationsnära-tillämpningar diskuterats (det hade nog varit lika tråkigt ändå om problemet och dess lösning diskuterats men det är bara nyttigt för mina läsare att få lära sig lite självbehärskning eller i brist på det avstå från något utvecklande: här kan jag se ett moraliskt ansvar att bygga upp läsaren till en kanske mindre glad men nyttigt produktiv samhällsmedlem som skapar tillväxt inom långsiktiga nyckelområden viktiga för Nationen och Världen).

Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext

Här har vi en tänkbar lösning på Aktivering av tillstånd relativt likhet i kontext jag lutar åt att de praktiska testerna mot data (dröjer något dygn tills nytt cache-data för similarity beräknats klart) kommer visa sig är korrekt fungerande.


Jag började med att titta igenom de sidor Wikipedia hade för information criterion och experimenterande en del praktiskt med miniräknaren i första lagret. Ingen uttryckte direkt vad som var funktionellt gav en idéer som ledde fram till ett uttryck.


På det sätt similarity beräknas står det i nära relation till förhållandet mellan feature relations (andra symboler inlärda relationer existerar till: vanligen cirka 40 - 10000 st) som är lika respektive olika, och den relativa associationen (i princip P ( symbol | relations | "prototypiskt" kontext)).


Vi kan därför också tolka similarity måttet (alltid [0,1]) som sannolikheten eller vår tro att när det i ett givet kontext är relevant för symbolen från dess perspektiv (för vilket man ev. kan reducera från prototypiskt kontext - vilket dock för de flesta situationer inte tillför värde relativt beräkningskostnad att avvika från cache-bart-data - genom att aktuellt kontext ger att vissa relationer där inte är meningsfulla att bedöma rörande likhet).


Tolkning / tron / beslutet att symbolen / gruppen av symboler vi beräknar similarity med är relevanta för aktuell symbol från dess perspektiv vi undersöker hur lika det är motsvarar hur troligt (där vi här förenklat ej inkluderar andra faktorer) det är riktigt att symbolens neuron / neuron-grupp ska aktiveras. Approximationen som görs just här från det är att styra aktiveringen av resp. sådan symbol-neruon från similarity vilket är funktionellt här därför att det totalt handlar om för ett också begränsat kontext oftast för vanliga "nyhets-starka" symboler t.ex. två länder och något kraftfullt mellan dem som "handelsavtal", "krig" o.s.v. flera tusen neuroner som kommer aktiveras.



Oavsett antalet symboler i kontext vi beräknar similarity mot gäller att de enda symboler vi behöver ta hänsyn till är vilka likhet är större än noll därför att om likhet är 0 för en symbol kan ingen kunskap om denna ha nått oss just därför att similarity approximerar aktivering utlöst av kontext.


Antalet symboler vår trosföreställning om att det är "riktigt" för "oss" (menande neuronen som beräknar similarity mot kontext) styrs därför uteslutande (när vi här uttrycker det förenklat utan andra faktorer begränsat till denna problemställning) av:


  • N uttryckande antalet symboler som similarity är större än 0 för.
  • Total similarity för dessa N symboler (andra sätt att värdera samman similarity är givetvis också tänkbara men detta tycktes för mig en god utgångspunkt man kan argumentera för och om praktiskt funktionell mycket beräkningseffektiv givet endast addition).

Vår tro på att aktivering är korrekt är inte orimlig att anta växer med ökat N oavsett similarity. Det är ju också vad som var indikerat i utgångspunkten för själva problemet där det i väldigt mycket finns en fascinerande viktig undre gräns vid som jag ej förstått men som denna lösning inte otroligt förklarar.


Skattningen av vår tro på att vår aktivering är rimlig som uttryckt i hur mycket vi aktiverar oss från N st. värden för givet kontext är om ingen historik vi också kan skapa legitima skattningar från existerar kan vi skatta gränsvärdesriktigt med:


    WP = Total similarity * 1/N = W / N

Betraktar vi de N symboler vi uttryckt likhet större än noll med som varsin symbol i ett meddelande hade gällt att vi utan annan information kan uttrycka informationen de för en given sådan sekvens när deras ordning saknar betydelse som:


    ln (N) / ln (2)

Där om vi hade kunnat betrakta en historiskt d.v.s. hanterande att förutsättningarna för similarity kan vara olika vid olika kontext utanför själva symbolerna som anses vara identiska vad vi bättre hade uttryckt som (om det nu hade alls varit rimligt att anta "slumpmässighet" snarare de meningsfulla kunskapsdrivna förutsättningarna här mycket given kunskap finns för intelligensen att tillgå)


    (1/n) * ln (N^n) / ln (2) -> gränsvärde när n -> oändligheten

Det tillsammans skulle (uttrycket liksom ovan är ej vad jag gjorde och menar jag bygger på felaktiga antaganden men en god start för att försöka förklara mitt uttryck från traditionella relationer inom informationsteori) ge oss ett kombinerat uttryck enligt:


    WP * ln (N) / ln (2) = (W/N) * ln (N) / ln(2) = W * ln (N^(1/N)) / ln ( 2 )

Det uttryck jag fick indikerat motsvarar dock inte detta där skillnaden är att vi har (N - 1) istället för N. Jag noterade precis av en slump att det motsvarar (om vi antar att övriga antaganden är rimligt motsvarar varandra) uttrycket för gränsvärdet i Fano inequality.


Efter en del funderande tycks det inte orimligt för mig men jag vågar mig inte på att söka förklara det åtminstone nu. Och det var ju heller inte vad jag utgick från att acceptera att sätta N - 1 i logaritmen var rimligt.


Vad som fick mig att acceptera N - 1 (acceptera i meningen givet att nu detta praktiskt gav ett mer beräkningseffektivt uttryck utan större fel - tvärtom utan andra åtgärder något bättre från och med tre) är att vi inte kan ha samförekomst rörande similarity som är N.


Om vi akiverar neuronen på första likheten exiserar ingen samförekomst. Aktiverar vi på första och därefter andra vet vi (lämnande elektriska potential-förändringar o.s.v. i neuronen och hållande oss till vad vi kan se som numeriskt uttryckande nivåer givet neuron-gruppen statistiskt) att vi uttryckt likhet innan och får ett nivå uttryckt givet motsvarande den biologiska neuronens återupptagning.


Det ger oss nu N - 1.


Relevant i detta sammanhang är Weber's lag med flera liknande relationer konstaterat rörande så mycket relaterat perceptionen. För att kunna resonera om samtidighet krävs i dessa sammanhang denna typ av uttryck snarare än en absolut-nivå. Låt oss uttrycka Weber's lag på den form jag personligen föredrar:


    (Aktivitet ( t = 2 ) - Aktivitet ( t = 1 ) ) / Aktivitet ( t = 1 )

Samtidighet uttryckande meningsfulla samband kan antingen i en situation röra samband inlärda eller vad efter att de konstaterats meningsfulla ska uttrycka inlärning.


Är händelse A känd i inlärning som meningsfull i situationen kommer detta uttryckas via för det anpassad aktivitet. Vi väljer här att se det som motsvarande ökad aktivitet (för att få en rimligt enkel förklaring här).


Händelse B har vi ej inlärda samband för rörande situationen. Den uttrycker därför ej anpassad aktivitet genom förstärkning utan endast aktivitet relaterat att den förekommer.


Söker vi meningsfulla relationer i samtidighet utan att normalisera för magnituden kan i endast identifiera samband mellan händelserna vi som A redan delvis lärt oss och med andra sådana vi lärt oss med en nivå av meningsfullhet jämförbar.


Jämför gärna med ett kollektivt exempel. Antag att organisation A agerar enligt "verktygs-domän" Q positivt verkande för ett kontext. Mycket mindre organisation B med för oss dolda relationer till A agerar också på motsvarande sätt men i mycket mindre magnitud.


Normaliserar vi för magnituderna och utgår från att söka samband med händelser känt meningsfulla blir det mycket mer beräkningseffektivt att identifiera dessa. Det tycks heller inte för mig självklart att det är särskilt enkelt att för hjärnan att söka dem på annat sätt. Rörande organisation av kunskap, geo-rum m.m. tycks ju grid-celler vara vad som uttrycker detta. För händelse-kedjor ex. motsvarande att vi vandrar i dessa kan vi göra Markov antaganden, och vi kan också se hur kedjan kan representeras motsvarande en länkad-lista (jämför med hur vi uttrycker samband i närminne där det sker genom att uttrycka beräkningseffektivt ökad närhet mellan en neuron och en annan neuron i statistisk-centralitet). Emellertid gäller för samtidighet vi ej känner och som vi ej motsvarande sökt vandrande en väg att dessa ligger utspridda i motsvarande denna grid och därför inte på detta sätt självklart kan identifieras.


Däremot är det ett enkelt problem att helt enkelt söka mängden neuroner som aktiveras av en viss typ. Men när vi tar dem ut ur kontext för att söka meningsfull samtidighet gäller att om vi inte normaliserat rörande magnituden innan det lokaliserat att vi behöver (så vitt jag kunnat se) mer information för att klara att bedöma den d.v.s. att vi måste dyka ner för varje sådan symbol i vilket fall vi inte alls har någon beräkningseffektiv lösning.


Vidare gäller att vi här i princip har enorma hyperkuber med hundra tusentals praktiskt implementerat men helt säkert mer i hjärnan antal dimensioner. Antar vi att dimensionerna när likställda varandra inte uttrycker andra enheter än vilka dimensioner de för kontext är anslutna till gäller ju att vi kan få bort dessa genom att titta på den relativa skillnaden. D.v.s. vi behöver inte förstå varför neuronen uttrycker en viss aktivitet när vi söker samtidighet med en annan neuron.


Om denna förklaring är närmare hjärnans verklighet än andra för Weber's lag vet jag inte men den är närmare den praktiska verkligheten av att söka beräkningseffektiva implementationer i dator.


Slutligen: Är gränsvärdet vi får med WP * ln ( N - 1 ) / ln ( 2 ) den övre eller undre gränsen? Egentligen tror jag att det är det undre-gränsvärdet men praktiskt har jag lärt mig att jag alltid först kommer till den slutsatsen när det är det övre-gränsvärdet. Också erfarenhetsmässigt vet jag att det praktiskt bara varit positivt-värde i beräkningseffektivitet inte mätbara reduktion i korrekthet att utnyttja övre-gränsvärden relaterat informationsteori. D.v.s. jag är inte helt säker på vilket ännu och bryr mig inte att härleda det innan jag gjort testningen mot data.

Komplettering: Aktivering av tillstånd relativt likhet i kontext

2012-10-29

Kompletterande Aktivering av tillstånd relativt likhet i kontext är något man kan fundera över varför tre är ett praktiskt fungerande tröskelvärde. Tre är dessutom ganska väl underbyggt både i analysstudier praktiskt här och från situationer som kan betraktas som jämförbart med detta för en individ.


Jag har egentligen ingen bra teoretisk-förklaring av det som jag upplever att jag särskilt tror på eller har något konkret indikerat annat än att det skulle förklara det.


En lätt statistiskt inspirerad förklaring är att vi för första och andra fallet kan skatta en idé om hur vi ligger relativt vår inlärda centrality för similarity- / salience-aktivering medan vi i och med den tredje har minsta möjliga för att också söka skatta hur avvikande från denna kontext är d.v.s. om vår inlärda centrality är 0.5 i similarity stämmer kontext väldigt olika med det om vi har {0.1,1.0,0.5} resp {0.5,0.5,0.5}.


Tänkbart är BIC (Bayesian information criterion) fungerande här. Jag har ingen riktig känsla för det därför att den ligger ganska långt ifrån kriterium jag tenderar att välja (normalt för situationer där sådana är aktuella har den tycks tveklöst sämre än alternativa). Men kanske uttrycker den just praktiskt fungerande värden här för hur varianserna för similarity typiskt kommer fördela sig relativt antal koncept vi uttrycker någon likhet med?

Aktivering av tillstånd relativt likhet i kontext

Jag tror mig minnas att jag förra året skrev något om aktiveringsfunktionen jag antog kunde gälla inlärning utifrån likhet. Nyligen upptäckte jag den för första gången beskriven någon annanstans vilket gav den viss trygghet (samt praktiskt gjort den mer tidseffektiv därför att en del konsekvenser var färdigt uttryckta där utan att kräva att jag härleder dem) i The Statistical Approach to Learning Theory, W.K. Estes i Psychology: A Study of Science bok General Systematic Formulations, Learning and Special processes.


Frågan just nu är inte helt oviktig därför att jag har en praktisk utmaning i hanterandet av hur fortlöpande kontextuellt tillstånd (se Drifting thoughts i kartan: Common sense - Arkitektur) ska påverkas av similarity med aktuellt kontext.


För den effekt detta korrekt har jag konstaterat tre saker (bl.a. via avstämning mot "reaction time forskning" i psykologin):


1. Similarity är från perspektiv av noden snarare än resp. koncept i kontext. Det är ju också högst rimligt i att informationen påverkande aktiveringen biologiskt måste överföras från resp. konvergens i kontext via signalsubstanser (eller om man vilket jag sällan gör betraktar det från elektriska vågformationer) till noden.


2. Aktiveringen styrs av nivå av similarity med respektive koncept i kontext alternativt styrs samlat av kontext.


3. Aktiveringen styrs av antal koncept noden uttrycker likhet skild från noll mot.


Att föra samman två och tre till ett uttryck har jag dock inte klarat av på ett bra sätt.
Filtrerar jag bort via en enkel threshold antal (tre är den fungerande här) gäller att man kan uttrycka RT-värden transformerat till salience-aktivering [0 - 1] rimligt.


Beräknar jag istället bara similarity med resp. koncept och summerar kan det ge "korrekta" värden. Men det går också att hitta fall där det ej översätter korrekt. I princip gäller att en hög likhet med ex. ett koncept och noll likhet med övriga koncept ger ett för högt värde.


För att lösa det här problemet elegantare än att direkt filtrera på antal har jag sökt lösningar i forskning inom psykologi, neuronnät m.m. resp. tittat över välkänt fungerande algoritmer. Jag upplever bl.a, att ganska stor konceptuell likhet med inverse document frequency gick att se. Men min första definition för information utifrån det falerade.


Det tycks väl för mig heller inte otroligt att man mer insiktsfullt hanterande detta i beslutsträd med värdena transformerat till sannolikheter kanske klarar att fånga detta. Ev. något beslutskriterium från bayesianska strukturer eller från diverse liknande. Just i detta ligger vi dock väldigt nära medvetande som koncept och där är det mycket rimligt att undvika Markov-inspirerande lösningar (därför att dessa har demonstrerat relaterat bl.a. semantik vara fungerande hos människa också utan eller med nedsatt medvetande: inte minst intressant för vissa modeller som söker uttrycka medvetande den vägen ).


Just den här utmaningen har hängt kvar ganska länge nu. Mest elegant vore givetvis att hantera det via inlärningsfunktionen för similarity. Elegansen i det är dock mer irrationell personlig därför att jag är lite missnöjd över att jag inte praktiskt sett någon naturlig plats för uttrycket i övrigt där det adderar värde.


Frågan är ju också hur man ska förklara detta teoretiskt? Grundförutsättningen måste ju vara att aktiviteten uttrycker en "konvergens" till resp, WP-nod. Vidare gäller antagandet från modell att neuronen har vissa möjligheter givet dess inlärning att i neuron-gruppen och dess dendrit-träd detektera grad-skillnader utifrån vinkeln trafiken når den (d.v.s. om aktiveringen innan har preferens mer i en riktning på större avstånd blir vissa delar av dendrit-trädet mer sannolikt relativt trädets centrality). Kanske är därför förklaringen förstärkning från samaktivering av större delar av neuron-gruppen och/eller dendrit-trädet.


I så fall skulle i princip gälla att om vi i kontext har ex. tre nära nog identiska koncept blir aktiveringen per total similarity lägre än om similarity varit skild.


Vidare gäller att om similarity mellan ex. tre koncept är sådant att vi för ett ligger kraftigt i en riktning ("vänster" sida av trädet), för ett nära centraliteten och för det tredje tydligt till höger, bör aktiveringen bli större.


Samtidigt är som vi inser särskilt från sista exemplet frågan vad större aktivering är.
Här i den tänkta formen för dendrit-träden för de neuroner mer troligt motsvarande tycks för mig att det inte är orimligt att se dessa uttrycka approximativt en sfär resp. approximativt en platt cirkel, vilket gör att normalfördelningen är rimligt fungerande. Det blir en värd av vinkel och aktiveringsnivå där vad vi önskar normalisera olika uttryck med är mitten (centraliteten).


Praktiskt känns det mindre intressant att testa denna idé även om den kanske teoretiskt är troligare därför att det är ganska omfattande programmerings-logik samtidigt som att faktiskt värde är åtminstone för mig oerhört svårt att kontrollera innan. I princip behöver man skatta hur sannolik en vinkel är i aktuellt i kontext och ev. givet tidigare kontext och ev. också inkluderande aktiveringsnivå.


Istället vad jag känner troligt finns men att jag inte ser p.g.a. design fixering eller något annat är ett enkelt och bra ganska välkänt uttryck som klarar att fånga sådant här. Kanske något beslutat inverse document frequency eller divergenser (jfr Kullback). Jag hade väl hoppats att formulera problemet här skulle lösa det åt mig men inte: så tips uppskattas.

Politisk debatt: Negativt vs Positivt

2012-10-27

Återkommande rapporterat av och till från forskning är relaterat till att negativa budskap i vissa situationer verkar mer effektiva än positiva. En färsk sådan har vi här:



Utan att försöka ge någon egentlig förklaring till detta där flera idéer genom åren presenterats föga upplever jag övertygande kan vi enklare konstatera att engelska språket uttrycker vad vi kan tolka som ett "bias" för positiva uttryck.


Söker vi valence för ett ord eller ett begrepp finns förvisso vikter från flera forskningsprojekt vilka typiskt korrekt vetenskapligt tagits fram under kontrollerade former d.v.s. gemensamt kontext är reducerat till vad som är närmare gemensamt lika (d.v.s. själva studien snarare än en valfri tidpunkt i hemmet). Praktiskt i verkligheten är dock faktisk valence beroende av situationen där man för ta viktsystem via diverse mellansteg för att få en skattning av associationen till ett godtyckligt begrepp, symbol, varumärke, ord, person eller något annat.


När man söker bedöma effekten av ett positivt resp. negativt ord är det svårt att tolka det från kontrollerade former till verklighet direkt. Det innebär emellertid inte att jag menar att slutsatsen som företeelse tillsammans med många andra är felaktig. Viss balans krävs som i mycket där överuttryck negativt obalanserat tenderar att slå tillbaka eller gå till den andra extrempunkten under kortare intensivare perioder med ännu större tillbaka slag senare.


Rörande detta är det min tro sedan något år att förklaringen kanske inte är mer komplicerad än att ovanligare uttryck vars valence vi har inlärt via personliga erfarenheter eller kollektivt språk via ex. romaner och nyheter, tenderar att oavsett kontext tappa effekt något med "överanvändning". Negativa termer varande något ovanligare i språket blir därför mer effektiva.


Fenomenet är givetvis nära besläktat med vad som är känt kring propaganda effect, mere exposure.


Utrymmet för intensitet från information vi tar emot är begränsat och är förutom det direkt nära engagerat kopplat till uppfattade risker och möjligheter på en glidande skala från lite till mycket. Uttryck av risk och möjlighet i mycket av kollektivt språk idag tenderar att begränsad realisering i verklighet på sätt konkreta för individen, och i gradskillnad mellan risk och möjlighet tycks risk vara vad som oftare har verklig realisering relativt magnitud (skattat uteslutande från nyhetsflöde).


Emellertid ska man rörande debatt m.m. komma ihåg att kontext inte stannar vid det övergripande, utan givetvis för händelser och ämnen vi kan särskilja d.v.s. allt där man kan önska att uppnå effekt relaterat politik, marknadsföring m.m. har individuella kontext för resp. Det gör inte bedömning mer komplicerat utan enklare därför att rymden data man behöver hantera blir mindre. Men det innebär att det inte är lika trivialt att direkt göra kopplingar mellan forskning och tillämpning.

Obama tappar i Kalifornien

Apropå indikationen Kalifornien i Mitt Romney: Lär från Thorbjörn Fälldin har President Obama börjat tappa i Kalifornien:



Det är tror jag viktigt. Han har varit oerhört stark i Kalifornien med ordentlig marginal vid förra valet, och starkt stöd löpande, samt att han har flera ekonomiskt starka bidragsgivare där liksom möjligen inverkande på kompetens ex. internet-marketing inom området välkänt kunniga.


Terroristdådet och mordet på USA:s ambassadör i Libyen tycks också börja se direkt besvärande ut för Vita huset:


"President Obama is playing the media and, in turn, the American people for fools on the Libya scandal. Reporters and columnists who carried his water have been hung out to dry. The White House cover story — namely that CIA got it all wrong and the White House (in urging us to believe the murder of four Americans was the result of a video riot gone bad) was telling us what it knew, when it knew — has been severely undercut. Three e-mails sent to the White House within two hours of the attack identify it as a terrorist operation and inform the White House that local jihadists with al-Qaeda connections claimed responsibility."


Från: White House e-mails blow up its Libya cover story | The Washington Post


Tillsammans med TV-debatterna (se Nu blir Romney omtyckt: Obama-operation gick fel) råder det ingen tvekan om att Romney kan vinna valet (det blir nog rent av ganska jämnt) vilket tidigt i valrörelser det var många som tvivlade på (inkl. mig).

Systematiskt tänkande: Utmaningen att representera vetande optimerat ögonblicket

Dessa två exempel på metod-sidor av systematiskt tänkande kan vi komplettera med att vi alla tror jag har en kraftig preferens för att inte se förändringar i tiden motsvarande dynamic frames som en utveckling av konceptet network structures:


  • Thinking in network structures: Mapping patterns of feedback loops, e.g. the solution to a problem for one party (arming itself in an environment perceived as insecure) is the problem for the other one (perceived security threat) which leads to reinforcing the first problem (i.e. the famous “security dilemma”).
  • Thinking in dynamic frames: Integrating time delays (e.g. counter-armament happens only later) and understanding that causes and effects in social systems do not follow a simple linear logic but are connected in a rather complex way and can be separated substantially by distance and time.

Från: A Systemic Approach to Conflict Transformation: Exploring Strengths and Limitations | Berghof Research Center for Constructive Conflict Management

Vi se en viktig egenskap vi i citatet och ofta annars tar som underförstådd relaterat till skillnaden mellan referensinformationens mer varaktiga inlärning och ögonblickets förändring.


Vad som sker nu i ögonblicklig förändring kan mycket väl ge systematiska långsiktiga förändringar och samverka via extremt komplexa samband med liknande kortvariga händelser bakåt resp. framåt i tiden förutom ögonblickets samtidighet.


Människans naturliga representation av det ligger dock närmare att de registreras och via decay försvinner ur vårt sinne med tiden om de inte direkt själva oavsett samverkan igen varit aktuella, där ev. detektion av tänkbara komplexa samband kommer indirekt via den påverkan representationen hade på annat medan den var aktiv i sinnet snarare än att vi sparar långa serier med registrerade händelser.


Värdet för människan under evolutionen bör inte skilja sig från det värde jag själv ser i arkitekturen till en analysenhet (se Drifting thoughts i kartan: Common sense - Arkitektur där feature relations och associationer runt koncept aktuella just nu samverkar med kontinuerligt tillstånd till ett nytt tillstånd att dra slutsatser och tolka världen just nu från): alternativa lösningar fodrar enorm tillgång CPU och ännu mer ram-minne för att ens komma i närheten av vettig prestanda.




Drifting thoughts som del av arbetsminne resp. relativt i arkitektur representation av varaktig kunskap. Klicka på bilden för att se den förstorad (helt säkert nödvändigt för nästan alla).


Förutsättningen för att det ska fungera är att det "komprimerade" tillstånd som skapas av de kontinuerliga händelserna och informationen trots att dess "minne" av vad som egentligen kom in i bästa fall är diffust ändå klarar att leverera detektion av värdefulla samband. Detekterade samband kanske vi inte kan härleda till exakt vad som orsakade dem men när representationen i tillståndet liksom indatat är baserat på kunskapsdomäner som mång-dimensionella hyperkuber gör det detsamma därför att sambandet tillståndet i sig detekterar är relevant i sig självt och motsvarande förekomster i verkligheten det ev. visar sig tillämpbart på kan identifieras via Flashlights nyhetssökning eller att en Agent Sniff släpps lös.


Kanske är detta kognitiva-paradigm förklaringen till varför vi har oerhört svårt att tänka oss graf-strukturer som samtidigt uttrycker t.ex. geografiska dimensioner och tidsdimensionen. Vi gör helst grafer över kunskap utan tid eller tidslinjer. Det är ju verkligen oavsett hjärnans metoder och organisation vad vi väldigt tränas till separation av.


För att hitta rätt vinner vi t.ex. mycket på att göra just separationen. Övergripande kart-koncept förändras i mindre utsträckning och vinner på mer varaktig referens-tillämpning. Enstaka händelser i tiden t.ex. en översvämning blir istället anslutna där deras varaktighet avseende påverkan och märken i verkligheten styr om och hur snabbt dessa med tiden blir diffusa och försvinner. Mycket idag indikerar också att kunskapens organisation oavsett område följer vårt "lokalsinne" och geografiska orientering.


Givet det i en del områden ex. relaterat politisk planering och militär-kunskapsorganisation ligger det därför nära tillhands att se geografiskt och tidsmässigt uttryck tillsammans med aktuella "mänsklig-kunskaps-domäner" (t.ex. kultur eller forskningsområde) som vägen till pan-representativ enhetlighet i vad man med en representation avser. Förutom en del NATO-länder gäller att bl.a. ev. Sverige närmar sig att införa sådana lösningar.


Min känsla är dock att värdet av det för en tänkt färsk ontologi utan historia är mycket begränsat om existerande samtidigt som flera risker tycks finnas relaterat till tillämpning av en sådan ontologi i situationer där antalet händelser sker i hög intensitet per tidsenhet och tillämpning avser reaktioner på händelserna vilka är av sådan natur att de kan innebära förändring i geo och hur geo förhåller sig till operations-synkroniserande tid (bl.a. relaterat implicita kollisioner omöjliga att prediktera därför att de skapas av förändringar i den verklighet ontologierna avbildar och inte styr). Det är dock oerhört svårt att utan ganska omfattande tidskostnad föra i bevis att riskerna är verkliga men principen om alla IT-projekts djävulsskap ger oss att varje risk vi kan se för större projekt vanligen realiseras.


Praktiskt tror jag också att motivet bakom införande av sådana representationer har mindre med att göra med att man faktiskt konstaterat ett värde för vår tänkta färska ontologi relativt andra beprövade koncept med kända fördelar resp. problem.


Istället tror jag att det har mer att göra med "desperation" över ett större antal befintliga ontologier, system, standarder m.m. med skilda representationer man redan har. Det problemet tror jag inte ett ögonblick på blir bra löst genom detta koncept för situationer där kvalitet resp. situationer med många händelser per tidsenhet kan vara fallet. För en bra lösning tror jag verkligen att det krävs att man med många människor sätter sig och går igenom datapost per datapost i allt som är väsentligt både för quality assurance och uttrycka en trovärdig position i en gemensam representation. Givet det har just representationens dimensions-typer mindre inverkan på tidskostnad.


Sådana insatser måste givetvis vägas mot befintliga kostnader för antalet system och vilka risker och skador de redan medfört. Att när sådana väsentligheter konstaterat funnits hellre rusa fram med något tämligen nytt man typiskt för nya IT-systems-projekt i större organisationer magiskt ska lösa saker är vad som vanligen bara resulterar i ett till IT-system med sin representation utan att man verkligen orkar reducera gamla system väsentligt (om alls).


Effektivisering i antal system bör kopplas effektivisering av informationens kvalitet och användbarhet. Det är svårt att komma ifrån att det kostar tid.


Vi kan förutom mer komplexa risker illustrera problematiken med data quality denna representation detta kan ge sken av att lösa utan att faktiska praktiska problem förändrats från att det kommer tendera att signalera fler träffar med relevans från geografiska, organisatoriska och tidsmässiga parametrar som går vidare till analyssystem än vad som med samma faktiska datakvalitet på resp. post som innan är verkligt (antingen lika många överträffar som innan eller som är troligare många fler därför att specifika ad-hoc lösningar resp. förståelse av datarepresentationen tappas när data tas från den nya enhetliga lösningen).


Områdets natur gör att stora mängder data tenderar att öka kostnaden för analys exponentiellt. Tidsbesparing i automatiskt konvertering från flera system istället för att seriöst gå igenom datat betalar man med högre beräkningskostnad när datat ska tillämpas. Särskilt i direkta pågående militära konflikter kan det vara väldigt begränsande därför att filtrering i analyssystemen för att söka identifiera ämnes- och kunskapsrelevans relativt mönster för data quality problem och skillnader i representation och benämning för kategorier, topics m.m. är svårt eller praktiskt omöjligt. Hanteras det innan är kostnaden för det möjlig att beräkna som linjär-funktion av antalet dataposter liksom tidskostnaden att uttrycka i antalet personer där faktiskt värde sedan realiseras fritt utan kostnad i skalning. I långsammare tid är det vad som istället kostar tid i att ordna access tillbaka till de gamla systemen pparallellt eller systemutveckla små-extra-system framför det enhetliga för att hantera datat.

Googles problem är Talanalysens möjligheter

2012-10-26

System för att tolka tal har jag av och till varit road av testa. Längre tillbaka konsultade jag dessutom åt Phoneticom och området berörde om än inte exakt i tekniken också i konsultuppdrag på TeliaSonera, Ericsson och åt ett till svenskt teknikföretag inom området (inte samma inriktning som Phoneticom dock). Speech and Language Processing av Jurafsky, Martin, hör till vad jag läser nästan dagligen trots sliten den blivit och föredrar den oftast som referens inom en rad områden relaterat språkanalys även mer i language än speech processing förvisso och håller den för ett nödvändigt och ibland smidigre alternativ till Manning.


Ett av och till särskilt intresse är upptagning och tolkning av ljud under förhållanden med utmaningar. Ex. från en pratande och ropande folkgrupp i rörelse eller för dokumentation i samband med att utrustningen behöver vara täckt. I Sverige kan du lagligt spela in alla samtal du själv deltar tar i. Därmed inte sagt att det är vad man bör lättsamt. I andra länder behöver lagarna inte tillåta det men en del kan ändå ha intresse av det ex. för att dokumentera övergrepp de tror att de kommer utsättas för. Jag kan dock inte påstå att jag nådde någon särskilt djup kunskap och området beroende på hur situationen ser ut kan vara svårt om du just behöver acceptera åtminstone att det är en möjlighet att dataanalys behöver vara ett lager.


Givet Google's:


  • Intensiva teknikintresse för allt relaterat språk.
  • Representation av mening i kompakta uttryck givet historik via sökresultat och omvänt tolka sidor d.v.s. motsvarar troligt i min modell vad som i nyhetsanalysen sker genom describe till do-projektionen där värden över cirka 10 till 30 dimensioner relaterat intensitet, känslor och riktningar samlas till do-symboler över nyhetskällor där do-symboler för webbsökning skulle motsvara sökorden folk skriver in.
  • Deras andra satsningar runt språk vid sidan om text: bilder, film m.m.
  • Och deras fantastiska framgångar i att utveckla utmärkt fungerande statistiskt-baserad översättningsverktyg mellan en mängd språk. Mycket imponerande!
  • Och de har dessutom stora mängder utmärkt språkstatistik att bygga a priori modeller från som är ohörda för oss vanligt folk utan enorma datahallar utspridda i världen.
  • Och förutom mångt intressantare statistik relaterat bl.a. översättning och uttryckens trolighet relativt vad vi skrivit och sökt på tidigare under dagen och normalt liksom den statistik översättningsverktygen byggt upp finns ju Google Ngram där de verkligen satsat på corpus i big-data-storlek:

Med allt data och så mycket nära besläktat som fungerat bra var det med stor våning jag endast klarade att få deras röststyrning av sökresultat att fungera en gång. Jag blev dessutom illa berörd av att den på något sätt tycks uttrycka ett underligt bias mot termer relaterat kiss och bajs-humor. Man vill dock inte tro att Google för översiktigt suger en sökstatistik som bekräftelse givet kanske en hel del barn som roar sig med funktionen. information science klarade den bra.

Nu när jag skulle visa misslyckandena klarade den faktiskt direkt av entropy. Förklaringen är inte otroligt Googles allt mer märkbara quality assurance system som gissningsvis ganska automatiserat hanterar misslyckanden. distributed topological maps misslyckades dock och det verkar inte otroligt att vi i felet ser en statistisk bedömning byggd på sökstatistik: distributed buffalo chicken map.

Lämnar man teknik-nära välkända referensboken för speech processing är Neurolinguistics av Ingram acceptabel men en aning för tunn och vad jag kommer behöver komplettera för att slippa ifrån en massa utskrifter i bokhyllan. Den indikerar viktiga saker med annorlunda prioritet än de tekniska böckerna och vill inte utesluta att den kan vara bra indata till den som försöker få ordning på den där tjänsten.

Något mer värt att tänka på är roller. Vilken är min roll? Jo jag söker på ungefär samma sak dagligen i försvarlig mängd. Forskningsstudier om språk, kognition, algoritmer, informationsteori och grafer. Vidare fundera kring tema i mening med eller utan tidigare information som stöd.

För Google requires Yahoo blev första förslaget Google retire show och Google requires Yahoo som tredje förslag uppifrån och först andra gången jag prövade.

Gissningsvis har Google inlärningen här väldigt avgränsad till ljuden och definierar beslutsnäten och deras som ofta tror jag bayesianska logik kring vad det prdikterar och vilken reaktion användaren ger efteråt.

Det är inte nödvändigt någon dum strategi. Man ska ha respekt för att sannolikhetsfördelningar rörande ord inte särskilt lätt översätter till den här typen av lösningar som för när sökorden blir inskrivna. Även om användarna söker på exakt samma ord börjar problemet här långt innan man kan väga in sannolikheten för hela ordet eller orden, och låter man denna påverka för tidigt tycks för mig det som oerhört troligt att algoritmen oftare än vettigt kommer dra fel slutsatser. I detta fall tenderar problemet vara talanalysens möjligheter som blir för många där statistiken för de Markov-valen inte bra använder den information given i användarens ljudande.

Däremot med försiktighet när man redan fattat ett beslut om ett antal ord vad man kan jämföra med vad bayesiansk information, Kullberg-Lever-divergens, selectional association, mutual information, T-test eller vilket mått nu Google använder i övrigt runt sökorden förutom Markov-modellerna mellan sökordsförslag.

Jag blev som sagt lite förvånad över att det inte fungerade direkt. Första gången på säkert ett år det hänt med något liknande sådant här. Jag ska fråga Fredrik (deras teknikchef) på Phoneticom om han har någon idé eller bild av ungefär hur väl han tycker att den fungerar.

Det kan ju trots allt också tänkas vara någon tillfällig störning här runt tempest för skärmen eller vad som helst.

Eller att Googles PR-avdelning i analys kommit fram till att Google behöver några inte viktiga tjänster men väl synliga runt viktigt som inte ska fungera kalasbra från början så det märks att Google får slita med saker och ting dom också, och vi vanliga informationssökare får något att hånle åt. Den sista förklaringen vill jag inte alls uteslut därför att det är mycket tänkbart att just det vore bra för Google.

Föga värde av räntesänkningen

Inte direkt förvånande tycker jag har knappast någon positiv effekt av räntesänkningen visat sig. Det har ju inte tillfört nämnvärt värde för andra ekonomier i tydligare problem färskt relaterat de sista åren.

Däremot är det mycket möjligt att mängden kapital som investeras kommande utifrån minskar liksom valutans värde. Svag valuta gynnar skogsindustri och diverse konceptuellt liknande 1970-talets teco-industri och varvsindustri. Statliga stöd och lågt värderad valuta räddade inte varvsindustri vilket däremot mer troligt ett relativt andra länder intensivare teknikutveckling framtvingat och det i tid istället genom framförhållning i industri såväl som politiska verksamhetssystem.

Jag håller det inte otroligt att vi förutom de politiskt styrda (på båda sidor) riktade lånen från Kina till diverse ekonomier att flöde i investeringar från en mängd aktörer utanför landet kommer fortsätta. Jämför gärna med nyheten som nyligen uppmärksammade det i Sun Herald:


En just nu lite högre ränta med en färsk historik av god valuta-värdering - rent av lite ökande - är ytterst tilltalande för aktörer som medierar ut större summor därför att det ger en viss default-grund även om kanske inte omedelbart har lust att detalj-engagera sig i särskilda investeringar (jfr för det senare köpet av Volvo där vi tidigare när aktuellt de risker ännu realiserade diskuterades här och ett par som återstår att visa sig men säkert kommer troligt innan året är slut, och för det första köp av företagsobligationer helt klart underutnyttjat bland svenska företag för finansiering just nu vilket också skulle ge bank-oligpolen välbehövlig konkurrens).

Betänk att en överåterkommande komponent hos länder som drabbats i denna upplevda "kris" är kapitalbrist och ingen väsentlig effekt av räntesänkning. Det första verkar därför inte dumt att försöka undvika.

Visuell uppmärksamhet kanske påverkas av religion

Med visuell uppmärksamhet avser vi här magnituden på omfattningen av vår uppmärksamhet vi vägar in. Grovt om hela Sverige-konceptet påverkar åtminstone lite eller om endast det lokala perspektivet styr.

Möjligheterna följande studie i Plosone, 2008, kan ha värde långt utanför de kalvinister som studerades:


Tolkar vi fenomenet bredare kanske vi snarare vill se det som att vi tenderar att tränas till vilket perspektiv på omvärlden vi för olika frågor tenderar att utgå från. Låt oss ta reaktionen nyligen i arabvärlden på en uppfattat arab-muslin-fientlig video publicerad på internet (antagligen var den just fientlig men eftersom jag inte tittat på den själv eller läst någon analys av innehållet väljer vi det neutralare begreppet uppfattat vilket uppenbart inte är felaktigt oavsett vad som är det troligare genomsnittliga uppfattade i kulturen Sverige) kan vi ta konceptet till att konstatera:

  • Hur man uppfattar global-förändring och globala händelser är oerhört påverkat av den information man får.
  • Den muslimska tron är tämligen fokuserad på ett globalt perspektiv.
  • I många regioner representerar information relaterat den muslimska trosföreställningen en stor del av den globala information man tar in.
  • Troligt delvis kan vi förklara den arabiska våren med mer varierad information om omvärlden vilken sätter den egna situationen i relation till andra delar av världen.

Arab-muslim-fientliga videor tvivlar jag inte på publiceras väldigt ofta på nätet och jag skulle bli lätt förvånad om någon egentlig kompetens i skapandet av denna gjorde den mer "effektiv". Snarare handlar det om att informationen nådde ut till breda massor vilket kanske var en effekt styrd med syfte just till protester.

Propaganda-effekten ger oss att människan för händelser som dessa tenderar att reagera mycket mer när stimulansen är ny. Ökad tillgång till information - eller rått uttryckt att folk nås av mycket mer liknande och därmed vänjer sig vid det och liksom alla vi med internet sedan många år lär sig att filtrera bort det. Här gäller att uttrycket av ett mycket begränsat antal personer kom att tolkas som symboliskt för närmare hela USA än en person. Det är vad propaganda-effekten med tiden kommer förändra.

Vi inser - eller väljer att anta det som sant från studien - att både skillnad och stor likhet föreligger mellan när vi besöker en bergsby i Schweiz resp. Afganistan.

I båda fallen är den lokala effekten viktig som relativt den normala nivån av händelser. Också finns likhet i den globala internationella kopplingen men där vi intressantare kan spekulera om en skillnad. I det senare fallet är det naturliga från inlärd tidigare möte av information om omvärlden att tolka globalt från trosföreställningen medan det för Schweiz är mindre troligt därför att deras kristna "anpassning" varken är speciellt vanlig internationellt, särskilt präglad av samarbete mellan kalvinister i olika delar av världen och vidare har som uttryckt i studien ett ganska tydligt lokalt fokus. Det är på så sätt ganska naturligt att Schweiz valt att prioritera internationellt-oberoende och trots bl.a. genom det en hel del internationellt engagemang genom den moderna historien själva i sådant är föga uttryckta på sätt där man spontant associerar eller tänker på den "inställningen Schweiz hade" eller deras förslag.

Ny Google Ngram annoterad: Klassbaserad prediktion i n-gram tycks möjlig

2012-10-24
När jag behövde ersätta 2-gram filer jag råkat radera idag såg jag att Google Ngram uppdaterats. Dels har av allt att döma mängden data om ngram co-occurance (viss risk att jag bedömde fel från antal och storlek givet övriga uppdateringar) men viktigare finns nu information om de viktigaste ordklasserna (ex. markörer för adjektiv och verb).

Den fördel jag ser (egentligen den enda jag ser för egen del och gissar för de flesta om metoden är mer allmän känd) är att det går att förbättra prediktion i ngram-modell ganska tydligt samtidigt som problematik med att vissa co-occurance kombinationer saknas lättare kan hanteras.

Tänker vi oss enklaste möjliga n-gram modell predikterar vi nästa ord från föregåendes "sannolikhet" och jag sätter citationstecken därför att det mindre är sannolikhet och mer en ganska dålig approximation via ett s.k. Markov-antagande.

För ngram-modeller som gör prediktioner som bygger på fler ord bakåt blir det ganska snabbt bättre. Ofta uppges att förbättringen når "praktiskt" bästa värde vid 5-grammen varefter värdet föga ökar medan givetvis minnes- och beräkningskostnad ökar desto mer för varje steg. Det gäller vanliga ngram-modeller men med varianter går det visst att nå bättre resultat med mer data än 5-gram beroende på vad du vill göra. För att bara prediktera orden framför räcker det dock säkert utmärkt medan andra slutsatser vinner på mer data bakåt.

Kan vi öka värdet av prediktionen från n-gram modell som bygger på n stycken ord bakåt genom att utnyttja statistik rörande sambanden ex. mellan ordklasser som adjektiv och verb vinner vi normalt alltid på det rätt gjort därför att medan vi expanderar antalet ord bakåt vi använder ökar beräknings- och minneskostnad ordentligt i varje steg medan semantiskt information fint går att lägga med en "linjär-kostnad" billigare (detta är dock något beroende av hur tillämpningen exakt är rörande vad som är möjligt där tillämpningar för mig mindre har att göra med språkrader och mer grupper av aktiverade koncept relaterade med varandra i komplexa grafer).

Förutsättningen för att det ska vara meningsfullt är så klart att bra algoritmer med faktiskt värde utan att vara plågsamt slöa. IBM publicerade några stycken tidigt (någon gång under 1990-talet) och även om jag är säker på att många varianter publicerats - och inte otroligt bättre - tror jag att för normala applikationer ger de ungefär det värde man rimligt kan förvänta sig.

Utan hänsyn till kunskap från ordklassen skulle enklaste tänkbara n-gram modell prediktera med approximationen:

    P ( nästa ord vi söker GIVET alla föregående ord i texten ) = P ( nästa ord vi söker GIVET föregående ord )

När vi lägger till kunskap om ordklassen är enklaste tänkbara modell under Markov-antagande som både utnyttjar föregående ord och en viss ordklass:

    P ( nästa ord vi söker GIVET alla föregående ord i texten ) = P ( ordklass för ordet vi söker GIVET ordklass för föregående ord) * P ( ordet vi söker GIVET ordklass )

Jag tror varianten ovan stämmer med hur IBM uttryckte den ena av modellerna. Praktiskt är just denna man kanske hellre inte väljer. Den gör en del antagande rörande antalet ordklasser eller kategorier vi anser möjliga för ordet som sällan är enkla att få att fungera. Tänker och minns jag rätt hamnar man i att man bäst behöver ha en kategori per ord.

Den andra varianten är bättre och har kanske mindre kända värden för situationer där vi gör operationer vi kan jämföra med översättning. Tänkbart relevant för att ta dokument, nyheter, webbsidor, databas-information m.m. för att sammanfatta ner till ett meta-språk för vidare analys eller för att skapa en behändig sammanfattning till sökresultat eller annat (samma forskare vid IBM har förövrigt publicerat en del om översättning men minns jag rätt rörande andra algoritmer).

Ett värde troligt intressantare för fler är att det är möjligt att hantera brist på statistik om sam-förekomst på ett till sätt. Oavsett hur mycket testdata man samlar på sig är det aldrig nog. Laplace-smoothing, Good turing m.m. är ju vad många använder men har begränsningar och i vissa applikationer där fel just nära noll får stort avtryck olämpliga (kanske är rent av att kasta situationer där avsaknaden av datat inträffar att föredra för att hämta ett nytt sample hellre än att riskera modellernas korrekthet för vad som är mycket troligare). Genom att utnyttja markeringarna för ordklasser för att skapa kluster passande vad vi vill ha ngram-modellen till (själv skulle jag tänkbart ex. acceptera taggen för verb varande ett verb och sedan ta ut dess subklass för att beräkna dess nivå i concretness och abstract, och göra en liknande operation med adjektiv, men ev. strunta i resten).

En till möjlighet är att utnyttja att Google Ngram just sträcker sig långt tillbaka i tiden rörande indata och innehåller en försvarlig andel felstavningar genom att utnyttja ordklasserna tillsammans med annan statistik och så långt det går givetvis ev. strikt kunskap man har för att samla ord med likartad betydelse oavsett stavfel eller genom åren ändrad stavning i kluster för att därigenom hantera ex. ovanliga felstavningar. Det senare är mindre intressant för mig men troligt en bra möjlighet för många applikationer och IT-system som behöver hantera varierat språk som kommer in.

Vidare är det lättare att ta ngram-statistiken för engelskan och kombinera ex. med den för japanska för att i mötet ta ut mer kunskap om orden. Det är dock troligt enklare med ev. också större värde att göra via enklare vägar som Wikipedia. Men det är möjligt via varianter här också.

Möjlighet för studenter som vill komma före i karriären


Oavsett copyright hade jag för det här datat gärna sett en rimligt prissatt kommersiell lösning innebärande att någon annan sparar ner alla filerna, med alla artiklar, och allt annat intressant på en lite mobil-hårddisk som sedan kom hemskickad. Det är tidsödande att ladda ner och sedan ska det packas upp och extraheras till internt-format. Och sedan i värsta fall upptäcker man att en fil råkat komma två gånger utan feldetektion och så får man börja om med extraktionen.

Däremot ett passande projekt för t.ex. en datastudent för att få erfarenhet av att arbeta mot kravspecifikation av datarepresentation (den verklighetsförankring arbetsgivare alltid tittar efter). Dessutom är det big data... Det enda inom data som är manligt.

Jag skulle här rent av om tjänsten kommer med bevakning av nya uppdateringar förutom 500 - 1500 kr mobil-hårddisk kunna tänka mig en ersättning av rent av 200 kr + porta (eller kostnad bussbiljett för hit-resan) vilket verkligen är mer än vad det bör ta i tid för någon yngre och mindre disträ än vad jag är. En verkligt fin möjlighet både för att tjäna extra pengar och bygga upp ett kraftfullt CV redan innan universitet är klart!

Inför presidentvalet: Starkare krafter än musik sätter lyriken i brand

Kanske kan vi se på mötet mellan musik och lyrik som att musiken höjer emotionell potens där lyrik vi annars troligen inte hade lyssnat på nu databehandlas adderande värde till musiken. Och tas emot i en värld där där ovanligt emotionellt laddade symboler inte bara kan tas med i hög och varierad densitet utan ofta upprepats gång på gång.

Utan musik krävs verkligen att motivation byggs upp från annan kraft om "lyriken" rör annat än konkret nära vårt eget liv. Du kan prata ofta och regelbundet med en gammal vän även om de upprepar sig (lite som musik-lyrikens verser) men det är mindre troligt att du tycker att det är annat än fel att du skulle lyssna på en kommunpolitiker som vecka efter vecka säger samma sak.

För det kommande presidentval gäller att motivation finns och många som sällan annars följer politiska debatter att låta hjärnan databehandla debatt-lyriken: Nu blir [Red. av Hans nu efter uppföljning mätningar: blev] Romney omtyckt: Obama-operation gick fel.

Det är kanske ett dåligt tankeexperiment att för ett tag välja att betrakta politisk-debatt från detta perspektiv.

Idéen att män mer sannolikt skriver poesi utan tidigare intresse relaterat kvinnor är inte otroligt. Där adderar den romantiska möjligheten motivation till insatsen och kan inducera motsvarande tyngd musiken ger hos kvinnan. Lika lite som sånglyrik krävs något högre konstnärligt värde där lyriken bärs upp av underliggande bärande kraft.



"Sweat baby sweat baby sex is a Texas drought
Me and you do the kind of stuff that only Prince would sing about
So put your hands down my pants and I'll bet you'll feel nuts
Yes I'm Siskel, yes I'm Ebert and you're getting two thumbs up"

Common sense: Arkitektur

Det tycktes vara en bra idé att rita allt relaterat till common sense därför att det är lätt att tappa bort subsystem särskilt när man förändrar arkitekturen. Nu fick jag inte rum med annat än huvuddelarna (och av dessa vad som ej är konfigurerbart på avsnitt där det blev trångt på bilden) och får ta och inhandla dom här väldigt stora millimeterpapprena LundeQ säljer i Uppsala.

Jag tar och publicerar skissen jag gjorde i Google Drawings här i väntan på det som uppföljning till Vid medvetande igen och Bing Maps: NASA World Wind förutom OpenStreetMaps.

Vad som konceptuellt skiljer sig mot vad man ofta sätter i shallow resp. deep reasoning är att i min skiss ser vi att det mesta relaterat kategorier, typer, vad saker är o.s.v. räknas som ytlig kunskap. Jag menar att det är korrekt därför att inte göra det är bara att i bästa fall lura sig själv: det är ytlig kunskap. Att en människa eller ett system kan vettigt spekulera om ett ämne, arttyp eller liknande något hör till är inte djup kunskap.

I deep understanding är delen "särskild informationsinhämtning" till sin natur sådan att den inte är helt automatiserad utan där ligger informationsimport som kräver att människan runt system självorganiserar datakod för att få in informationen. Det är vanligen datakällor som importeras en gång eller mer sällan återkommande t.ex. alla nyheter en viss tidning publicerat, alla forskningsrapporter DoD gjort publika o.s.v., extraktion av Wikipedias infoboxar o.s.v. Vad som därefter representeras i intelligensens långtidsminne i någon form.

Statistisk kunskap om olika ämnen är lagd i deep understanding därför att den fodrar logik och samarbete med andra delar som är mer direkt problem och beslutsrelaterat inte nödvändigtvis av samma standardtyp vi har för resonemang kring kategorier med eller utan statistika uppgifter.

Det skulle vara intressant om Deep Learning (DARPA.mil) kom att göra någon liknande skiss över deras antar jag ännu bara planer. Trots allt är det sällan någon försöker göra ett brett system med kreativförståelse och resonemangsförmåga (det definierar i princip betydelsen jag tror man måste lägga i begreppet om man bra ska kunna lösa den typen av problem som ofta nämns och som inte redan är lösta i publicerad forskning hemmahörande i shallow-understanding).

Egentligen mest för karma för förslaget ovan tog jag med i deep understanding delar relaterade till att skapa tracer signaturer mindre beroende av språk i vanlig mening trots att jag ej har dom delarna uppkonfigurerade nu (mer eller mindre slutförda tidigt under sommaren 2010 tror jag men aldrig som aktiva integrerade delar i systemet: minns jag rätt klarar de kulturell-hemvist konfigurerat riktat ex. California hippi (corpus från forskare UCLA m.m. vs Harvard-följt-av-något-komiskt-relaterat också 1960-talet jag ej minns nu där de ju medan Kalifornien i stereotypernas falska värld roade sig med kaktusar och svampar fördjupade sig i planekonomins idé att en byråkratisk-elit - kanske utbildad vid Harvard - med matematisk exakthet kan få ett helt land att fungera bättre än när det självorganiserar sig med hjälp av vanliga inte lika ekonomiskt duktiga människor t.ex. i butiken väljande vara ) men väldigt långsamt samtidigt med övriga signatur-lösningen vilket dock troligare är ett programmeringsproblem). Lite lagom idé-inspiration.

Klicka på bilden för att se den förstorad (helt säkert nödvändigt för nästan alla).





Nu blir Romney omtyckt: Obama-operation gick fel

2012-10-23
Möjligheten att Romney hade förutsättningar att gynnas av Obamas debatt-stil med en möjlig effekt motsvarande den Olof Palme inducerade till Olof Johansson diskuterade jag i:


Tråkigt nog blev den möjligheten oprövad under den första debatten därför att President Obama valde en mycket försiktig debatt-stil.

Vanliga åsikter efter första debatten var att strategin hade missgynnat presidenten och särskilt nu i sista debatten tog han fram det mesta av den aggressivare debatt-stil vi såväl känner igen.

Romney skötte sig bra i debatten. Han kändes kompetent och indikerade det viktiga i frågorna samtidigt som han:

  1. Inte lade sig för långt ifrån presidenten.
  2. Vilket ger distans för presidentens mer "aggressiva" angrepp där dessa i större utsträckning visar något av Obama än om målet.
  3. Medan Obama argumenterade aggressivt klarade Romney att "uttrycka" Olof Johansson naturen men i en för USA bättre anpassad version och utan att verka svag eller inkompetent.
  4. Mycket av det låg i kroppsspråk där Romney också gynnades just avseende detta av relativ-längd jämfört med presidenten. Hade debatten varit stående bedömer jag det som svårare att vända högre längd hos motståndaren till fördel.

Det enda Obama behövde klara av i den här debatten var att få ett möjligt signfikant problem indikerat vilket är en fråga som för denna normalt bör vara given redan innan rörande ev. problemområden d.v.s. vad okänt gäller endast att Romney inte går från debatten med en väsentlig fördel han saknade innan.

Obama klarade inte detta. Debatten bör bedömer jag tydligt gynna Romney. Han har haft problem med att han för viktiga flyttbara väljare inte lätt blivit omtyckt. Obama tror jag har ändrat det. Han har gjort Romney mänsklig för stora grupper av amerikaner och praktiskt skillnad är att nu kan Romney vinna valet och de verktyg Obama är mest stark i med tydliga angrepp är nu inte alls lika effektiva.

Lösningen för Obama varken var att söka undvika effekten eller senare välja att inte längre göra det. Han borde följt sin natur hela vägen men adderat verktyg och argument som minskar riskerna och problemen och som bättre uttryckt problematik hos Romney. Han missade på det.

Ett bra steg för Romney nu är något relativt information i publik debatt än mycket konkret relaterat problem i ex. Libyen, Syrien, Kina eller Irak där ett väsentligt konkretiserat säkerhetspolitiskt misstag uppdagas inkluderande taktiskt eller strategiskt Vitahuset. Det skulle förvanda Romney's kritik från att hos många vara argument i en debatt till att bli verklighet. En hypotesprövning vars resultat indikerar att stora delar av Romney-kritik är konkret verklighet.

Ev. kanske jag ger ett exempel på ett möjligt argument senare med tillhörande konkretisering (där dock konkretisering inte är high end quality och redan publik där här något nytt är vad som är magi) där säkerhetspolitisk-risk binds till ekonomin.

Bing Maps: NASA World Wind förutom OpenStreetMaps

2012-10-18

Tidigare har jag redan nämnt att jag upplevde att Bing Maps skapats med Openstreetmap.org. Nu när jag använt den några gånger till är jag så säker på det jag kan bli. Jag gillar också deras grafiska gränssnitt som är väldigt snabbt och lätt att presentera utan redundant-information som kan störa "maping". Det är en mycket lämplig plattform för att skapa anpassade kartlösningar att rekommendera ex. för affärssystem, supply-management-lösningar, sport-presentation och all seriös data-presentation på data (många praktiska exempel finns bland alla amerikanska myndigheter där det är den vanliga plattformen ex. Geomac: Wildland fire support), och mer genomtänkta och gatu-praktiska försök till övergripande förändring i diktaturer där GEO ofta blir den logiska gemensamma datarepresentationen för praktiska skeenden just när hastigheten på händelser ökar.


Jag märkte idag när jag använde Bing Maps att deras Birds Eye och Aerial är byggd på NASA:s World Wind. Den är sedan några år fritt-tillgänglig och öppenkällkod. Inga av de konkreta funktioner eller nivån på den visuella presentationen upplever jag ligger utanför vad vem som helst kan bygga med utgångspunkt från World Wind tillsammans med färdiga lösningar att utgå från och det samma gäller deras kartlösning utanför Birds Eye och Aerial för vilken Open Street Map fångar allt i gränssnittet jag prövad.


När jag experimenterade närmare med den 2009 och igen 2010 noterade jag en del problem att vara uppmärksam på. GEO kan vi ju se som en funktion av tid men det är inte lätt att få fungerande med World Wind. Åtminstone för en typ av presentation det har betydelse för märkte jag att Microsoft heller inte hanterat det. Det förvånar mig och man hade kunnat förvänta sig i och med deras "visuella presentationskultur" i brist på lösning för hantering skugga och solens-position relativt kartpositionen istället hade hanterat den annars övergripande på kartan överdrivna mörka tonerna man får (p.s.s. är jag lite förvånad över att man inte löst åtminstone några av de "default-problemen" Open Street Map har).


För den intresserad av aktion-drivna kartor ex. för att följa tävlingar, för plattformar relaterade nöje och gaming, synkronisering protester m.m. finns en del exempel på applikationer kanske lättare att utgå från.


1. För hanterande och presentation av positioner och avstånd m.m. på kartan finns MGRS Graticule:


"Shows visualization of the Military Grid Reference System (MGRS) as a graticule overlayed on the globe’s surface."



2. DARPA ARGUS-IS testade jag aldrig men jag tror den kanske är en bättre utgångspunkt än några av övriga applikationer för att hantera rörliga luft-objekt i 3D:


"'The mission of the Autonomous Real-time Ground Ubiquitous Surveillance – Imaging System (ARGUS-IS) program is to provide military users a flexible and responsive capability to find, track and monitor events and activities of interest on a continuous basis in areas of interest.'

'The ground processing subsystem enables users to interact with the ARGUS-IS airborne systems. The user interface, based on NASA World Wind software, facilitates specification of areas where imagery is desired throughout the entire ARGUS-IS field of view.'"



3. Springfield, Oregon Demo för presentation av data och attribut i text-fält tillsammans med kartorna:



"World Wind Java Springfield, Oregon Demo

The Springfield, Oregon Demo application demonstrates using the World Wind Java SDK to simultaneously display multiple data sources within a small area of interest. Springfield, Oregon is shown with data typically used by city planners: LIDAR raster elevations, high-resolution aerial imagery, and high-resolution vector lines highlighting city features."

Dokumentation och exempelkod m.m. hittas via Goworldwind.org. Det är nog vad de flesta vinner på att börja med innan man senare vid behov av mer dokumentation använder World Wind Central som kan vara av och till ganska krävande i kunskap om World Wind.


Ett forum finns också där vi bl.a. har ett avsnitt för add ons till World Wind. En av de viktigaste för de flesta är tveklöst Open Street Map (goworldwind.org).


På svenska: Att bygga lösningar med kartor och om Earth Wind

Resurser på svenska för att bygga lösningar med kartor inkl. information om väldigt många andra tids- och kostnadseffektiva lösningar (normalt öppenkällkod eller motsvarande) på Hans Husman om Media:



Troligt ganska många fler exempel på lösningar och plattformar finns här på bloggen som ej hittas via resurssidorna. Den som söker runt lär hitta en hel del.


Nyfiken vital:



Det finns dessutom idag en mängd lösningar som använder dessa kartlösningar. Exempel på webben finns därför i mängd om man söker runt lite. Även om de initialt tar lite tid att lära sig är ingen av dem absolut svåra att anpassa.

Vid medvetande igen

2012-10-16



"I'm not aware of too many things,

but I know what I know if you know what I mean.

Philosophy is the talk on a cereal box.

Religion is the smile on a dog."


[...]

"Choke me in the shallow water before I get too deep."


Skillnaden i mening mellan säg awareness och consciousness hör till vad jag ofta upplevt säger konkret-praktiskt mycket om hur vårt medvetande fungerar. De viktsystem så vanliga både i praktiskt extrahering rörande konfidens om koppling, emotionella viktsystem m.m. är praktiskt lösningar på praktiska problem och vad jag själv ständigt använder i olika versioner. Sådana generaliserar dock i mätvärden samtidigt som jag tror att det tenderar till att leda våra tankar i fel riktning.


Det subsystem jag skapade närmast den verklighet jag tror nyanser uttrycker var Mer eller mindre. Tråkigt nog råkade den sista versionen ut för dataläckage mellan "nyans-filerna" och jag har sedan dess inte arbetat på praktiska delar som fodrar mer eller mindre annat än i "viktmeningen" egendimensioner som up - down, positiv - negativ o.s.v. fångar mer övergripande sammanfattande utan just nyansernas upplösning. Mer eller mindre om jag kommer ihåg rätt förvaltar troligt inte fler än 500 - 1000 nyaans-viktfiler var och en som givit ett definierat namn av typen upp-ner, mer-mindre där varje sida av definitionen identifierar typiskt mellan 20 - 15000 (de större rör definitioner direkt eller nära övergripande egendimensioner) begrepp.


Poängen med att se det som Mer eller mindre att vi kan definiera aktivering riktat mot en subkultur, organisation eller ännu mer exakt nyckelpersoner i sådana, eller kundgrupper.


Vi behöver inte förstå, kunna beskriva, uttrycka regler, senses, cosinus-similarity via bag of word givna vektorer o.s.v. mellan mening. Entiteterna vi borrar uttrycker dom själva och givet att vi tämligen grovt har definitionsfilerna på vad som ligger väsentligt närmare den ena "motsatsen" får vi effekten att när vi hanterar dem mångsidigt och förstår deras relativa positioner i den n-dimensionella hyperkub det skapar givet entiteten relativt något väsentligt annorlunda och relativt något annat väsentligt annorlunda från de båda andra där de två senare punkterna gör att vi mycket enklare kan beräkna euklidiska avstånd utan behov av en absoluta skalor.


Konceptuellt intressant. Resultatmässigt i tolkning väldigt kraftigt. I minnesanvändning och CPU-cykler direkt frustrerande kostsamt. Men i sitt område för mig första generationen av något nu större och mer sammanfört.


Jag nämnde i en postning tror jag 2010 att vi hade en väsentligt stor upphandling på-gång i det här området. En svensk hade roligt åt det och menade att jag missat att entiteten redan införskaffat och trodde sig veta höll tillräcklig kvalitet (står möjligheter från vetenskap någonsin stilla och är inte alltid för den som inte givit upp striden den väsentliga skillnaden mot vilka av möjligheterna du tagit det viktiga). Nyligen såg att man börjat förbereda sig mer konkret mot vad jag tror är det första i en vad som praktiskt blir flera projekt. Spekulativt tror jag att det indikerar bättre vad man egentligen kan och behöver som resultat av införande. Det är det normala för den här typen av ganska stora projekt för entiteter som rör sig med stor budget.


I Deep Learning (DARPA) ligger tror jag också en sida i vad vi kan kalla "distribuerade-sensor-konceptet" d.v.s. man upplever att man har folk lite varstans, pansarvagnar, satelliter, flygplan o.s.v. som suger en massa data man förvisso drar en massa konkreta slutsatser om men misstanken om att "djupare slutsatser" väcks.


Av allt jag sett som dom publicerat än i alla fall tycks den "teoretiska-kulturen" vara väldigt inriktad på den praktiskt teoretiska grunden ex. Manning's Foundations of Statistical Natural Language Processing excellent sammanfattar.
Diverse idag ganska etablerade statistiska algoritmer ovanpå och tillsammans med så mycket mer regelbaserat man bara kan hämta upp kostnadseffektivt från diverse system och lösningar där det redan gjorts, och med en frisk-förhoppning om var sådant ännu inte presterar riktigt ändå fram är det vad "common sense" skapat i big-data typ "nerver ending language" säkert löser och när man som här nog hör till entiteter där den praktiska verkligheten redan bränt dem några på det vad man tänker sig att antingen kvantdatorer eller memristor ska lösa (The CIA and Jeff Bezos Bet on Quantum Computing). En viktig kontrast jag har en känsla av dom än så länge missat är att titta bakåt på gamla projekt DoD redan haft genom åren i det här området. Jag tog själv nyligen ner en hel del data kring det genom att spindla en av deras publika sökmotorer.


Praktiskt för den het på common sense verkar ConceptNet jag hittade via en ReVerb (common sense web-miner) hör till vad de bättre strukturerade jag sett men jag har inte hunnit använda själva datat och inte otroligt är "kvaliteten" ungefär vad man lärt sig förvänta från andra liknande lösningar (common sense är bara sexigt i religiös tro på en enkel-lösning och praktiskt gör det ont och för personer känsla som jag kan det orsaka PTSD liknande symptom med återkommande mardrömmar).


RaVerb intresserar mig för attjämföra en nästa eventuell dataimport från NELL: Never-Ending Language Learning mot och ev. direkt importera från om den verkar bättre.


Common sense för mig är dock inte riktigt vad man generellt menar. I mening närmast allmän betydelse är det inte mer än en konceptuell lösning man hänger på från vad som är bäst för att kunna resonera enkelt ovanpå vad som händer underliggande (vad jag just nu använder en kombination av egna extraktioner från Wikipedia och DBPedia men ev. vad Conceptnet tänkbart är en bättre lösning för).


Common sense i vad jag söker i import från NELL och Raverb handlar absolut inte om att kunna tolka och besluta vad något är. Sådana resonemang i meningen här är dessutom bara vad som skulle bli cirkel-argumentation: Kaffe är en dryck, en dryck är vad man kallar kaffe, läsk, och som man dricker, dricker gör man för att hindra vätskeförlust o.s.v. och ändå missar det just det mer intressanta i föränderliga händelser, ändrade referenssystem, genom att göra antaganden (i dom sammanhang där begreppet uttrycker viss religiös tro om en via web-big-data enkel lösning) om att common sense också klarar uttrycka och fånga föreställningar, tro, idéer, motiv, sammanhang o.s.v. samtidigt som själva antagandet just är att det är etablerat på annat sätt. Det enda jag vill ha från t.ex. NELL är möjligheterna och utan antagande om mening eller något annat. Möjligheten att begrepp är besläktade.


Själva konceptet att man kan förstå hur mening kan konvergeras utan bergen och dalarna som styr var vi hamnar är vad vi borrar berättar för oss vad de ligger tror jag är dyrt både i systemutveckling och antal-datorer som krävs oavsett om det handlar om produktsystem, expertsystem, neuronnät, självorganiserade-kartor eller något annat. Din lösning måste vara sådan att du accepterar att vad du borrar indirekt berättar för dig vad du menar, och inte bygga på idéen att common sense innan förklarat för dig vad saker är. Och samtidigt en lika stor utmaning måste du hindra den typ av "galenskap", "övertolkning" o.s.v. både psykotiska liksom kraftigt motiverade kan hamna i (jfr Hans Holmér och kurderna eller CIA om den arabiska tv-kanalen).


Biståndets affärsmöjligheter & USA's frestanda riskkapital

2012-10-11
Kalifornien är ett abstrakt-koncept lika kulturellt levande som sinnets direkta avbildning. En av de sista riktiga nybyggare-delstaterna och predikterande vad som komma skulle var filmindustrin bland de sista som kom på jakt efter frihet i företagande såväl som tanke. I modern tid följda av både hippies och IT-företag. Där finns även diversity i kultur stabilt etablerad sedan så länge - en gång en del av spanien - och med en idag levande indian-kultur som kan ge och få näring från ett allmän kreativt förhållningssätt till information oavsett det relativa avståndet till dig. Möten i kultur hos fler handlar oftare om att se möjligheter.

Det är egenskaper vi inte på riktigt samma sätt men i potentiella värden också har i Sverige. Dom bör vi vara rädda om. Kanske oftare än i Kalifornien är möten har ofta mer i organisationer av människor och mindre ofta i smågrupper. Jag har ex. noterat Sveriges ivriga intresse för allt från ontologier till Östersjön i NATOS samarbeten, liksom allt möjligt relaterat open data inom EU (involverade t.ex. i United Kingdom) - förberedande en stor satsning här kanske?

Ibland slår mötena så klart fel. Det är bra om man kan bygga värdefull vänskap. Värdefull vänskap behöver inte vara ekonomiska affärer. Möten mellan kulturer tenderar när de sker med respekt ändå ge värden indirekt också inom ekonomi, och viktigare kan vi lära saker som ger oss nya idéer till att lösa viktiga problem resp. att risken för konflikt kan minska (inte mest avseende risken för Sverige att hamna i krig som att kontaktytorna in i problematiska geo-områden i kris med förståelse och kunskap kan göra det lättare att försöka minska lidandet).

Moral och respekt är viktigt. Handlar man med djävulen krävs försiktiga avvägningar. Ibland kan det vara affärer med tänkbart viktiga värden. Kommunikation som telekom skapar förutsättningar att till samtal och det är bra. Det kan ligga andra något besläktade värden vilka jag för TeliaSoner inte kan bedöma eller ens gissa kring, och jag har heller inte känt mig motiverad att söka borra svaret kring (vilket jag förövrigt inte helt säkert kan göra).

Lämnar vi de olyckliga Telia-agerandet och tänker på något trevligare ser jag potentiellt värde för Sverige kvar att hämta upp genom att bygga vidare på vårt starka engagemang för demokrati och mänskliga rättigheter. Förutom att det hjälper till att skapa en bättre värld bygger det praktisk kunskap om kulturerna vilket har långsiktigt värde i senare kommersiella projekt. Att man förstår landets kultur, dess folk och talar deras språk är viktigt.

Ofta sker biståndsprojekt fortfarande respektlöst. Man inser inte riktigt tror jag hur oerhört känsligt det är för dom man möter. Den ökade känsligheten är en del av de kunskap som är viktigt att bygga förståelse om redan innan allt praktiskt.

I länder som nu nått längre - kanske Sydafrika - finns ambitiösa och kommersiellt värdefulla projekt av former man idag idag inte alls arbetar med. Jag har inte försökt bedöma just exemplets meriter specifikt och vi inser att en mängd liknande komponenter skulle ingå. Det illustrerar endast konceptet där vi söker etablera riktade långsiktiga möten i områden där konkret värde finns både för Sydafrika och Sverige.

  • Antag att vi förlägger en mindre svensk Högskola inom civilingenjörs-programmen ex. Tekniskt fysik för en inriktning d.v.s. åtminstone förr två år förutom examensarbete.
  • Den systemvetenskapliga grenen bör vara lika funktionell där.
  • Förutom de svenska eleverna accepterar vi lokala.
  • Samtidigt sam-finansierar man en långsiktig halv-kommersiell forskningssatsning ex. telekom-produkter riktade mot den mer krävande landsbygden (jämför med ett kommersiellt område där en av de kinesiska lösningarna tenderar att ta bra med affärer) eller annat lämpligt.
  • Motsvarande projekt initieras i Sverige anpassad från det omvända perspektivet för båda d.v.s. likartat i tänk och målsättning men kanske inte alls praktiskt lika det andra i allt (eller så finns kanske värden med t.ex. likhet i bransch i båda länderna).

Skilt mot många andra studentutbyten gör vi det ambitiöst riktat i ett avgränsat område geografiskt, affärsmässigt och tekniskt. Där det sker samverkande med andra besläktade åtgärder som också ligger i gränszonen mellan tekniskutbildning och kommersiella företag. Detta gäller givetvis också studenterna som träffas vilka från båda grupperna troligt kommer arbeta i samma bransch och av och till samma företag eller företag i affärsrelationer med varandra.

Riskkapital finns nog i Sverige också


Själv fick jag förövrigt just ett löst erbjudande om riskkapital från en entitet i Kalifornien för en tidigare än jag tänkt om jag väljer en sådan satsning. Sedan tidigare vet jag också att jag kan få pengar till just det från en större vapenleverantörer också något produktifierande i liknande områden relaterat military intelligence. Det är jag lite mer skeptisk till. Vapenindustri fyller sin funktion men här gäller ju det andra användningsområden jag tror kan skapa inte bara bra affärer utan också kanske konkret nytta istället blir del av stöd system till krigslösningar.

Jag har inte sett över svenska möjligheter än men när jag får tid och har samtliga tre användargränssnitten med underliggande konfigurationer mer klara börjar det väl bli aktuellt. Sverige menar jag är att föredra. Jag känner mig inte stressad. I dom områden där modell och implementation presterar där annat inte gör det går det bra, och dom teknikområden jag finner problematiska hör till vad någon svårighet att hantera genom inköpt kompetens, lösningar och bättre hårdvara löser utan större problem (ex. att parsa ut faktisk mening från nyheter, patentansökningar m.m. med motsvarande de idag bättre algoritmerna där mindre av specifikt definierade fall för det krävs hör inte till vad jag ens prövar in prototyp inom, kompetens OLAP m.m. liknande, distribuerade server vore också utmärkt). Bättre att göra de grundläggande delarna så att jag är nöjd med dem rörande modell och illustration av dess delar istället för ett tidigt allt för stort fokus på applikationslagren. Det finns god distans mot det mesta liknande vilket har känt lugnande så det sista i modell-motsvarighet verkligt viktiga delsystemet ger jag tid att göra mycket bättre än ex. nyhetsanalysen nu behöver (den har redan detta förenklat inför). Förra året var jag mer nervös rörande ett par forskningsprojekt och något kort en av dem publicerade. Nu är det dock känt att det inte är just något nytt i värde (bara lite annorlunda) och heller inte alls adresserande prestanda- och skalproblematiken.

Jag tror Sverige skulle gilla det här projektet i dess kommersiella födelse. Mycket Svenskt och starkt i ett segment där föga annat ännu finns. Går det bra och trevligt d.v.s. man åtminstone lär sig något bra - även om det mot förmodan inte blir Sverige - ska Sverige få en present av mig. Jag ska tala för att ett inte litet amerikanskt företag ska göra en viss Europa-etablering kanske sent nästa år (eg. planerad februari kring beslut men det kommer helt säkert skjutas fram) ska lägga det i Sverige. Kanske gör jag det ändå men inte helt säkert. Förra gången det begav sig för dem glömde jag bort upptagen med det här. Kanske börjar jag titta runt lite senare i år och mer konkret tidigt nästa år.

Dessutom innan jag avslutar med California Dreaming tack till flera i USA vars data jag samlat inom i dagarna och just nu fortsätter hämta in. Det är till skattningar parametrar till distributioner för större "kategory-områden" ex. relaterat bild, militärt, statsförvaltning, polisverksamhet, geo o.s.v. Stort tack också till alla open data journaler samt CiteseerX som jag samplat hårt igen av samma anledning. Ev. går jag vidare och skapar corpus för alla respektive journal för att få skattningar på de individuella distributioner per forskningsområde. Också tack igen till Microsoft som föredömligt är delsamma med data.