Visar inlägg med etikett Dendritträd. Visa alla inlägg
Visar inlägg med etikett Dendritträd. Visa alla inlägg

Folkligt och kul: Tappad bakom flötet

2015-10-18

Fiskekniven kanske?


Men kan man skämta - och det är kul - om att blanda samman ett talesätt med ett annat (resp. med tänkbara komiska dimensioner i sig men ej heller unikt så eller kanske ens normalt så)?


  • Tappad bakom en vagn.
  • På bandring / På vagnen undan svälten överlevande genom en hårdare världs "abort-lösning"?
  • Bakom flötet.
  • Funktionella jordbrukks-arbetare långt tillbaka (1000 talet?) skapades ibland när de föddes på gården via syrebrist i vattnet. Förutom arbetet fick de emellertid möjlighet till att använda sjön att fiska från för mat.

Kan conceptual blending motsvarande naturlig felsägning (tänker jag mig) vara komiskt=.


1. Närhet mening är givetvis ej stor mellan koncepten. Likväl tror jag vi i allmänhet för felsägning i allmänhet ska förvänta någon direkt eller ganska omedelbar grupp av koncept gemensam aktivering för att de ska ej otroligt komma så här. Antingen nyligen eller repeterat av och till några gånger om kommande senare.


2. Eller resp. Och med:


  • Itlösande potential enligt tidigare indikerat görande det relevant vilket tänkbart kanske oftare krävs för ej helt korta - i som vi här förstår enkelt från antal ord för sådana här mer emotionella koncept vi fyller mening till själva i kontext eller egen tolkning snarare än del av gemensamt publikt språk.
  • Vi kan se hur föregående via ett indirekt eller direkt koncept kan aktualisera sig givet tidigare nlärning med det eller nytt förstärkande sådan. Ex. en person associerad i någon intressant händelse med båda som besöker oss för att förklara oss tappade bakom en vagn och säg samma dag intensivt med högt emotionellt språk o.s.v. förklara en gemensam vän bakom flötet.

Eller givet 1. (och / eller faktiskt med två också) en ganska begränsad gemensam men mer tydligt tids-relevant just nu eller så indikerat tämligen nyligen feature. Vilken kan vara vad som man kan tolka satte riktningen för själva felsägningen (eller den kreativa associationen).


  • Tappad bakom flötet.
  • Foster överlevande abort-metoden fick ibland möjlighet att överleva svälten genom att en vänlig lokal-hövding tog dem in som jordbruksarbetare istället för att ta risken att komma dåligt med syrebrist shaping av lokalt född person. Deras lustiga missuppfattningar av världen m.m. kunde man kanske referera till som tappad bakom flötet?

Något indikativt rörande olika typer av intensitets-vikter aktuella ovan kan sägas via att vi i form-likhet (för att välja något där fler alternativ finns passande conceptual blending som man ofta ser uttryck av det) mellan funktioner vi kan skatta ut:

pröva
  • Glömmande (forgetting curve) d.v.s. avstånd i tiden bakåt till aktivering vid något bindande aktualitet till något. D.v.s. från respons-time studier.
  • Features i meningarna för ord, ngram eller vad av alfabeten man nu väljer att arbeta med var för sig eller tillsammans (mindre än ord känns lite mer än annat än tror jag sällan nödvändigt för sådant här men SJÄLVKLART vilket som helst av alfabeten är funktionella och om något tycks bättre än ett annat i resultat har det endast med hur väl de använts eller brist på statistik uttryckande alfabetet ofullständigt d.v.s. ett ort som ord-former är lättare att fånga alla typer av resp. skatta deras frekvenser i resp. kombination korrekt) via typiskt ofta refererade zipf-Mandelbrot. Ty resp. alfabet givet att vi också för att kunna hantera propagering av kontextuell frekvens tolka språket - grammatik, syntax o.s.v. för att klara att sampla hur vanliga resp. är - ger oss mening alla av de övriga bär med sig: 1-ord till koncept n-gram, o.s.v. neråt och uppåt. Därav att det varierar lite år från år vilka vilka enstaka eller kombinatione rav dessa fler tror är som rätt här och som kommer i fler nya studier (vanligen dock ej beräknande bra skattningar frekvens själva utan utnyttjande något färdigt ofta räknande ganska grovt). Just nu är det mycket runt ljud-alfabeten (minns ej vilket av dem: Tittar man på ex. bokstäverna vilket vi alla så klart gör alltid när vi skriver är lite dum antagligen delvis därför att de räknar frekvens dumt eller använder dum-frekvens och då tappar man ibland lite mer mening märkbart dålig fekvensstatistik på en del ord skrivna som bokstäver som ett par ganska i samplingsmängd och metod magra färdiga data-sets har).
  • Eller som jag SJÄLVKLART när möjlighet ges hellre skriver ex. Wikipedia konceptet People from Sweden living during World War II: People, Sweden, living during World War, World War, World War II... m.m. så man verkligen förstår explicit vad som implicit kan ligga nära. Jag tror vi är många som gärna hellre skulle vilja att vi utan transformationerna och graf-strukturernas operatorer och i sig "alfabet" bara borde skriva själva orden eller n-gram för att uttrycka mening. Vem behöver mer? Man kan rent av sortera om det hela eller slumpa ordningen man skriver det i enligt någon vikt vanlig subkultur kallar för sannolikhet eller ge sig på att dra ord från blandningen och tänka sig att det simulerar mänskligt tänkande./li>

  • Vikt-dimensioner är vikter påverkande resp. en eller flera saker vi tänker vidare med. Exemplet längre ned för dendrit-träden i biologiska neuronnät är därför kanske ganska bra: Vi förstår enkelt ganska stor komplexitet bara i trädet resp. att det är vad som går in i en större mängd neuroner med information inlärd i så många mer uttryck än vad vi är vana att se som alfabet (ex. ord, fler-gram vad vi vanligen kallar alfabet eller avstånd mellan neuroner vad vi mindre sällan ger representation med en symbol för o.s.v.)





  • Såväl som learning-curve också ex. från här respons-time.




Och som vi förstår från det om annan dimensions-information än bara frekvens-värden för förekomst (emotionella dimensioner) den subjektiva intensiteten för någon. Skrivet på formen:

a * ( b + c * x )e

Jag vågar inte föreslå att det kan vara bättre för värden relaterade situationen ovan i [0,1] att använda följande funktion (inte minst därför att jag ej kom till att passa in konstanterna) - ex. någon viktskattning vi kan likna vid sannolikhet - med:

a * ( b + c * x )e * x

Och positivt e för decay / forgetting.

Eller föreslå att det kanske egentligen är en kombination av något med en expoentiell fördelning approximerade mer bland biologiska neuroner morfologiska former (d.v.s. dendrit-träden) som skulle kännas mer naturlig för mig (men knappast vad något av alla tänkbara alternativa skulle bli mer eller mindre rätt i någon begriplig mening eftersom träden i sig är ganska varierade lite hur som helst resp. som funktion av den varaktiva inlärning när avstånd reduceras till co-activation). Mitt mot sändande "nod" är ju vad som reducerats avstånd medan när vi går utåt med en radie ligger andra sidoträd troligare åt sidan resp. längre ifrån d.v.s. lite vad vi kan likna vid ex. en 3D normalfördelning med varians-parametern tagande egenskap från dendrit-trädet (möjligen kanske self-information eller något distans-mått för resp. arm?).

En upparbetning med andra liknande funktioner för andra delar av kommunikationen är verklighet. Men det samma gäller nu ex. Zipf-Mandelbrots lag där man bättre om man känner starkt för en väldigt "rak-linje" bör separera exempelvis sina ord i grupper av flera alfabet (som funktions-operatorer likt a, an, the, ord med storre mening mening än vad co-occurence context ger o.s.v. vad som nu visar sig stämma - mycket tänkbart säkert i någon mening verklighet bör nog vara tämligen försumbart givet själva normala nivån av "förväntat resultats" rimliga exakthet. Varför inte kalla operatorerna för "stopp-ords-alfabetet" så hittar säkert den intresserade enkelt många exempel: stop words).

En tolkning av Zipf-lag från punktlistan med "kurvor" är självklart att:

  • Ett fåtal vanliga ord är latta att minnas.
  • Många ovanliga ord är svårare att komma ihåg.
  • Det svåraste konceptet att minnas är det "längst ner" med minsta alfabet i förhållande till antal token-frekvens (ex. post lateral sphincterotomy dilation<. Och gärna i underliggande formation ej självklart enkelt predikterbart d.v.s. utan förståelse av själva konceptet som sig men med god vetskap om resp. del-koncept som dilation kanske det hela ej känns självklart (mer i ex. att det sista ordet kommer från en associerad eller alternativ teknik i här konstruerat - kanske existerande i övrigt - för viss conceptual blending igen för återkommande tema). <(li>

  • Ju längre tillbaka konceptet var aktuellt, desto mindre intensivt det var då, och ju mindre sannolikt det är i det kontext vi befinner oss för en tid vi betraktar desto troligare:




    • Glömmer vi det.
    • Ju mer grund-intensivt i subjektiv tolkning är det om det kommer aktuellt "indirekt".
    • Medan om ej indirekt kan det samma gälla men ev. beroende på fall - ex. via risk-dimensioner m.m. - när överraskande aktiveras lite extra.

    Pöva gärna själv genom att köpa ett plast-svärd, en väldigt osannolik mask - gärna gullig kanske Disney - målande den osannolikt röd och kanske någon mer färg, och så hoppar du fram överraskande framför någon kanske äldre lokal-bo som stört dig - argumenterat är väldigt gamla personer här bättre att experimentera på eftersom man inte riskerar att störa samhälls-produktionen om någon produktiv-yngre får slaganfall eller dyligt [Red. Jag nekar till att Mandelbrot i någon trolighet dog av att ha läst vad jag skrev om honom. Sådant som kommer samtidigt av slumpen ej fullständigt ovanligt när man skriver regelbunde. Ommam färävrogt gamsla ögt bakåt: Gunnar Blom, statistik, kryptering o.s.v. tror jag evigheter sedan. Också säkert en ren slump. Mer vad feature Mandelbrot givet städande upp bland alla onyttiga gamlingar samtidigt som vi lär oss något hela världen kan göra bra saker av om människans kognition gav en kreativ association. /HH] /HH] ).

Sannolikheten för att den vi hoppar fram för ska reflektera situationen - implicit - att denne kommer "glömma" alla koncept lagrade (genom att avlida) med en viss sannolikhet. Är vad vi kan se som en del av dynamiken. Folk är inte så klippsa i stora verkliga risker som man kan tro men är det konkret i rummet med höga ljud och färger är upplevd magnitud av intensiteten mycket väsentlig. Faktiskt kan nu intensiteten rent av passera det "verkliga" från teve tillochmed introducerande "vaksam mindset" upplevande risker i skuggor m.m. (vanligen defekt hanterat i metodik: Korrekt är attse dig för vad du ska vara i de kontext som när relevant här ofta föreställs - antagligen inkorrekt - den som flexibilitet utnyttjar arenan för vad perspektiv bäst för dig: The Hunter Hunting the Beast searching for you. Vilket fungerar bättre emotionellt såväl som som naturligt öppnande upp fler perspektiv på lösning: flö om bra, men också jaga bakåt den som jagar dig för att ta ut föregripande denne i överfall).

I denna mening är klassiska formen för psykologins välkända idé om översättning mellan intensitet indata människa till upplevd intensitet på formen: a * log ( I) ), Ej perfekt. Eller åtminstone om ej hanterande indatats "dimensioner" och mening perfekt lätt att komma fel i. Vi kan komma i vad jag vill skriva som "högre subjektiv intensitet än intensitet i indata.". En förvirring i rummet av fiktion och verklighet som kan uppträda konkretiserat av exemplet när någon mindre lämpligt stabil[Red. Vad blev det av alla Haldol-hem man kunde göra iväg gamlingarna till när passerande 70 år cirka därde fick ett avkopplat avslut på livet sista 20 åren kognitivt avkopplade via ett par dagliga injektioner?) Och varför fick vi aldrig något liknande kommunalt? Skulle säkert öka skatte-moralen). kanske angriper ditt fiktiva angrepp (möjligen ej fiktivt om i smyg syftande till att mörda åldringen via inducerat slaganfall) men icke-fiktiva försök för att lära om personer, genom att rubbat icke-fiktivt angripa dig med konkreta verktyg (kanske en s.k. tryckt bok iPhone spekulear jag).

Eller hade vi någonsin dessa haldol-hem? Kanske en kreativ innovation att födas av mig. Konceptet i vad det kan ge människan i möjligheter återkommer av och till till mig. Jag minns ej när konceptet kom i mina tankar men någon gång senaste åren här. Kanske mer värde människan och mindre från äldre förekomst dess ursprung ligger i.Men jag förstår då domänen här och vilken nytta ett förstående äldre-hem långt ute i skogen utan störande spring eller över-nyfikna "äldre-aktivister" kan störa har att ge när kombinerat den moderna världens avancerade mediciner likt lämplig kombination säg haldol, och någon atypisk hård på såväl dopamin så standardisering av demens-behandling går att göra som bonus: 70 år till haldol hemmet, dagen efter dement, frid i världen, och entydig predikterara samhällssystem hälsa.

Kanske vad som behöver själv-organiseras av några äldre vänner? Jag är väldigt på om inte någon så här spontant självorganiserar något kanske antytt här tidigare. Dödande kul, Hard core comedy. The death of comed with everyone laughing.

Beslutsteori och kreativitet: Fano inequality och diskriminerbarhet

2012-10-30

Betraktar vi problemet vi löste i Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext precis omvänt har kanske en motsvarighet i vad som indikerades här:


"In a new study, published March 27 in the online, open-access journal PLoS Biology, Anne Collins and Etienne Koechlin of Ecole Normale Supérieure and Institut National de la Santé et de la Recherche Médicale, France, examine frontal lobe function using behavioral experiments and computational models of human decision-making. They find that human frontal function concurrently monitors no more than three/four strategies but favors creativity, i.e. the exploration and creation of new strategies whenever no monitored strategies appear to be reliable enough."


Från: Creativity and human reasoning during decision-making | EurekAlert!, AAAS.


Här är ju släktskapet med Fano inequality ger oss en skattning av tydligare. Det handlar ju just om ett mått på hur "fel-tolkningen" påverkar gränsvärdet för meddelandets information:


"Then, for each incorrect output message the correct input message must be identified. The number of possible input messages is N−1 because the output message is known to be incorrect. Thus the amount of information necessary to identify the input message cannot exceed log(N−1) , and the corresponding average amount of information to be provided cannot exceed P(e)log(N−1) , the second term on the right hand side of (2)."


Från: Robert Mario Fano (2008), Scholarpedia, 3(10):6648.


Så vi kan kanske se det som att när strategier falerar här blir vi kreativa och söker något nytt och spekulera att kostnaden för att hantera det ökar med ökande n (och oavsett om en möjlig kostnad hade existerat innan är det kanske inte vad vi i klassiskt evolutionär-verklighet någonsin riktigt har rutiner för givet kända samband från mänskliga beteende relaterat hasardspel. för snabb-inlärning kring irrationella ej väsentliga faktorer på 1 till 2 träffar ej påverkat av många fall därefter o.s.v). Innan tre (för andra logaritmen) är ju tänkbar information vi behöver tillföra inte definierat alternativt 0 (vad vi saknar uttryck för). Stämmer det behöver kanske inte antalet strategier vara så hårt bundna till tre och fyra utan kan kanske variera också en bit uppåt beroende av hur sannolikheterna upplevs.


Åtminstone om vi ser det från Fano inequality världen. Vi kan ju också tänka oss att det åtminstone handlar om diskriminerbarhet d.v.s. det måste gå att särskilja vad som hör till strategier eller varför inte n stycken objekt vi håller i arbetsminne. Är ex. objekten features till visuella bilder har vi en enorm-mängd träningsdata vi plöjt igenom under vårt liv och skattningar av osäkerhet ex. enkelt relaterat gränsvärden via normalfördelningen för variansen blir därefter, och vi kan hantera många fler detaljer. Handlar det istället bara om vanliga ord räcker det inte lika långt därför för dom har vi mycket större varians. Det här resonemanget har en del praktiska värden också ex. blir det möjligt att resonera praktiskt görligt jämförbart mellan en individ i beslut och kollektiva beslut för populationer under antagande av funktioner för att uttrycka motsvarande pooled variance (bättre uttryckt som volativitet).


Tveklöst ett fascinerande intressant ämne också för många läsare. Eller kanske hade varit det om mer applikationsnära-tillämpningar diskuterats (det hade nog varit lika tråkigt ändå om problemet och dess lösning diskuterats men det är bara nyttigt för mina läsare att få lära sig lite självbehärskning eller i brist på det avstå från något utvecklande: här kan jag se ett moraliskt ansvar att bygga upp läsaren till en kanske mindre glad men nyttigt produktiv samhällsmedlem som skapar tillväxt inom långsiktiga nyckelområden viktiga för Nationen och Världen).

Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext

Här har vi en tänkbar lösning på Aktivering av tillstånd relativt likhet i kontext jag lutar åt att de praktiska testerna mot data (dröjer något dygn tills nytt cache-data för similarity beräknats klart) kommer visa sig är korrekt fungerande.


Jag började med att titta igenom de sidor Wikipedia hade för information criterion och experimenterande en del praktiskt med miniräknaren i första lagret. Ingen uttryckte direkt vad som var funktionellt gav en idéer som ledde fram till ett uttryck.


På det sätt similarity beräknas står det i nära relation till förhållandet mellan feature relations (andra symboler inlärda relationer existerar till: vanligen cirka 40 - 10000 st) som är lika respektive olika, och den relativa associationen (i princip P ( symbol | relations | "prototypiskt" kontext)).


Vi kan därför också tolka similarity måttet (alltid [0,1]) som sannolikheten eller vår tro att när det i ett givet kontext är relevant för symbolen från dess perspektiv (för vilket man ev. kan reducera från prototypiskt kontext - vilket dock för de flesta situationer inte tillför värde relativt beräkningskostnad att avvika från cache-bart-data - genom att aktuellt kontext ger att vissa relationer där inte är meningsfulla att bedöma rörande likhet).


Tolkning / tron / beslutet att symbolen / gruppen av symboler vi beräknar similarity med är relevanta för aktuell symbol från dess perspektiv vi undersöker hur lika det är motsvarar hur troligt (där vi här förenklat ej inkluderar andra faktorer) det är riktigt att symbolens neuron / neuron-grupp ska aktiveras. Approximationen som görs just här från det är att styra aktiveringen av resp. sådan symbol-neruon från similarity vilket är funktionellt här därför att det totalt handlar om för ett också begränsat kontext oftast för vanliga "nyhets-starka" symboler t.ex. två länder och något kraftfullt mellan dem som "handelsavtal", "krig" o.s.v. flera tusen neuroner som kommer aktiveras.



Oavsett antalet symboler i kontext vi beräknar similarity mot gäller att de enda symboler vi behöver ta hänsyn till är vilka likhet är större än noll därför att om likhet är 0 för en symbol kan ingen kunskap om denna ha nått oss just därför att similarity approximerar aktivering utlöst av kontext.


Antalet symboler vår trosföreställning om att det är "riktigt" för "oss" (menande neuronen som beräknar similarity mot kontext) styrs därför uteslutande (när vi här uttrycker det förenklat utan andra faktorer begränsat till denna problemställning) av:


  • N uttryckande antalet symboler som similarity är större än 0 för.
  • Total similarity för dessa N symboler (andra sätt att värdera samman similarity är givetvis också tänkbara men detta tycktes för mig en god utgångspunkt man kan argumentera för och om praktiskt funktionell mycket beräkningseffektiv givet endast addition).

Vår tro på att aktivering är korrekt är inte orimlig att anta växer med ökat N oavsett similarity. Det är ju också vad som var indikerat i utgångspunkten för själva problemet där det i väldigt mycket finns en fascinerande viktig undre gräns vid som jag ej förstått men som denna lösning inte otroligt förklarar.


Skattningen av vår tro på att vår aktivering är rimlig som uttryckt i hur mycket vi aktiverar oss från N st. värden för givet kontext är om ingen historik vi också kan skapa legitima skattningar från existerar kan vi skatta gränsvärdesriktigt med:


    WP = Total similarity * 1/N = W / N

Betraktar vi de N symboler vi uttryckt likhet större än noll med som varsin symbol i ett meddelande hade gällt att vi utan annan information kan uttrycka informationen de för en given sådan sekvens när deras ordning saknar betydelse som:


    ln (N) / ln (2)

Där om vi hade kunnat betrakta en historiskt d.v.s. hanterande att förutsättningarna för similarity kan vara olika vid olika kontext utanför själva symbolerna som anses vara identiska vad vi bättre hade uttryckt som (om det nu hade alls varit rimligt att anta "slumpmässighet" snarare de meningsfulla kunskapsdrivna förutsättningarna här mycket given kunskap finns för intelligensen att tillgå)


    (1/n) * ln (N^n) / ln (2) -> gränsvärde när n -> oändligheten

Det tillsammans skulle (uttrycket liksom ovan är ej vad jag gjorde och menar jag bygger på felaktiga antaganden men en god start för att försöka förklara mitt uttryck från traditionella relationer inom informationsteori) ge oss ett kombinerat uttryck enligt:


    WP * ln (N) / ln (2) = (W/N) * ln (N) / ln(2) = W * ln (N^(1/N)) / ln ( 2 )

Det uttryck jag fick indikerat motsvarar dock inte detta där skillnaden är att vi har (N - 1) istället för N. Jag noterade precis av en slump att det motsvarar (om vi antar att övriga antaganden är rimligt motsvarar varandra) uttrycket för gränsvärdet i Fano inequality.


Efter en del funderande tycks det inte orimligt för mig men jag vågar mig inte på att söka förklara det åtminstone nu. Och det var ju heller inte vad jag utgick från att acceptera att sätta N - 1 i logaritmen var rimligt.


Vad som fick mig att acceptera N - 1 (acceptera i meningen givet att nu detta praktiskt gav ett mer beräkningseffektivt uttryck utan större fel - tvärtom utan andra åtgärder något bättre från och med tre) är att vi inte kan ha samförekomst rörande similarity som är N.


Om vi akiverar neuronen på första likheten exiserar ingen samförekomst. Aktiverar vi på första och därefter andra vet vi (lämnande elektriska potential-förändringar o.s.v. i neuronen och hållande oss till vad vi kan se som numeriskt uttryckande nivåer givet neuron-gruppen statistiskt) att vi uttryckt likhet innan och får ett nivå uttryckt givet motsvarande den biologiska neuronens återupptagning.


Det ger oss nu N - 1.


Relevant i detta sammanhang är Weber's lag med flera liknande relationer konstaterat rörande så mycket relaterat perceptionen. För att kunna resonera om samtidighet krävs i dessa sammanhang denna typ av uttryck snarare än en absolut-nivå. Låt oss uttrycka Weber's lag på den form jag personligen föredrar:


    (Aktivitet ( t = 2 ) - Aktivitet ( t = 1 ) ) / Aktivitet ( t = 1 )

Samtidighet uttryckande meningsfulla samband kan antingen i en situation röra samband inlärda eller vad efter att de konstaterats meningsfulla ska uttrycka inlärning.


Är händelse A känd i inlärning som meningsfull i situationen kommer detta uttryckas via för det anpassad aktivitet. Vi väljer här att se det som motsvarande ökad aktivitet (för att få en rimligt enkel förklaring här).


Händelse B har vi ej inlärda samband för rörande situationen. Den uttrycker därför ej anpassad aktivitet genom förstärkning utan endast aktivitet relaterat att den förekommer.


Söker vi meningsfulla relationer i samtidighet utan att normalisera för magnituden kan i endast identifiera samband mellan händelserna vi som A redan delvis lärt oss och med andra sådana vi lärt oss med en nivå av meningsfullhet jämförbar.


Jämför gärna med ett kollektivt exempel. Antag att organisation A agerar enligt "verktygs-domän" Q positivt verkande för ett kontext. Mycket mindre organisation B med för oss dolda relationer till A agerar också på motsvarande sätt men i mycket mindre magnitud.


Normaliserar vi för magnituderna och utgår från att söka samband med händelser känt meningsfulla blir det mycket mer beräkningseffektivt att identifiera dessa. Det tycks heller inte för mig självklart att det är särskilt enkelt att för hjärnan att söka dem på annat sätt. Rörande organisation av kunskap, geo-rum m.m. tycks ju grid-celler vara vad som uttrycker detta. För händelse-kedjor ex. motsvarande att vi vandrar i dessa kan vi göra Markov antaganden, och vi kan också se hur kedjan kan representeras motsvarande en länkad-lista (jämför med hur vi uttrycker samband i närminne där det sker genom att uttrycka beräkningseffektivt ökad närhet mellan en neuron och en annan neuron i statistisk-centralitet). Emellertid gäller för samtidighet vi ej känner och som vi ej motsvarande sökt vandrande en väg att dessa ligger utspridda i motsvarande denna grid och därför inte på detta sätt självklart kan identifieras.


Däremot är det ett enkelt problem att helt enkelt söka mängden neuroner som aktiveras av en viss typ. Men när vi tar dem ut ur kontext för att söka meningsfull samtidighet gäller att om vi inte normaliserat rörande magnituden innan det lokaliserat att vi behöver (så vitt jag kunnat se) mer information för att klara att bedöma den d.v.s. att vi måste dyka ner för varje sådan symbol i vilket fall vi inte alls har någon beräkningseffektiv lösning.


Vidare gäller att vi här i princip har enorma hyperkuber med hundra tusentals praktiskt implementerat men helt säkert mer i hjärnan antal dimensioner. Antar vi att dimensionerna när likställda varandra inte uttrycker andra enheter än vilka dimensioner de för kontext är anslutna till gäller ju att vi kan få bort dessa genom att titta på den relativa skillnaden. D.v.s. vi behöver inte förstå varför neuronen uttrycker en viss aktivitet när vi söker samtidighet med en annan neuron.


Om denna förklaring är närmare hjärnans verklighet än andra för Weber's lag vet jag inte men den är närmare den praktiska verkligheten av att söka beräkningseffektiva implementationer i dator.


Slutligen: Är gränsvärdet vi får med WP * ln ( N - 1 ) / ln ( 2 ) den övre eller undre gränsen? Egentligen tror jag att det är det undre-gränsvärdet men praktiskt har jag lärt mig att jag alltid först kommer till den slutsatsen när det är det övre-gränsvärdet. Också erfarenhetsmässigt vet jag att det praktiskt bara varit positivt-värde i beräkningseffektivitet inte mätbara reduktion i korrekthet att utnyttja övre-gränsvärden relaterat informationsteori. D.v.s. jag är inte helt säker på vilket ännu och bryr mig inte att härleda det innan jag gjort testningen mot data.

Komplettering: Aktivering av tillstånd relativt likhet i kontext

2012-10-29

Kompletterande Aktivering av tillstånd relativt likhet i kontext är något man kan fundera över varför tre är ett praktiskt fungerande tröskelvärde. Tre är dessutom ganska väl underbyggt både i analysstudier praktiskt här och från situationer som kan betraktas som jämförbart med detta för en individ.


Jag har egentligen ingen bra teoretisk-förklaring av det som jag upplever att jag särskilt tror på eller har något konkret indikerat annat än att det skulle förklara det.


En lätt statistiskt inspirerad förklaring är att vi för första och andra fallet kan skatta en idé om hur vi ligger relativt vår inlärda centrality för similarity- / salience-aktivering medan vi i och med den tredje har minsta möjliga för att också söka skatta hur avvikande från denna kontext är d.v.s. om vår inlärda centrality är 0.5 i similarity stämmer kontext väldigt olika med det om vi har {0.1,1.0,0.5} resp {0.5,0.5,0.5}.


Tänkbart är BIC (Bayesian information criterion) fungerande här. Jag har ingen riktig känsla för det därför att den ligger ganska långt ifrån kriterium jag tenderar att välja (normalt för situationer där sådana är aktuella har den tycks tveklöst sämre än alternativa). Men kanske uttrycker den just praktiskt fungerande värden här för hur varianserna för similarity typiskt kommer fördela sig relativt antal koncept vi uttrycker någon likhet med?

Aktivering av tillstånd relativt likhet i kontext

Jag tror mig minnas att jag förra året skrev något om aktiveringsfunktionen jag antog kunde gälla inlärning utifrån likhet. Nyligen upptäckte jag den för första gången beskriven någon annanstans vilket gav den viss trygghet (samt praktiskt gjort den mer tidseffektiv därför att en del konsekvenser var färdigt uttryckta där utan att kräva att jag härleder dem) i The Statistical Approach to Learning Theory, W.K. Estes i Psychology: A Study of Science bok General Systematic Formulations, Learning and Special processes.


Frågan just nu är inte helt oviktig därför att jag har en praktisk utmaning i hanterandet av hur fortlöpande kontextuellt tillstånd (se Drifting thoughts i kartan: Common sense - Arkitektur) ska påverkas av similarity med aktuellt kontext.


För den effekt detta korrekt har jag konstaterat tre saker (bl.a. via avstämning mot "reaction time forskning" i psykologin):


1. Similarity är från perspektiv av noden snarare än resp. koncept i kontext. Det är ju också högst rimligt i att informationen påverkande aktiveringen biologiskt måste överföras från resp. konvergens i kontext via signalsubstanser (eller om man vilket jag sällan gör betraktar det från elektriska vågformationer) till noden.


2. Aktiveringen styrs av nivå av similarity med respektive koncept i kontext alternativt styrs samlat av kontext.


3. Aktiveringen styrs av antal koncept noden uttrycker likhet skild från noll mot.


Att föra samman två och tre till ett uttryck har jag dock inte klarat av på ett bra sätt.
Filtrerar jag bort via en enkel threshold antal (tre är den fungerande här) gäller att man kan uttrycka RT-värden transformerat till salience-aktivering [0 - 1] rimligt.


Beräknar jag istället bara similarity med resp. koncept och summerar kan det ge "korrekta" värden. Men det går också att hitta fall där det ej översätter korrekt. I princip gäller att en hög likhet med ex. ett koncept och noll likhet med övriga koncept ger ett för högt värde.


För att lösa det här problemet elegantare än att direkt filtrera på antal har jag sökt lösningar i forskning inom psykologi, neuronnät m.m. resp. tittat över välkänt fungerande algoritmer. Jag upplever bl.a, att ganska stor konceptuell likhet med inverse document frequency gick att se. Men min första definition för information utifrån det falerade.


Det tycks väl för mig heller inte otroligt att man mer insiktsfullt hanterande detta i beslutsträd med värdena transformerat till sannolikheter kanske klarar att fånga detta. Ev. något beslutskriterium från bayesianska strukturer eller från diverse liknande. Just i detta ligger vi dock väldigt nära medvetande som koncept och där är det mycket rimligt att undvika Markov-inspirerande lösningar (därför att dessa har demonstrerat relaterat bl.a. semantik vara fungerande hos människa också utan eller med nedsatt medvetande: inte minst intressant för vissa modeller som söker uttrycka medvetande den vägen ).


Just den här utmaningen har hängt kvar ganska länge nu. Mest elegant vore givetvis att hantera det via inlärningsfunktionen för similarity. Elegansen i det är dock mer irrationell personlig därför att jag är lite missnöjd över att jag inte praktiskt sett någon naturlig plats för uttrycket i övrigt där det adderar värde.


Frågan är ju också hur man ska förklara detta teoretiskt? Grundförutsättningen måste ju vara att aktiviteten uttrycker en "konvergens" till resp, WP-nod. Vidare gäller antagandet från modell att neuronen har vissa möjligheter givet dess inlärning att i neuron-gruppen och dess dendrit-träd detektera grad-skillnader utifrån vinkeln trafiken når den (d.v.s. om aktiveringen innan har preferens mer i en riktning på större avstånd blir vissa delar av dendrit-trädet mer sannolikt relativt trädets centrality). Kanske är därför förklaringen förstärkning från samaktivering av större delar av neuron-gruppen och/eller dendrit-trädet.


I så fall skulle i princip gälla att om vi i kontext har ex. tre nära nog identiska koncept blir aktiveringen per total similarity lägre än om similarity varit skild.


Vidare gäller att om similarity mellan ex. tre koncept är sådant att vi för ett ligger kraftigt i en riktning ("vänster" sida av trädet), för ett nära centraliteten och för det tredje tydligt till höger, bör aktiveringen bli större.


Samtidigt är som vi inser särskilt från sista exemplet frågan vad större aktivering är.
Här i den tänkta formen för dendrit-träden för de neuroner mer troligt motsvarande tycks för mig att det inte är orimligt att se dessa uttrycka approximativt en sfär resp. approximativt en platt cirkel, vilket gör att normalfördelningen är rimligt fungerande. Det blir en värd av vinkel och aktiveringsnivå där vad vi önskar normalisera olika uttryck med är mitten (centraliteten).


Praktiskt känns det mindre intressant att testa denna idé även om den kanske teoretiskt är troligare därför att det är ganska omfattande programmerings-logik samtidigt som att faktiskt värde är åtminstone för mig oerhört svårt att kontrollera innan. I princip behöver man skatta hur sannolik en vinkel är i aktuellt i kontext och ev. givet tidigare kontext och ev. också inkluderande aktiveringsnivå.


Istället vad jag känner troligt finns men att jag inte ser p.g.a. design fixering eller något annat är ett enkelt och bra ganska välkänt uttryck som klarar att fånga sådant här. Kanske något beslutat inverse document frequency eller divergenser (jfr Kullback). Jag hade väl hoppats att formulera problemet här skulle lösa det åt mig men inte: så tips uppskattas.