Argument - Brott mot konjunktion: Förklarat med härledning av Weber's lag från t-testet

2012-10-31

Notera att antagandet i Detektion samförekomst och härledning Weber's lag: Via Students t-test om att vi konvergerar mot en neuron för mening tillsammans med uttrycket härlett mellan t-testet och Weber's lag också ger en förklaring till en del bias och feltolkningar människor ofta gör.


Ett exempel är människans tendens att acceptera argument som bryter mot rimlig konjunktion rörande just samförekomst d.v.s. accepterande att en händelse eller argument indikerande att A och B tillsammans kan vara större än A resp. B var för sig. Människor har står benägenhet att acceptera detta i information.


Genom att det egentligen just är intensiteter och inte sannolikheter samtidigt som att efter att samförekomsten är inlärd konvergerar den till en neuron kommer A och B ej blandas in i bedömningen för bedömningar som söks vara energieffektiva utan kräver att vi tänker till och skapar mer arbetsamma representationer av information från flera olika neuroner i motsvarande arbetsminne för detektion.


Uttrycket för intensitet för samförekomst jämförs primärt endast vid konvergensen enligt uttrycket sist presenterat.


I alla situationer där effekten och skattningen är den samma är detta dock inte ett brott mot konjunktion-lagen. Ett exempel är symboler bestående av flera ord vi tolkar till en mening ex. Costa Rica. Det är endast ett brott mot konjunktions-lagen om vi antar och förutsätter att orden i sig är den enhet vi följer. Någon anledning att göra det för Costa Rica i engelskan där orden costa och rica approximativt inte alls förekommer finns inte. Från detta och dess stora realitet inte minst i visuell information inser vi varför detta är en effektiv optimering trots att vi kan bli lurade av bedräglig riktad information skapad av människor.


Det ger mig ibland viss tillfredsställelse att diskutera dom här uttrycken mer troligt först. Allmänt gäller dock att det nu när vi mycket oftare är nära det praktiska (vilket gör dem också intressantare för andra än en själv) tenderar jag att vara väldigt försiktig i vad som översätter till beräkningseffektiva algoritmer och som inte är välkända.

Detektion samförekomst och härledning Weber's lag: Via Students t-test

I Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext diskuterades ett sätt vi kan förklara Weber's lag utifrån behovet att i inlärning kunna detektera meningsfull samtidighet i händelser, förändring av nivå, objekt m.m. En lika praktiskt i att det också översätter till ett både enkelt och beräkningsmässigt snabbt väg att motivera Weber's lag också från det absoluta behovet av detektion samtidighet är via t-testet.


Låt oss definiera samtidighet som att A och B sker vid samma tidpunkt. Tidpunkten definierar vi som ett tidsinterfall vilket är absolut tid relativt antalet händelser inträffande vi klarar att särskilja (vi kan dessutom förklara Weber's lag genom att gå vidare djupare från tidsdefinitionen men det är väsentligt mer krävande i text för att förklara det: 50 sidors behov om det ska göras seriöst). Här ser vi tiden från och med nu som en diskret tidpunkt.


A och B kan dessutom inträffa utan att den andra inträffar.


Lika från praktiska försök inom psykologin väldokumenterat är relationerna kring diskriminerbarhet (se ex. Signal-to-noise ratio in neuroscience) där vi här utgår från medelvärdet / variansen.


Problemet här är att vi vill kunna diskriminera samtidighet. Att i sig utan ev. bias byggd från befintlig inlärning avgöra om något är vettigt samtidigt eller bara samtidigt med vad som ger reward-påslag är inte möjligt. Reward kommer därför tendera att förstärka all samtidighet där upprepningen tenderar att komprimera det effekt ganska snart (även om det går att få folk att göra precis vad som helst oavsett hur irrationellt om de tror att det är kopplat till 10 kronors vinst på en enarmad bandit).


Problemet är att det inte är rimligt att anta att vi kan uttrycka volativiteten via variansen. Det förutsätter att vi har talserier av händelser vi kan göra beräkningen ifrån. Givet att människor har direkta svårigheter att lära sig saker utantill - inte minst mätvärden - är det att betvivla att vi har något annat än approximativt i resultat något liknande det.


Så hur är det tänkbart att vi kan approximera variansen? Jag undviker regelmässigt att i dokumentation, bok-kapitel m.m. att referera till det som varians därför att det är inte riktigt varians. Termen volativitet är bättre.


För att kunna detektera samtidighet är förutsättningen att A och B kan särskiljas. A och B är därför i sig inlärda. Volativiteten för att dektetera samtidighet kan endast styras av denna eftersom samtidigheten (om verklig) i sig inte är inlärd.


Uttrycker vi beslutet om samtidighet med Student's t-test har vi i princip samma sak som Signal-to-noise uttrycket refererat också anger d.v.s.


    Skillnaden i medelvärde dividerat med variansen

Medelvärde förutsätter inlärning och är vad som kan göras både approximativt och exakt utan att vi känner talserierna. Vi kan vidare se hur vi bibehåller intensitets-representationer av det mesta. Vi kan därmed p.s.s. vi förändrar varians till volativitet se medelvärdet som den intensitet vi litar på. Dess stabila värde om vi så vill. Vi får för t-testet:


    ( Intensitet (A och B) - Intensitet ( A ) * Intensitet ( B) ) / Volativiteten

Det därför att hypotesen är att intensiteten av A och B samtidigt är meningsfull och är konsekvensen av A och B vanliga intensitet oberoende av varandra. För att göra det enklare att följa skriver nu igen om "medelvärdet" nu från intensitet till sannolikheter d.v.s. hypotesen är sannolikheten för samtidighet mot att A och B är oberoende:


    ( P ( A | B ) - P ( A ) * P ( B ) ) / Volativiteten

Kvar återstår att ge en möjlighet och rimligt fungerande skattning av volativiteten:


    Volativiteten = Volativiteten( P(A) , P(A) )

Därför antar vi att P(A) och P(B) är i samma domän eller att inlärda relationer för hur vi kan "omvandla" mellan domäner gäller P(A) och P(B) måste uttrycka vad aktivitet i hjärnans neuronnät kan konvergera mot d.v.s. det kommer vid slutet träffa en neuron eller en liten grupp av neuroner. Dess morfologiska form resp. mekanismerna för hur signalsubstanser sprider sig och via enzym-system (ex. MAO) bryts ner är vad som påverkar.


Desto större P(A) och P(B) ju mer aktivitet uttryckt i inlärningen d.v.s. enklast här att endast utgå från förenklat reducerad topologisk distans i dendrit-trädet. Reducerad distans ger att mer träffar troligare. Det innebär också att mer träffar troligare precis bredvid och skillnad i tillväxt bred ökar inte linjärt utan exponentiellt enligt någon fördelning precis som för centraliteten. Och där hur troligt signalsubstanserna träffar oavsett oavstånd också minskar approximativt exponentiellt när vi går längre ut från centraliteten.


Hur volativa A och B är styrs därför av deras magnitud. Det är det enda som styr därför att som vi vet gäller att olika typer av neuroner uttrycker sina former på dendritträden. Därmed kan vi approximera volativiteten för hur praktiskt fungerande i detta sammanhang (men ej p.s.s. alltid i andra situationer) utan att känna variansen genom att bilda:


    Volativiteten = sqrt ( P(A) * P (B) )

Det ger oss t-testet enligt:


    ( P (A | B ) - P (A) * P ( B ) ) / ( sqrt ( P(A) * P (B) ) )

Antag, att vi accepterar inlärningen av P ( A | B ) = P ( C ) och nu vill avgöra om denna relevant förändrats. Dess inlärning representeras av centraliteten vars avstånd reducerats till föregående neuroner.


Dess aktivitet vid tiden t + 1 ges av om vi aktiviteten nått oss via centraliteten, någon sidogren eller kombinationer av dessa. Volativiteten som är normal ges bara av centraliteten och vi får:


( P ( C | t + 1 ) - P ( C | t ) ) / Volativiteten ( P ( C | t ) ) =

[ Volativiteten är fortfarande samma uttryck som för inlärningen av P ( A | B ) att förstå ex. från teori för pooled variance inom statistik. ] =

( P ( C | t + 1 ) - P ( C | t ) ) / sqrt( P ( C | t ) * P ( C | t ) ) =

( P ( C | t + 1 ) - P ( C | t ) ) / P ( C | t )


D.v.s. Weber's lag.


Veni vidi vici

Lek med Tjuren

I visualiserad fortsättning av Våren väcker björnen.

Våren väcker björnen



"2011, sensing sun

Stepping out

Stretching

Sudden cold wind turned energy to sleep,

And I burned some of my fat resting another year.



2012, the sun over the trees,

- Hunting close to 2013 perhaps I let the true me running fast straight into spring."



Poeten och äventyraren

Hans Husman




Foto: Beingmyself