I Möjlig lösning: Aktivering av tillstånd relativt likhet i kontext diskuterades ett sätt vi kan förklara Weber's lag utifrån behovet att i inlärning kunna detektera meningsfull samtidighet i händelser, förändring av nivå, objekt m.m. En lika praktiskt i att det också översätter till ett både enkelt och beräkningsmässigt snabbt väg att motivera Weber's lag också från det absoluta behovet av detektion samtidighet är via t-testet.
Låt oss definiera samtidighet som att A och B sker vid samma tidpunkt. Tidpunkten definierar vi som ett tidsinterfall vilket är absolut tid relativt antalet händelser inträffande vi klarar att särskilja (vi kan dessutom förklara Weber's lag genom att gå vidare djupare från tidsdefinitionen men det är väsentligt mer krävande i text för att förklara det: 50 sidors behov om det ska göras seriöst). Här ser vi tiden från och med nu som en diskret tidpunkt.
A och B kan dessutom inträffa utan att den andra inträffar.
Lika från praktiska försök inom psykologin väldokumenterat är relationerna kring diskriminerbarhet (se ex. Signal-to-noise ratio in neuroscience) där vi här utgår från medelvärdet / variansen.
Problemet här är att vi vill kunna diskriminera samtidighet. Att i sig utan ev. bias byggd från befintlig inlärning avgöra om något är vettigt samtidigt eller bara samtidigt med vad som ger reward-påslag är inte möjligt. Reward kommer därför tendera att förstärka all samtidighet där upprepningen tenderar att komprimera det effekt ganska snart (även om det går att få folk att göra precis vad som helst oavsett hur irrationellt om de tror att det är kopplat till 10 kronors vinst på en enarmad bandit).
Problemet är att det inte är rimligt att anta att vi kan uttrycka volativiteten via variansen. Det förutsätter att vi har talserier av händelser vi kan göra beräkningen ifrån. Givet att människor har direkta svårigheter att lära sig saker utantill - inte minst mätvärden - är det att betvivla att vi har något annat än approximativt i resultat något liknande det.
Så hur är det tänkbart att vi kan approximera variansen? Jag undviker regelmässigt att i dokumentation, bok-kapitel m.m. att referera till det som varians därför att det är inte riktigt varians. Termen volativitet är bättre.
För att kunna detektera samtidighet är förutsättningen att A och B kan särskiljas. A och B är därför i sig inlärda. Volativiteten för att dektetera samtidighet kan endast styras av denna eftersom samtidigheten (om verklig) i sig inte är inlärd.
Uttrycker vi beslutet om samtidighet med Student's t-test har vi i princip samma sak som Signal-to-noise uttrycket refererat också anger d.v.s.
Skillnaden i medelvärde dividerat med variansen
Medelvärde förutsätter inlärning och är vad som kan göras både approximativt och exakt utan att vi känner talserierna. Vi kan vidare se hur vi bibehåller intensitets-representationer av det mesta. Vi kan därmed p.s.s. vi förändrar varians till volativitet se medelvärdet som den intensitet vi litar på. Dess stabila värde om vi så vill. Vi får för t-testet:
( Intensitet (A och B) - Intensitet ( A ) * Intensitet ( B) ) / Volativiteten
Det därför att hypotesen är att intensiteten av A och B samtidigt är meningsfull och är konsekvensen av A och B vanliga intensitet oberoende av varandra. För att göra det enklare att följa skriver nu igen om "medelvärdet" nu från intensitet till sannolikheter d.v.s. hypotesen är sannolikheten för samtidighet mot att A och B är oberoende:
( P ( A | B ) - P ( A ) * P ( B ) ) / Volativiteten
Kvar återstår att ge en möjlighet och rimligt fungerande skattning av volativiteten:
Volativiteten = Volativiteten( P(A) , P(A) )
Därför antar vi att P(A) och P(B) är i samma domän eller att inlärda relationer för hur vi kan "omvandla" mellan domäner gäller P(A) och P(B) måste uttrycka vad aktivitet i hjärnans neuronnät kan konvergera mot d.v.s. det kommer vid slutet träffa en neuron eller en liten grupp av neuroner. Dess morfologiska form resp. mekanismerna för hur signalsubstanser sprider sig och via enzym-system (ex. MAO) bryts ner är vad som påverkar.
Desto större P(A) och P(B) ju mer aktivitet uttryckt i inlärningen d.v.s. enklast här att endast utgå från förenklat reducerad topologisk distans i dendrit-trädet. Reducerad distans ger att mer träffar troligare. Det innebär också att mer träffar troligare precis bredvid och skillnad i tillväxt bred ökar inte linjärt utan exponentiellt enligt någon fördelning precis som för centraliteten. Och där hur troligt signalsubstanserna träffar oavsett oavstånd också minskar approximativt exponentiellt när vi går längre ut från centraliteten.
Hur volativa A och B är styrs därför av deras magnitud. Det är det enda som styr därför att som vi vet gäller att olika typer av neuroner uttrycker sina former på dendritträden. Därmed kan vi approximera volativiteten för hur praktiskt fungerande i detta sammanhang (men ej p.s.s. alltid i andra situationer) utan att känna variansen genom att bilda:
Volativiteten = sqrt ( P(A) * P (B) )
Det ger oss t-testet enligt:
( P (A | B ) - P (A) * P ( B ) ) / ( sqrt ( P(A) * P (B) ) )
Antag, att vi accepterar inlärningen av P ( A | B ) = P ( C ) och nu vill avgöra om denna relevant förändrats. Dess inlärning representeras av centraliteten vars avstånd reducerats till föregående neuroner.
Dess aktivitet vid tiden t + 1 ges av om vi aktiviteten nått oss via centraliteten, någon sidogren eller kombinationer av dessa. Volativiteten som är normal ges bara av centraliteten och vi får:
( P ( C | t + 1 ) - P ( C | t ) ) / Volativiteten ( P ( C | t ) ) =
[ Volativiteten är fortfarande samma uttryck som för inlärningen av P ( A | B ) att förstå ex. från teori för pooled variance inom statistik. ] =
( P ( C | t + 1 ) - P ( C | t ) ) / sqrt( P ( C | t ) * P ( C | t ) ) =
( P ( C | t + 1 ) - P ( C | t ) ) / P ( C | t )
D.v.s. Weber's lag.
Veni vidi vici