Konstanter för kostnad när aktivitet sprids över graf-relationer

2014-05-26

Kostnadsfaktorn för hur en nod kan påverka vidare över epoker alt. via random-walk liknar många andra (bl.a. Google Pageranking som beskrivet tidigt) och görs här för motsvarande koncept-nät som skapas från ett stycke innehåll i indata:



Problemet jag upplever med en vikt skapande en kostnad är att det är uppenbart för mig från dom perspektiv jag haft vad det jämfört med ingen vikt egentligen gör "korrektare" eller tillför i värde i resultatet mer resonerande:


1. Koncept I: Hur vi aktiverar upp resp. stänger ner ej relevant aktivitet vid konvergens till en tolkning

1.1. Jämför vi med hur "omedelbar spreading activation" tycks fungera biologiskt när vi läser aktiveras för ett ord - eller jämförbar enhet mer unison på abstraktionsnivå - ett antal möjliga "fortsättnngar" av det huuvdsakligen med kraftig tyngd från inlärt i första steg snarare än kontext befintligt. Neurolinguistics - An introduction to Spoken Language Processing and its Disorders, John C.L. Ingram, Cambridge Textbooks in Linguistics, 2010: ger en ganska kortfattad sammanfattning av det:



I steg efter med mycket vanlig grundfunktion var helst i hjärnan stängs aktivitet ner i första steget "predikterande aktiverade" relationer ej rimligt relevanta.


Exemplet i citatet är i sig avgränsat till vad lättare att ta upp vid tiden for studiens mätningar: ord där betydelsen i ett kontext ej är självklart. Det viktiga är emellertid att:


  • Tills betydelse gissats troligare i mening att vi sätter tillstånd till det fortsatt framåt tills det ev. går fel givet ny information expanderar vi upp möjligheterna och betraktar dem.
  • När vi gjort comit på en betydelse reduceras aktivitet övriga alternativ väsentligt ner.

D.v.s. det kritiska tycks inte vara just att reducera möjlighet en nod kan sprida aktivitet från dess egen aktivitet. En nod - eller neuron eller bättre konvergens för neurongrupp - signalerar "framåt" promiskiöst och noder där tar upp aktiviteten. Nås interferens för nod på abstraktionsnivå där aktuellt reduceras övrigas aktivitet modulerat stöd från andra system (vid sidan om närmare i neurongrupp mer direkt funktion som välkänt lateral inhibitation).


1.2. Begränsning vad en nod kan påverka med blir tycks för mig från detta koncept mer än fråga om att dess aktivitet ej stängs ner resp. hur långt den kan nå med viss sannolikhet rörande för ett kontext åtminstone implicita relationer via vad vi redan kan om världen resp. avstånd explicit i kontext (ex. om nod är i samma mening, i rubrik direkt innan o.s.v.).


Det är tror jag fel att se aktivitet som stängs ner som ej bidra till konvergens också när de explicit eller implicit ej aktiviterat upp konvergens nod eller nod-grupp på mätbarnivå. Att de ej klarade att aktivera upp något själva över tröskelvärde bär ju "uteslutande information".


2. Hur läser vi egentligen?

Föregående paradigm är jag sedan längd tilltalad av därför det är abstrakt enkelt att förestå och inför ganska få antaganden i sig. Däremot är det inte direkt trivialt i att härleda vikter, låta dem agera funktioner av tillstånd, och kanske mer än något annat utnyttja paradigmets självorganiserade natur väl i vad det kan indikera utan att det kommer till priset av att man för en ganska kortfattad text likt titel, abstrakt och kategorier för en forskningsstudie sitter med över 100 000 aktiverade implicita noder efter några varv givet innan pågående kotnext upparbetat läst innan, personen pågående o.s.v. Att aktivera upp är lättare än att aktivera ner åtminstone när tröskelvärden lämnas.


Men man kan också resonera från hur vi läser och hur det påverkar olika aspekter vi är intresserade av att modulera. Lägger vi en kostnad på hur relationerna kan propagera kan vi ju se kostnaden representeras av sannolikheten när vi betraktar ex. en mening i taget (eller ord för ord m.fl. alternativ) att läsaren slutar att läsa och går iväg för att göra något annat istället. Kanske gå ut för att handla tändstickor för att göra ett tidningsbål.


Men vad innebär det? Antar vi att läsaren läsande innebär att vi se möjlighet till förändring i ett varaktigt globalt tilsltånd för en tänkt population av väldigt många läsare kommer denna läsare bidra med mindre sådan feedback. D.v.s. påverkan och därmed prediktion av hur associera koncept ändrar dimensioner rörande valence, känslor, volativitet, påverkan andra, om de växer eller minskar, och allt annat vi kan söka se blir "stympat".


Men har det egentligen någon betydelse? Möjligen. Men mycket tänkbart har vi likartade begränsningar av andra orsaker mer påverkande:


  • Utgår vi från princip en skribent en läsare för innehåll av typ där detta är ganska rimligt och görande bedömning görligt gäller att vi selektivt kan söka informationskällor ej begränsade motsvarande att läsaen slutar läsa via samplings-kanaler jag åtminstone nu föredrar: feeds (RSS och liknande). Här är när vi exkluderar motsvarande tweets och liknande kort full story i RSS det normala.
  • Antar vi att vi samplar entiteter där samma antagande ej är optimalt d.v.s. tidningar med många läsare eller starka bloggar med många läsare [ vilket är ett bra antagande därför att jag gör så tillsvidare i väntan på att något elegant halvfabrikat ska presentera sig för att ta ut nyheter "visuellt-generiskt" utan riktat letande av mig (i brist på det givet att man har förkortat inlägg i RSS kan man åtminstone normalt se var nyheten börjar på html-sidan medan var nyheten slutar ibland kan vara enklare från mängden terminerade html-taggar relativt där innan påbörjade - kanske i en bättre värld än där vi är: jag har endast prövat det mot Wall Street Journals Japan Realtime som är om jag kommer ihåg rätt ganska ok som test eftersom den stoppar in "icke relevant" inlägget publicerat i strömmen) ] gäller att RSS-ström är begränsad. D.v.s. nängd data att analyserad är ändå reducerad.
  • Vidare för entiteter föregående gäller att återpublicerad endast av titel och kort ingress är mycket vanligt också utanför publikation och där det är från en hel del nu känt från varierade studier lämnande direkt upplevelse av det samma som surfare med eller utan att klicka och läsa hela att också respons i form av tweets (tydligast re-tweets) ej nödvändigtvis kommer med att hela nyheten lästs.
  • Vi har också nu ett fåtal stora tidningar och fler till antal mindre (ev. ungefär det samma i andel) som ej gör hela nyheten tillgänglig utan betala. Ett vanligt system tycks vara (där jag tror The New York Times var bland de första):
    • Vi får läsa ett fåtal nyheter fritt per kalender månad.
    • Därefter förväntas vi betala.
    • Därmed påverkar också tänkbart temporala samband som kan innebära att artiklar i början av en kalender månad blir mer lästa i sin helhet.
    • Emellertid får man ofta också läsa artikeln gratis om man når den via Google. Därmed skiljer sig läsare spontant eller naturligt via den kanaler resp. läsare som fuskar via sökmotor-kanalen för att läsa gratis.
    • Fuskar emulerande en sökmotor-läsare. Spekulativt kan det vara uppmuntrat av publicst påverkande hur de konverterar oavsett den besökaren befintliga per "enhet".

Från vad jag försöker uttrycka är utmaningen att söka uttrycka vad av nyhet som flest ser och upplever än vilka andelar av nyheten någon som konkret sätter sig och börjar läsa den där hela nyheten faktiskt finns tillgänglig. Men här känns det som kanske andra modeller passar bättre än att betrakta över explicita resp. implicita noder aktiverade. Exempelvis läsbeteende där vi uttrycker sannolikhet - eller för något så basalt grovt andelar som betraktar resp. självklar abstraktion från överst titel över ingress ner till allt till sammans - men det är inte självklart för mig hur stor skillnad det egentligen gör (jag analyserar den information i feed och tycks det magert kompenserar jag tillsvidare med fler entiteter att sampla).


3. Och vad vi kan vi missat

Dessa algoritmer med eller utan kostnad tycks alltid konvergera för mig. Det finns matematiskt formalia med härledningar o.s.v. för när det gäller som givet. Ev. kan emellertid gälla att nära kostnaden ses som funktion av parametrar mer globalt för pågående konvergens och nedstängdning (ex. något motsvarande likhet till kraftigt aktiverade nod-grupperna) att det kan lösa egentligen allt önskat i del ett såväl som kanske även om jag för det senare ej ser det själv riktigt det senare.


Jag aldrig försökt låsa det den vägen. Utan mer anammat något ej självorganiserat som tittar till det självorganiserade mellan resp. epok för normalisering, tröskelvärdes-filtrering / nedständning o.s.v.


En generell tumregel när jag känner mig lätt distansierad till ett koncept jag ej prövat kan värde finnas där jag ej har lust att realisera därför att man behöver göra något (kanske enklare och bättre) med ny metod.