Varning: Här försökte jag på mig på att göra spontan matematik för relationer och koncept välkända för mig praktiskt. Även vid kan man tycka "enkla" formler gäller att små-fel regelmässigt är vad jag förväntar mig fodrande praktiska tester hit och dit (delvis kanske relaterat dyslexi eller möjligen och mindre vad jag egentligen vill föreklara det med att jag kanske tenderar att visuella data mer vilket blir miss-match ibland: Här kom vi in lite på det kring magnituderna så jag tar med det här likväl).
Den Gode Läsaren - varande föredöme för oss alla - kan se detta som en spännande skattjakt man får avslut på när jag någon dag senare (upp till om jag glömmer det hela något år eller aldrig) svarar efter att felen levererats till mig: Ev. med ett pris av något slag (kanske en dikt jag skriver själv och publiceras: Men inget som behöver skickas -Det känns så 1970-tal att försöka leta rätt på ett postkontor att köpa kuvert i och få vägt och skickat).
Det ändå fel som också (i allt troligt) också är intressant detekterade jag dock och kommenterade: Att jag uttryckte en konceptuell entropi-funktion för normalfördelningen med en sqrt-operation på ett varians-nära indata istället för normaliserat enhetscirkeln (jag tror mig minnas från evigheter tillbaka att 2pi har något med det att göra så för att understryka att jag gör fel här trots att folk försökt lära mig matematik vilket kan gömma en del fel förrädiskt med subkulturella termer humpar jag dit det - Eller om Normalfördelningen är polära koordinater kanske? Eller en cirkel?). Mycket spännande i matematik säkert nyttig för barnen att lära sig mycket mer av i skolan: En sommar-månad med matematik-kul från sommarlovet borde vara obligatoriskt. Så slipper de senare i livet spekulera runt koordinat-system (är polära koordinater det?) och enhetscirklar.
Dessutom har jag haft lite problem med ögonen igen: Varande sen med ögon-droppar. Så jag kan ha blank-skrivit i delar mot slutet utan att sett om jag kom fel med tangentbordet. Jag såg dock inget tecken på det kontrollerande ytligt men samtidigt ser jag lite nedsatt tills ögonen fått hjälp att återfuktas (nu typ av lins jag helt säkert ska byta framöver).
Vidare illustrerade jag några egenskaper särskilt unknown och negativt bias riktat mot läsare mot slutet (d.v.s. be om ursäkt, förelämpa igen och växla). Jag tycker verkligen att den det intresserar bäst läser övrigt relaterat ämnet innan och söker bakåt till bättre genomarbetade diskussioner. Webers-law föregripande Riktad information som tagg kan tänkbart diskutera en del här. Sådana här inlägg lika mycket skrivet för egen del tänkande övergripande (förutom lite initialt tydliggörande) ska egentligen detta inte behöva påpekas för: Samtidigt har jag förstått att en del försöker riktat hämta ut saker som intresserar just dem över ett fåtal ämnen inte helt relaterade till varandra. Jag gör så själv när jag söker intressant information men i den mån något tycks användbart och det hittas i detta eller liknande krävs viss kontroll till mer avgränsade inlägg (eller alternativ källa).
För att tydliggöra. Tänker vi oss att jag eller någon annan (som tänker till först) sitter och processar en mängd data för att säg lära sig något prospekterande intressant om Ryssland eller cognitive science med vissa parametrar för vad man söker, och där detta ej är omedelbart enkelt uppenbart, bör det lätt inses att:
1. Representera koncept Ryssland eller något annat ej helt avlägset med cirka 50 till 100 ord-features som tillsammans ex. ger tillräckligt god similarity utslag på dokument och ev. inkluderar några kanske synonyma begrepp är sämre än att..
2. Representera stort land / stort forskningsområde avspeglande deras större bredd och djup i vad de associerar till och vilka intressen och verksamhet de har.
Bara en sådan sak som att försöka skatta hur stabilt intensivt stort ett land eller vilken ej helt liten organisatorisk entitet är i samarbete blir omedelbart problematiskt utan att bibehålla dimensioner för den typ av relationer. Att NATO är en relevant dimension för såväl Danmark, Ryssland och Sverige är givet och beroende på hur uttryckt man samlar olika former av data får man skilda uttryck för samarbete: Jfr den internationellt välkända mötes-tysta svensken som annorlunda från andra sitter och antecknar utan att någon bryr sig förrän det smäller vid slutet av mötet när man för första gången (någon av de övriga kan minnas) förväntas ha en agenda med sig därifrån - som ett par år sedan åtminstone satt i mer eller mindre alla samarbetsgrupper NATO hade (det finns alltid en svensk från maoistiska gerillor i Peru till NATO brukar jag säga: Säkert relaterat causalt resp. som följd av att vi är så internationellt beroende).
Vill vi särskilja mer exakt etablerar vi mer uttrycksfyllda dimensioner - d.v.s. än mer än bara NATO som räcker långt i allt statistiskt relaterad för dokument och information retrieval - beskrivande vad det är för typ av samarbete det handlar om, etablerande dessa koncept, och sampla dem nog från var de hör hemma till grundvikter. D.v.s. Partnerskap för Kanske vi krigar med er och andra projekt NATO har haft genom åren (jag har väldigt dålig koll på om de egentligen haft andra genom åren men det verkar väl inte otroligt i alla fall: Något om jag minns att kontrollera i Blue light representationen.
Sedan visst inne i meningar kan man ha nytta av i bästa fall snabbare få-dimensionella representationer. Samtidigt om man identifierar named entities, chunks m.m. korrekt och riktigt utanför 1-gram och har dom associerade sannolikheterna mellan dem räcker det ofta nog minst lika långt. Problemet där är att man givetvis ofta saknar riktiga värden för dem (fler-dimensionell similarity går förövrigt åtminstone för koncept inom områden viss hand QA gjorts - säg de 30 000 mer potenta - användas för att prediktera givet ett kontext P ( A | B ) mellan två koncept.
Men det är mycket med similarity som det ibland används man kan se som något annat. Såväl som också men får jag anta mindre troligt statistiska relationer. Tar vi t-testet jag själv är tämligen förtjust i för vissa typer av relationer gäller nu att vi kan se det som något helt annat än hur många vill förklara det:
Först kan vi välja att approximera varians tydligare för vad jag avser - och ofta inte sämre det - än jämfört med hur ex. Mannings gör det i sin bok om NLP. D.v.s. vi antar här såväl som där först och främst att informationen ges ungefär motsvarande som för normalfördelningen ( sqrt ( lambda ) )
sqrt ( P ( ord_1 ) * P ( ord_2 ) )
Tänker vi oss som ofta är fallet att resp. P ovan är i ungefär samma storleksordningen får vi en magnitud motsvarande approximativt en av dem.
Korrigering: Den uppmärksammade läsaren har helt rätt i att jag beskrev entropin för normalfördelningen defekt. Det är en log-operation snarare än sqrt som görs.
Samtidigt är det ett fel jag anar kommer från att de rörande vissa typer av data relevant här i viss användning inte skiljer sig brutalt åt. Det gäller även längre i från intränade vikter som när vi i information retrieval trycker ner frekvensen för termer med oftast antingen log (f + 1) eller sqrt ( f). Ingen resp. behöver vara bättre än den andra utan det beror lite på.
Möjligen gissande en del gäller att ju närmare avstånd vi har rent generellt - i hjärna eller i maskin-analys kontext i text resp. desto bättre är sqrt medan ju längre avstånd desto bättre kanske log såväl som exponentiella funktioner approximerar hur beroenden avtar över större avstånd eller skillnader.
Oavsett vilket ändrar jag inte detta och säger utan att ge mig på att göra det med diverse fel säkert kan vi skapa approximationer av variansen via log-operationer på skattade sannolikheter vilket jag minns mig jämfört med ett annat alternativ utan större skillnad. Inte otroligt kan något matematiskt subkulturellt härledda saker runt ditt och datt här (det här med pi jag minns från uttrycket för information kan vara en cue om att man inte ska försöka motivera sådant här bättre än så jag inte sitter med något sådant för att missriktat göra något strunt perfekt i detaljer här.
Ovanför divisions-strecket har vi ju också P ( ord_1 | ord_0 ) vi antas ha riktigt värde för. Emellertid om de nu är helt oberoende vilket vi testar för eller i andra sammanhang om vi saknar värdet kan vi approximera med:
P ( ord_1 ) * P ( ord_0 )
D.v.s. med samma jämförelse som innan ungefär magnitud av ett P i kvadrat. Och dividerar vi den magnituden med vad vi har nedanför divisionsstrecket hamnar vi på jämförbar magnitud med ett P.
Och det torde vara större delen av värdet både t-test och annat har: En funktionell väg att få olika värden skalade till värden där de är jämförbara utan att första (i bästa fall) värdena vi söker. Och varför de felar stort så fort något är oväntat ovanligt eller oväntat vanligt medan annat vi jämför med ej avviker är att antagande om sambandet för information falerar, och därmed gäller ej approximationen vi gör nedanför-strecket innebärande att vad vi har tänkte oss motsvara det skal-magnituderna är olika. En normaliserar på ett sätt och en för-felaktigt långt bort från det.
Många använder kanske ev. särskilt cosinus-similarity och ev. dimensions-reduktions-system som Kohoonen m.m. för att få saker jämförbara. Blir funktionella värden. Men kanske inte självklart bättre än om man bara räknat det rätt i skalan från första början. Jag har dock all förståelse för att något funktionellt är bättre än att sitta och skada sig själv med sådant här. Men det har om man vill gå djupare och bredare kanske vissa poänger att se till att saker är jämförbara med varandra utan att man behöver smeta ut dem på en bunt relaterade koncept görande den genomsnittliga approximationen troligare riktigare tack-vare så lått nu språk med lite mängd ger tydliga fördelningar.
Jag vågar inte riktigt p.s.s. påstå att Bayes regel ibland också används för detta. Särskilt som jag aldrig tror jag någon gång när jag behövt använda den igen ej första gången jag gjort det fått riktningen mellan P(A) och P(B) fel (sådana riktnings-fel är inte ovanligt för mig men aldrig så alltid). Sista gångerna visste jag att det var fel men kunde ej se det utan satt och prövade det någon timme förundrar över hur det kunde bli mycket bättre värden när jag gjorde det rätt istället för som jag ville ha det.
Och gör vi sämre point-wise-mutual information därför att vi ej likt som för t-testet får en motsvarande extra subtraherande sqrt ( lambda-term) (från P(A) * P(B) subtraherande och därefter dividerad med vår approximation av informations-varians-beroendet vilket ger oss ~ ( P(A | B) / sqrt (P(A) * P(B) ) - sqrt ( P(A) * P(B)) ~ ( P(A | B) / sqrt (P(A) * P(B) ) - entropin - om normalfördelat och vi jämför saker som kan jämföras med varandra)) gör vi praktiskt samma skalning till gemensamt jämförbar magnitud.
log ( P ( ord_1 | ord_0 ) / P ( ord_1 ) * P ( ord_2 ) ) / log ( 2 )
Där nu ju sämre skalningen ger något approximerande 1 - 1 förhållande desto mer information antas det ha.
Man kan ju gärna antar jag (jag brukar anta så oftast när man håller på ord eller fraser) att vi har tre typer ovan. I någon mening stämmer det väl: Ord_1, Ord_0 och så "Ord_0 Ord_1". En del kanske menar att de är två typer och det stämmer väl också om man vill definiera typerna så.
Även om vi endast aktiverar dessa tre typer totalt tolkande två-grammet i hjärnan kanske dock antalet typer också utan att vi aktiverar relevanta relationer eller tar hänsyn till kontext är något annat än tre.
Antingen har vi konvergerat och bestämt oss i vilket fall jag säkert tror att vi ex. 2-grammet aktiverat såväl som med viss påverkan av orden åtminstone en tid inverkande. Eller så bestämmer vi oss. Antalen känner där vi kan räkna in aktivering på koncepten på kontext (snarare än relationer från kontext eller inlärda representationer). Så det kan ju inte vara antalet typer.
Och så har vi våra stabilt inlärda vikter för konceptet. Som om man vill vara noga kan vara mer eller mindre aktiverat. Vilket även utan relationer till andra koncept beror av en liten mängd relaterade neuroner närastående (som konstaterat i några studier sista åtta åren tror jag för hur vi konvergerar koncept i hjärnan). Vi kan konvergera till lite olika varianter av samma sak där vi får anta en centralitet av det hela jfr prototypikalitet.
Och det är kanske så att de värden vi tar ut där i en eller flera dimensioner är typerna. Några Hans typer ex. "Hans som gör skämtteckningar", "Hans som skriver något tråkigt föga korrekturläst jag inte ids läsa", "Hans The Big Warrior We all Lookup to", "Hans läraren i visdom" m.fl. roller jag kan tänka mig att läsarna kan uppleva mellan inlägg (jag är så säker här att ser jag det i en titel i sms eller e-post läser jag det inte: Helt predikterbar information är bara att komprimera bort). Inspirerande att associera kring för den som mår bra att förstå att han eller hon inte är ensam bland mina läsare i sin beundran: Man, Myten och Legenden: Förebilden och Ledaren men ändå en enkel människa precis som många andra svagheter och aldrig rädd för att dela dem).
Nå tillbaka till för att avsluta detta;: Vad säger detta nu oss att så många tycks göra olika former av similarity operationer med inte otroligt faktiskt värde. Jo att dom vanliga måttene när vi väljer att se dem som skal-funktioner ofta kommer tämligen fel. Det kan mycket möjligt vara den ensamma förklaringen till varför så många fenomen inom psykologin som frequency effect går att göra bra formler för fungerande för en del data men över mer data har väldigt svårt att orka längre än till en stor grupp väldigt hög frekvens, väldigt låg frekvens, och åtminstone sista tio åren hög, låg och medel utan annat än om alls väldigt litet kontext.
Jag kan "av och till" finna skal-frågorna d.v.s. vad vi kan jämföra med vad och hur utan att förstöra information eller få den lite skew efter något vi ej känner utmanande och motiverande: En trevlig möjlighet att lära mig mer, tvinga min kognition att sträcka sig upp or den lättsamma vardagen. Samtidigt när denna version senare i år är stabil känner jag att det börjar bli dags att refresha folk från förr bland riskkapital så man kan ha någon väldigt specialiserad person på hela det här matematiska. Jag visualiserar ofta matematik och det kan när man prövar ut nya delar vara mycket motiverande arbete särskilt kring skalning därför vi ser hur det ska fungera med varandra men typerna (kanske 32 bitar som gjorts sig lite större utanför sina fyra uchar och därför ser konstigt osannolikhet ut jämfört med 32-bitars typer) vi får in är inte konvertibla.
Ett till exempel många inom Natural language processing är närmast mono-maniska kring är Count ( a b c ) / Count ( a b ) där vi tänker oss abc varande tre ord (ellr för den delen precis vad vi skrev). Också skalning. Och som en del menar gör vi ju själva i kognitionen ibland approximationer av sannolikheter genom att göra samma sak men för sannolikheter och ej dom "riktiga" sannolikheterna utan exempelvis för P ( a ) / P ( P ) som approximationen till förra kvoten. Samtidigt pekar försvarligt mer data idag på att vi representerar motsvarande frekvenser för också långa n.gram (liknande chunks även om jag inte riktigt tror att det är den enklaste förklaringen: Vi gör det säkert för även väldigt långa fler-gram om de motsvarar stabila koncept medan jag håller det för troligare att vi får jämförbar approximation för längre fler-gram från språk från del idenfifikationer av koncept vi faktiskt mått i strängen: Det kan verka så för mig även om jag inte ha fått dessa delar klara just där det är met talande - Men tidigare försök här finns ju parser-dumparna från min dependency-parser där det bör ligga tidsmässigt så att ngram-detektioner i fraserna oavsett dependency-relationer framgår med diverse vikter).
Och ska jag förstå risk eller värde är det intensitet: Motiverande och för-fettat-förslöande är möjligt för resp. Bred prospekterande inlärning sökande interferens längre ut jfr reward påslag vid inlärning (som jag tolkar det) där stor seger gör det troligt att aktiverad vetskap kan finnas meningsfull att få med i inlärningen fordrande just därför att relationerna ej behöver vara befintliga att reward-signalen blir kraftigare för att fånga upp det. Eller p.s.s. motiverande sökande stor skatt några steg bort. Eller otäck fara som smyger sig runt i arabiska texter i teve-kanaler (sådant små-skämtande man kanske bäst slutar med om man tänker sig en kommersialisering nästa år: Det är ju en domän där det handlas upp av och till relaterat detta där jag kan tänka mig ett par funktionella företag befintligt levererande till särskilt DoD - men vem vet kanske lättare än man tror at t leverera med rätt analysstöd till myndigheter) - resp. här CIA som jag skämtade med såväl som DoD finansierar ju en hel del motsvarande behov man ej har - Det kan bli en tuff omställning för er läsare att måta den slugt trevliga slipande Hans i inläggen närmaste åren kanske letande power-points nyckelpersoner som myndighets-chef, styrelseordförande eller liknande pratat om i något sammanhang för att lyfta fram till god läsning för vem som helst som vill bättre sin förståelse av vad shit kommer ner till).
Också reward gör skalning: Därav att en rik kvinnlig musiker med oändlig budget festande lös på kokain efter några dagar kommer fodra enormt större mängder än första dagen. Predikterande för en period (det kan finnas någon subkulturell-term här tycker jag mig minnas från kompletterande sådana koncept några år sedan) är mängden delad tidsperiod innan ungefär funktionellt med dagen som tidsenhet. Nära besläktat men inte riktigt samma sak är reward discounting där dispergens mellan predikterad och inlärd intensitet kontra betalad skiljer sig åt - och där tidsavstånd kan styra ofta argumenterat irrationellt för hur vi bedömer belöning på olika avstånd i tiden. P.s.s. har avstånd mellan stimulans såväl som själva skalan för ett försök stimulans ger under en skal-faktor (och här menar vi nu snarare än student arbetande extra som försöks assistent som läser upp ord för dig i en viss approximativ takt vilka du förväntas informationsbehandla på något sätt som kan mätas) vilket Wikipedia skrivit lite om (men misstänkt kanske ej 100% korrekt alt. uttryckt lite underligt från mitt perspektiv i alla fall men själva konceptet framgår och referenser brukar ju finnas för den ev. mer intresserade): Serial Position Effect - Ratio Rule.
I kontrast gäller ju att flera välkända gamla fenomen inom den vetenskapliga psykologins tidigare år ofta också kom in när faktisk intensitet påverkar inlärningen: D.v.s. närmare motsvarande från varians-term under sqrt långt tidigare. Fitt's law är ett fascinerande exempel. Mer välkänd är Weber-Fechner_law och idag populärare Stevens Power-law. För mig tycks det dock att mycket vi gör i natural language processing kommer tämligen nära Weber-Fechner. Tänker vi oss exempelvis att vi har två koncept samverkande: Ett är verkande uppåt i intensitet och ett nedåt som för orden less much kan vi exempelvis ge oss på att försöka beräkna ett avstånd mellan resp. värde (vilket jag gjort av och till som quality assurance på andra värden). Exempelvis enligt:
Första intensiteten säger vi är 0.5 och den andra 0.3. Emellertid är deras riktning för förståelse tillsammans lite särskilda. Hög aktivering ska trycka ner den andra. Så vi väljer här att se avståndet mellan dem som (för att vettigt jämföra dom här för resp. fall fodrar tror jag om minns rätt sex-stycken varianter av den ekludiska: Två för varje fall UP-UP, DOWN-UP, DOWN-DOWN och så denna att qa-jämföra med om man så vill).
sqrt ( ( -0.5 - 0.3 ) * ( -0.5 - 0.3 ) ) / ( sqrt ( 0.5 * 0.5 + 0.3 * 0.3 ) ) = 0.894427191 / 0.58309518948 = 1.53392997771.
Vilket som förväntat när den första har viss storlek (vi kommer dock få tydliga dispergenser när vi har andra riktningar resp. får större mer oväntade värden) inte brutalt skiljer sig från vad vi hade fått om vi helt enkelt tolkat den andra intensiteten helt med den första som skala likt den förenklade formeln Webers-law ofta beskrivs med:
-0.8 / 0.5 = 1.6
Jag har stor preferens för addition och subtraktion med division när jag jämför värden trots viss kostnad i extra beräkningskraft jämfört med logaritmiska (och det gör verkligen viss skillnad i de språk jag använder). För att skatta enskilda intensiteter temporala just nu eller stabila har jag kraftigt bias åt logaritmiska former för skalning.
I båda har normaliserat (jag har sett ordet ibland och gillar att använda det men egentligen är det nog inte riktigt det som görs i något av exemplen här eller i övrigt eftersom det ej är funktionellt för allt data och ej i sig själv pekar ut var dessa metoder fungerar bra). Mer att man dividerar bort något vi ej vill ha där skymmande det roliga i datat som vi hoppas ej avviker som det uttryckts i resp. term.
Tydligt illustrerande här när vi skalande intensitet mellan två uttryck för samma koncept både har extremt låga inlärda vikter och föregående dag haft låg intensitet: Och dagen efter får extremt höga värden. Magnituderna fungerar ej och vi kan hamna i oändligheten innebärande att folk är oändligt intresserade av ämnet och inte gör något annat alls hela dagen. Eller korrektare indikerande att inlärning är mer aktivt för oss såväl som personer som möter ett plötsligt mycket uttryckt ämne indikerat viktigt som de förr kanske inte hört talas om.
Entiteter som notoriskt uttryckt detta som de märks i relevanta nyhets-topics får man viss entitets-nära inlärning av. Google är ett bra exempel som genom bredd i teknik-projekt, d.v.s. storslagna projekt stora intäkter möjliggör m.m. får gärna också utrymme för dessa men också relativt annat lätt fallande så. Likt hur vi för andra teknikföretag också sett: De blir gärna efter en tid tråkigare oavsett hur mycket de försöker få teknik att vara coolt. I den mån de är ekonomiskt "reward-intessanta" ligger dock allt relaterat det fortsatt uttryckt i nyheter. Jag försökte här för en tror jag perfekt entitet att betrakta titta på data för AT&T resp. IBM. Men det blev inte av att komplettera upp med den stora mängd text som båda har gjort tillgängligt fritt uttryckande deras projekt och forskning för en mängd år bakåt i tiden. Om nu AT&T någonsin varit coolt vet jag inte: Det skulle väl i så fall vara på den tiden när Rule it all Bell hade telefoni-tekniker som kom med gevär, och släggor, för att ta hand om företag och personer som gjorde icke-korrekt telefoni innanför deras patent-skydd.
Förövrigt rörande beräkningen i Belgien kan vara ett lite bättre land än många andra: Dess folk löser svåra mycket viktiga problem (Samplings-normalisering som funktion av "corpus-regionens" yta) var det inte riktigt vad jag hoppats på men egentligen inte riktigt förväntat heller. Jag lär knappast diskutera någon lösning till det. Även om sådana finns och fler kommer finnas fungerande känner jag inte att det blir motsvarande en lösning. Snarare riktade anpassningar beroende på vad data ska användas till mer direkt. Ex. aktuellt där jag kodar nu om vi är i en serie adverb där vi kan med föga förlust kan strunta i att en del adverb efter varandra är vanliga i sig själva med något avvikande mening rörande associerad intensitet (tar vi ex much more gäller för mina vikter att resp. much och more är ytterst näraliggande - nästan udda så - och det har antagligen delvis en förklaring också i att frasen finns existerar som två-gram: Och den motsvarar inte riktigt vad vi får gemensamt påstår jag även om den nog gör det nu men det finns ett till ex. med större skillnad och en direkt upplevd förståelse av att det är lite mer neråt än kanske förväntat från orden i andra sammanhang där vi dispergens på cirka 0.10 "intensiteter" som får gå framåt till adjektiv som påverkas finns vilket ger ett tillsammans försumbart fel). Men för noun-delarna gäller nu inte exempelvis förenklingen att utnyttja ord. Och argumenterat märker vi det mer och mer desto närmare noun-delarna i NP-frasen vi kommer.
Rörande deras frekvenser inkl. deras normaliserade värden såg de vid en snabb-titt ut att vara mycket rimliga. Emellertid - vilket ej är vad de riktigt riktat in sig på heller - är antalet ord man har värden för inom specialistområden få. Detta gör antalet ord totalt få. Minns jag rätt var det ett par hundra tusen. I kontrast tror jag att jag 12 000 adjektiv som är property-indikerande från olika forskningsområden bl.a. prospekterande omvandlande adverb till adjektiv och följande upp i studier. Ex. har vi analgesic men inga av de många ord som börjar på analgesic. Det är verkligen ingen nackdel med datakällan.
Den imponerade i övrigt storligen på mig i antal värden associerade orden man samlat. Och kanske inkluderande ett par som hör till vad jag av och till samlar på mig för att uppdatera vissa vikter om än mer sällan krävande mycket manuellt mellan dem. Jag såg dessutom en del data runt om kring databasen kring concreteness. Jag har "gjort" abstract och concrete och det hörde till en av de minst värde-skaparna vikt-områdena där grundvikter från forskning psykologi tagits till analys text resp. associerande projektioner i kontext. Äldre vikter från området psykologi är också i mycket orimliga när man tittar manuellt på dem (vilket jag först inte gjorde tillräckligt i alla fall). Nära relaterade vikter imagery har också problem (var mitt intryck) men tydligt mindre (användbara för mig i alla fall nedviktat och kombinerande med annat bl.a. associations-studier till en form av normal).
Vidare har jag gett mig på flera gånger att försöka hitta enkla algoritmer för att uttrycka hur abstrakt ett koncept är i min Bluelight från hur dess relationer ser ut kontra dess egen för det systemet lokala vikt Ett koncept likt Sverige bör ses som jag ville ha det mer abstrakt: Inkluderande mycket mer under sig med spridd ej nödvändigtvis relaterat - och också om jag kan ta på Sverige är det inte begripligt var jag tar på Sverige enkelt när du ser mig om jag inte säger det också medan om jag tar på en person och du tittar på mig konkretiserar det men sådant är ju mindre intressant här även om jag tror den metodiken forskning psykologi nu gör en del kring är sund: Kan jag slå på det med en hammare är det konkret). Ett forskningsområde mycket inriktat och smalt relativt ett mer övergripande (ex. perception psycholog vs psychology) skulle p.s.s. vara mer konkret.
Och verkligen att flera enkla skattningar perfekt klarar av detta för många koncept man kommer att tänka på att direkt testa på. Men det hela blir tämligen problematiskt över alla koncept stängande dörren för varje form av värde rörande text-analys, sökande samband m.m. Den användning som finns och kvarstår delvis användande detta är när vi kreativt vandrar Bluelight och vill fundera om vi går mot något smalare konvergerande ett delämne eller söker oss ut mot bredare mindre exakta ämnen. Praktiskt begränsas dock det snabbare p.g.a. prestanda kostnader normalt av andra små kontroller nödvändiga på min hårdvara i alla fall (gyr stirt ör det hfr rekevabs guttad ned bpgra sklumpmässiga sample av området), Fördelen är dock att vi kan bedöma abstract och concrete från resp. perspektiv: Hur abstract psykologi är för perception psychology (större skillnad jämfört med något mindre besläktat psykologi eller ett område inom psykologi täckande upp mer i fler områden: Exakt hur detta ska fungera avstår jag att skriva ut därför jag tar lätt när jag inte tittat på det en tid fel på riktningarna här).
Viss släktskap determiners finns givetvis såväl som mina två intensity vikt-dimensioner Known - Unknown: En koppling till hur specifikt / Hur osäkert givet ett kontext vi har just nu / Mängden nytt i bredd / Vs mer inom ett avgränsat område vi innan bättre kan skatta (mer konkret). En typ likt a horse är mer abstrakt än The cool black horse någon riddare kanske köpte för att uppleva hastighets-intensitet icg för att imponera på kvinnorna och jaga i fatt mindre män att springa om med). Mycket konkret häst: Dessutom framgår från mina exempel ett spännande korrekt manligt verktyg till självförverkligande med (andra värde-dimensioner likt föredöme / prövande nytt m.m. för små-eldrivna bilar finns förstås också: Men en del gillar stort och snabbt).
D.v.s. som förväntat bara av enkla fenomen kända som frequency effect föreligger inlärning av osäkerhet. Oavsett hur väntat ett ord eller chunk är kan det kännas osäkert och otroligt med rätt ord. Effekt här är i min erfarenhet (delvis helt säkert relaterat mindre prioritet filer med koncept relativt andra men ej uteslutande så) mindre än dimensioner indikerande högre eller lägre intensitet (great, big, danger, dumb, dark m.m.) eller positiv - negativ (dumb igen, good, awfall, dangerouss, dark). Flera är mer praktiska för att detektera bias och ofta antaget "förrädiskt språk" (men kan man detektera det den här vägen är det inte svårt manipulativt: Jag tog ett exempel i Riktad information - Exempel Ridicule - Hund Fala med President Franklin D. Roosevelt där jag begrep en term felaktigt i en äldre bok som att man talar utan att beröra ämnet eller koncept men ändå skapar bias för konceptet som direkt upplevt efter talet - där är vi i problematiskt manipulativt språk). Men det gäller emellertid övriga dimensioner för polarity jämförbart. Vissa kombinationer i fras förstärker dock kraftigt från Unknown där polarity är en faktor att ta det via: Hög intensitet, Fara / tydligt negativt från kontext antaget för person och på det osäkerhet. Vad som utlöser att folk gör saker mer än bara sitta och läsa: På låg nivå ex. e-posta, ringa, diskutera m.m. uttrycka information för att få information (men mer problematiska beteende som lynching är ju också känt: Varför jag brukar varna för fel så det inte känns osäkert för er läsare om ni hittar dem icke-varnade och kanske blir angrips-intensiva mot familj eller mig - Som en kontrast för var en del diskussioner om problem med subjektiva uttryck befinner sig sökande motiverande ganska basala detektionslösningar med överdrivet behov).
Och här tror jag vi avslutar men tanke-genomgång här. Möjligen som kanske också skapat värde för fler? Vem vet kanske finns något ord som skapar idéer som löser ett stort medicinskt problem eller som vi snart ser i patent för ett nytt Crime against humanity vapen. Det är det som är så spännande med att skriva: Inspiration och kreativitet är frihet läsarna äger. Ibland går det ut och lynchar grannen från något man skrivit och andra gånger gör de någon bra. Människans kreativitet . Vad som via språket lyfte oss till något större än aporna och delfiner.
Jag får be om ursäkt för det här okynnes komiska detaljerna. Jag tror verkligen inte någon av mina läsare gör mer än att irriteras av att jag kan ha skymt komiska inlägg tvingande fram att man måste leta bakåt. En ny atombomb med ett nytt tekniskt koncept är knappast aktuellt bland er. Därmed inte sagt att det är sämre. Enkla folket - mina läsare - håller man bäst små-glada och små-nöjda så att de gör sitt till tillväxten utan att som i Syrien bränna ner hela landet. Lite otrevligt skämtande också: Där frågan är lite vilket perspektiv du väljer. Är du snabb i reaktion är default alltid dig själv. En del andra - men mindre troligt antar jag här - är perspektiv separerande dig från läsaren antingen betrakta dem därför att du vet att det inte riktigt rör dig eller oftare inte bryr dig för något så uppenbart. Att vända lite fram och tillbaka som ovan kan emellertid störa lite kring när vi jämför intensitet i en riktning föregripande mot den nya indikerande att vi kanske lär: Därmed antingen inducerar avbryta läsande eller görande påverkan möjlig igen mer sannolikt. Det kan också upplevas som osäkerhet i texten. Här för osäkerhet kan båda mina normal-läsare som de färre förstå osäkerhet likartat. De första från när det känns osäkert (ex. att du tror något är farligt men inte förstår riktigt hur: ny köksmaskin ryker och du häller vatten på den och när det larmar mer från annat håll går du och läser skämtteckningar här istället ett tag därför att det har förr gjort att du känt dig trygg) och de senare kanske från information science. Första gruppen här är svårare för någon att identifiera samtidigt som vi förvarnat. Gruppen indikerad är ej osäker: Den är välkänd för oss från all tänkbar discourse och sammanhang. Men det är ej vad någon känner igen sig i. Det kan få mig att värderas ner om jag försöker inducera det men för tråkighets och längd nivå på det här inlägget tvivlar jag att internets-läsa-rubrik-gissa-på-slutsats klaga och/eller försöka uttrycka bias för eller emot något ger respons-