Lite längre bakåt diskuterade jag och gav en enkel modell-förklaring från intensitet i rå-aktivtet resp. emotionellt nära reward eller risk som utmärkt klarar att förklara resp. generera språk typiskt för personer i psykotiska tillstånd närmare poolen schizofreni kanske snarare än mani (jag har tittat mindre på det senare i ex. men generering där bör vara annorlunda särskilt rörande balansen mellan risk och möjlighet där vi vid mani hela tiden går framåt längs tydliga spår som konvergerar falskt överdrivet medan vi vid schizofreniska psykoser har akivitet som tenderar att kunna divergera utåt i många riktningar utan att orka till stabila tydliga konvergenser som räcker för att ge feedback i sin tur avslutande spridd aktivitet med ej lika troliga möjligheter).
En del av detta kommer från att kontext lokalt i en neural-omgivning tenderar att få större betydelse relativt samband från större avstånd än normalt. D.v.s. mest typiskt att signalering via "GABA-relaterade" feedback system om att stänga av aktivitet ej värderas lika mycket som aktivitet från neuronerna direkt bakom om att fortsätta lokalt att söka lösningen.
På samma sätt onormalt styrande blir när vi i direkt närhet framåt har en i sig ex. emotionellt potentiell nod men som för aktuell situation saknar kontextuell mening. Genom att aktivitet hela tiden tolkas högre aktiverande från neuronerna bakom jämfört med signalering från längre avstånd blir ju just den feedback som finns för att ej varaktigt aktivera sådana neuroner reducerad.
Senaste dagarna har jag sökt och skrivit mycket om Wikimedia som mjukvaruplattform. När vi här fortsätter diskussionen i Är Google's ontologi Freebase mer noggrant installerad och användning hos stora konkurrenten istället för dom själva? För att försöka begripa samband mellan sökord om möjligheterna att från en mängd sökord i dimensioner av ex.
- Sökord direkt i sökfältet.
- Sökningar och sökkoncept arrangerande på andra sätt bakåt utefter en eller flera för det aktuella dimensioner (ex. tid, tid normaliserad mot vår naturliga sökhastighet relativt förmåga att indikerat visa att vi kommit fram, andel associerade små-kontroller irrelevant, nyhetshastighet globalt, förändringar globalt i världen m.m.).
- Aktuellt i världen, förändringar just nu aktiverade för koncept i världen, globala relationer ändrade i aktuell tid.
- Globala långsamt ändrade stabilare bas-bedömningar av koncept och deras samband och betydelser d.v.s. som en del (av fyra större viktiga grupper) de common sense lösningar diskuterade refererad postning.
- Hemsidor, bloggar, krönikor, artiklar, tweets m.m. associerat relaterat som hörande till samma person som söker. D.v.s. när vi vet att person A som söker också har blogg B kan vi göra tolkningar av koncepten indikerade i sökningen med en gigantiskt större statistisk pay-load till vad som avses. Jämför gärna med vektor-modeller av detektion av ämnen, likhet mellan en artikel och olika ämnen m.m. Också om de typiska algoritmerna för det oavsett mer än väl för detta tillräckligt korrekta ej är snabba nog för nära nog alla större tillämpningr. Jämförbara i effekt men snabbare algoritmer finns dock. Jag har ex. en skapad från koncept inom olika områden som antagligen skulle prestera acceptabelt för sökords-betydelse skattad från kortare Tweets och ännu bättre blogg-texter lite längre med en tydlig rubrik.
I exempel-bilden från Google ser vi dock en inkorrekt tolkning av vad jag avser. Vad som hamnat fel är troligt:
- Wikipedia jämfört med Wikimedia bedöms som enskilda koncept utan relationer.
- Relationer vi kan tänka oss möjligen bedömts som att Wikipedia ev. är en troligare källa än Wikimedia när Wikimedia beskrivits reduceras till att koncepten bedöms oberoende av relationer enskilt ett endast inverkande på konceptens förhållande. D.v.s. relationerna uttrycker ej den rymd aktuell eller meningsfull för sökfrågan.
Troligt har problematiken föregående indikerat förvärrats av att:
- Resp. koncept har praktiskt definierats om där Wikipedia konceptet relativt Wikimedia konceptets förstärkts ännu mer men fortfarande utan att relationer som gör annat än att ej påverka distans till kontext för sökning etablerats.
- Fler-grammen runt radera många poster kan vi föreställa oss är en fråga som oftare diskuteras runt Wikipedia.
- Där kan dom frågorna också just vara infekterade och ske med hög intensitet.
- D.v.s. de förstärker antar vi tolkningen av Wikipedia istället för Wikimedia men utan hänsyn till aktivitet på längre avstånd som kan avgöra trovärdigt om verkligen ett helt nytt koncept ej direkt bland sök-koncepten ska aktiveras upp.
- Vi kan också se en grupp av faktorer man kan begränsa dessa tolkningar via jag vet är ganska funktionella i andra sammanhang krävande mindre av stora kontext: När ett koncept är väldigt potent oftare är det meningsfullt att via mass-dimensionella rum bedöma hur utspritt det är. Ett koncept som wikipedia vidrör hela världen inom alla områden. Det är ytterst abstrakt och tolkningar till det är troligt i varje fall som här ex. emotionell intensitet också finns eller nu aktuell från typ av intensitets-skattning till meningsfullhet. Men är de dimensioner aktuella i den lokala tolkningen verkligen vad som ger oss meningsfullhet skattad från dess similarity?
- Med cosinus similarity, LSA, Kohoonen m.m. där dimensionsrymderna skattas fasta i antal och man söker just de allmänt oftare fungerande bedömningsdimensionerna så nej likheten kommer ej vara möjlig väg att reducera bort dessa fel.
- Om vi istället kan aktivera och skapa dimensionsrummet anpassat från varje aktuell situation - i perspektiv från här mindre sökningen som var personen står som tillstånd - så blir detta just möjligt.
- Irrelevanta dimensioner påverkar ej och Wikipedia blir tvärtom ett koncept föga relevant relativt Wikimedia.
Ett sätt när man söker avgränsade mindre specialistområden för att praktiskt få bort dom här problemen hos Google är att använda minus-operatorn applicerat mot sajter som överdrivet associeras in i sökresultaten.
Tråkigt nog var jag emellertid nära nog färdig att sluta använda Google som primär söktjänst när problemen med ex. ovan var som värst därför att Google dessutom förslöar sökningar och kastar upp person-verifieringsfönster när man reducerar riktat till domän-samband flera gånger. Det i sig är föga problem praktiskt. Problemet är emellertid att de inte alltid genererar korrekt html-kod - alternativt att en tjänst som ligger framför Google ej klarar av att hantera Google's SSL-sessioner när de gör redirect till dynamiskt skapade sidor som bryter mot grammatiken för sök-urlernas uppbyggnad - resulterande i att endast bilden med siffror och bokstäver som ska visas upp kommer på sidan därför att denna passerar utanför SSL (som konfigurerat för mig). Inte i teknisk-felskapelse som när ett stort IT-företag när de hade något form av driftproblem och skickade mig till en felsida defekt i URL plötsligt skickade mig ett server-certifikat (ej inkluderande någon privat-del av protokollet utan normalt för en webbserver men ej deras) från en samarbetspartner de har i säkerhetsfrågor och nätverk - och ej ett certifikat avsett för internet utan genererat och boot-strapat för deras privata-näts säkra kommunikation d.v.s. snarare än att göra sig sunt besvär med åtminstone en topp-ca man boot-strappar hos klienterna har man suttit och boot-strappat upp varje server resulterande i att ingen bra snabb metod finns för att snabbt med hög trovärdighet stoppa problem om ensilda entiteter angrips och ger ifrån sig privata nycklar. Vidare gäller att certifikatet i sig kan vara möjlig väg till de privata nycklarna. Detta är praktiskt möjligt troligare just för privata nät med hög trafik därför att man där mindre ofta gärna går in och petar runt med konfigurationerna. Certifikat skapade med algoritmer från längre tillbaka med kända (om än normalt oftare praktiskt trots det inte helt enkla att utnyttja). Just här hade det varit elegant om det ex. hade varit MD5 använd men så var icke fallet utan om än inte det alternativ jag tror är vanligare just nu hos entiteter som ser det som ledstjärna att ha mest potenta hash-konfiguration stödd så mer än väl långt innanför vad som krävs för praktiskt fungerande säkerhet.
Väldigt typiskt för Google satt man och prövade konceptet som irriterade mig ganska länge men ändå med marginal med kanske fyra veckor innan man ger upp och byter tjänst så slutar dom. Det är en styrka och värde jag tror företag allmänt vinner mycket på om man klarar. Förmåga att kreativt pröva för att lära. Förmåga att identifiera när ett koncept ej fungerar riktigt bra för kunden och korrigera det. Gäller dessutom ofta upplever jag deras andra tjänster och applikationer (med en del områden där Google konstant genom åren haft också andra problem: ex. hör Blogger inte riktigt till det område man klarat mest fascinerande finns problem som konkret reducerar värdet onödigt relativt bl.a. Wordpress möjligheterna för Google att få revenue via deras i plattform direkt adderade möjligheter till Adsense-annonsering).
I någon mening kan vi ju numera också se Google som en aktör som försöker etablera ett ramverk och gränssnitt för hela internet mot resp. användare. Det bör just etablera en mängd alternativa datakällor som kan etablera meningsfullt kontext för sökningarna. Att man ej klarat mer genom åren trots att man ibland visst kan uppleva sig märka en del är lite underligt tycker jag. Kanske relaterat att sökningen är en så enormt viktig grundaffär och skapad nära grundare och andra tidiga aktörer med en etablerad kultur och preferens relativt algortimer? Oavsett orsak är argumentet att det hela fungerat bra som affär ännu inte otroligt inverkande men ej heller säkert relevant eftersom större förändringar i preferens för många användare kan realiseras väldigt binärt: ena året är en tjänst dominerande sedan år. Nästa har behöver de göra sig av med halva personalen och fyra andra har delat upp 70% av deras marknad.