Ett värde av anpassningar jag noterat är att jag ibland fått lite underlig korrelation med vad jag sökt i tidigare på Scholar i ett nytt område där det tidigare egentligen inte var relevant för jag sökte. Dock genom att området jag dessa gånger sökt forskning i är gemensamt både teoretiskt och för den praktiska tillämpningar har dessa ovanliga träffar några av gångerna ändå varit riktigt intressanta och pekat på samband som bekräftat idéer jag haft. Det försvann dock har jag upplevt (kanske tidsfönster som korrigerades i hur denna funktion tillämpas) vilket jag i och för sig nog föredrar men kunde vara intressant att kunna sätta på.
Ett potentiellt men ej realiserat värde av användardata jag dock saknar och personligt mycket mer önskar än anpassningar av sökresultat (vilket normalt varken gör till eller från för mig) är anpassning av GUI.
Jag söker ex. Google Scholar normalt många gånger dagligen och just nu säkert mellan 100 - 300 ggr dagligen. Ändå har jag inte fått länk till Google Scholar längst upp respektive till vänster i gränssnittet. En sådan anpassning skulle ofta underlätta.
En kul ej just till detta relaterad detalj runt sökning är att nyhetssökningen i Creative Culture även utanför automatiserad analys av alla med direkt tillgång upplevs ge bättre sökresultat än Google News. En viktig del i det är att det är svårt att borra smala områden utan stort besvär med sökningen i Google News.
Själv föredrar jag dock själv att använda Google News för översikter över den breda massans intressen. För sådant är nog Google News normalt bättre jfr när man vill borra exaktare information eller rangordna utifrån dimensioner explicit eller implicit. Men det är ju också en anpassningsfråga. Jag har en känsla av att Google återanvänder många samband de använt och lärt i webbsökningen som för nyhetssökningen fungerar sämre.
Det är ex. intressant att reflektera hur data från snabb-tid (reaktioner i Twitter, Facebook m.m. närmare känsloreaktion och dialog på kafferasten), medelsnabb-tid (nyheter något mer reflekterande och med mer referensinformation) och långsam-tid (ex. Wikipedia med konvergerad syn och fakta). Frågan är hur data bäst tas från långsam tid till nyhetstiden? Övriga flöden är nog ganska självklara.
Energisamband är också intressanta och tror jag viktiga som möjligheter för värden men inte vad jag kommit till att ens experimentera med för sökning. Vad är energikostnaden för informationen? Vad kostar det att ordna en två välkända experter och två andra för quality assurance av en artikel i Scholarpedia? Vad är måttet på energikostnad? Ofta är det tid. Hur skattar vi det samma för Wikipedia?
Ett ovanligare synsätt på samma sak är vilken magnitud på energi som vad en nyhet berör ligger på. Jfr oljeindustri, Fukushima Daiichi nuclear disaster.
En intressant jämförelse är den ide om "energy rate density" Eric Chalsson föreslaget som en artikel i senaste New Scientist påminde mig om. Måttet anger den mängd energi som flödar genom varje kg av systemet. En stjärna ligger högre än en galax, planeter än högre, växter högre o.s.v. upp till hjärnan som högst hos enskilda djur och överst har vi samhällen. Även om en stjärna omsätter enorma mängder energi är energi-flödet per kg många magnituder lägre än för människans hjärna:
A galaxy (the Milky Way):
0.5 [ergs/gr/sec]
Stars (the Sun):
2
Planets (the surface of the Earth):
75
Plants (biosphere):
900
Animals (human body):
20,000
Brains (human cranium):
150,000
Society (modern culture):
500,000"
I min modell motsvarar detta konceptet om storlek relativt energieffektivitet. Länder som Kina och USA kan få stort leverage genom faktorer som att många företag inom olika områden finns nära varandra (jfr IT-företag i California). Mindre länder som Sverige och än mer Finland kan kompensera det genom att vara snabbare och mer energieffektiva. Hemligheten för att fånga båda är att vara liten och energieffektiv och kompensera genom att ha snabba funktioner för att fånga nya intryck och information via informationskällor som internet.
För Googles gränssnitt gäller att ju mer information jag når som möjliggör ett för mig större energiuttryck per tidsenhet ju större blir också energy rate density om övriga faktorer är konstanta därför att flödet per tidsenhet blir större. Jag blir mer effektiv. Viktigare och vad vi kan resonera kring med samma koncept blir energikostnaden mer tidsenhet och "gram neuroner" lägre vilket minskar risken för utmattningsdepression, trötthet m.m. (vilket troligt sällan uppstår av informationssökning med Google men däremot är oerhört relevant i krissituationer där enskilda personer i nod-positioner bottnar ut utan att gå att ersätta vilket är ungefär samma sak som sker i hjärnan hos dem där enskilda neuroner i de större nätverken av biologiska neuroner för länge måste informationsbehandla för mycket information).
Vi kan från ett till perspektiv se på energisambanden med att få data för relationer mellan koncept som den semantiska webben relativt data för energisamband. För det första oavsett hur hett det är i diskussion är utmaningen försvinnande låg därför att datat självorganiserar sig på webben. För det senare därför att uppfattat och mätbart värde för tillämpningar rör färre entiteter där de flesta är konkurrerande ses egentligen ingen självorganisation som jag noterat på att få data enkelt att använda.