Google Webcache och Weblogin.stanford.edu: Generellt fel att komma ihåg

2015-05-07

Att vara observant på ev. särskilda rättigheter man ger Google tycks sunt för att slippa publicera innehåll man tänkt ska kräva autenticering eller per IP-adress vara strikt internt. Just för redirects till Weblogin.stanford.edu skulle det inte direkt förvåna mig om de struntar i det och snarare föredrar att innehåll man kanske relaterat rättigheter för artiklar deras medarbetare publicerat i journaler lite diskret dyker upp i Google Cache trots att man verkar följa regler om någon kontrollerar (strikt bedömt allmänt för universiteten och hur deras medarbetare helst vill att artiklar de skrivit ska synas på webben: Märkbart som faktor när man söker elektroniska representationer särskilt inom data där större förståelse för den flera magnituder större räckvidd man får via indexering idag - och särskilt så sista tre till sex åren).


Här utnyttjar jag ett av Google's fortfarande signifikant större värden jämfört med Google Bing när det kommer till att söka journal-artiklar:




Läser man denna väg - och korrekt moraliskt ex. enligt den codex jag föreslår sist som jag resp. har följt resp. för närvarande följer - behöver man kontrollera när sessions-variabler och funktion för att skicka vidare efter redirect är tydlig att man i sökresultaten faktiskt rekommenderades samma artikel man sökte. För ex. ovan struntade jag i det därför att den var i vilket fall som helst inte intressant för mig rörande vad resultat gav och ej för vad det kom ifrån värt att försöka hitta med större ansträngning än så här.


Är man publicist eller webbsajt är det klokt att kontrollera att man inte öppnar sig mer än tänkt p.g.a. detta.


Codex: Vad vi rimligt kan förutsätta att ägarna av innehåller hanterar utan att vi läsare ska behöva ödsla tid

Givet andelen ej tillgängliga dokument man får där läsande är accepterat p.g.a. omflyttningar eller "ej rätt" publicerad position menar jag att det från grov statistik är fullt korrekt att läsa denna väg när den gjorts fungerande för att med mindre nivå ej få tillgång till en mängd artiklar ej moraliskt problematiska från deras copyright.


Och vidare närmare den nivå jag tillämpar är det brett rimligt att kunna förutsätta och utgå från att publiceras vägar oavsett Google Cache eller universitetens sidor direkt görs genomtänkt och att faktiska ägare av copyright på rimlig nivå engagerar sig att säkerställa att det görs korrekt - Särskilt gäller att flera journalhus generellt ger Google med tillåtelse av cache tillgång till dokument därför att de tror att det för resp. faktor d.v.s. både tillgång och att de ska gå in i cache är gynnsamt för trafiken mot html-sidor med endast begränsad tillgång för den ej betalande vilket jag förstår som att man accepterar och uppmuntrar oss att läsa artiklarna kostnadsfritt den vägen). Har man publicerat vilken som helst kanal tillgängligt - eller så via vad som kanske är samarbetspartner eller aktör som köpt rättighet att publicera - oavsett begränsade kanaler i övrigt är det rimligt att förutsätta att detta är accepterat för att läsa (om än ej självklart för att själv publicera).