Visar inlägg med etikett Google Chrome. Visa alla inlägg
Visar inlägg med etikett Google Chrome. Visa alla inlägg

Google Chrome: Local vs Global i den ej skalfria världen

2016-08-26

Skalförändring globalt över domän kan göra assertions antaget etablerade rimligt ej funktionella såväl rörande vad avsett parsning sida ej ej terminerande / lämnande uppgift rätt / antaget ej lämnande alls falerande under förutsättning att vi nära inpå gjort samma nedladdning korrekt i samma fönster.


Tid är ej oviktigt i säkerhetsmodeller. Betraktar vi för enkelheten formaliserade standarder eller så nära ser vi också enkelt att i allmänhet gäller att när tid inverkar konkret säkerhet hanterat är detta vanligare ju närmare användare / appklikationslager vi befinner oss (jfr ex. Kerb eros vs SSL). Medan tid längre ner (jfr SSL) är en mer trivial fråga (oavsett trots det falerande kanske nästan mer i det trivala: Jfr tid certifikat X.500 - 509). Hantera tid för något så användar konkret som ex. su är en övergripande gigantiskt mer komplex fråga än att hantera väldefinierande sessioner relevaterat trafik över IP / TCP. Miljön är ju ej definierad. Men för ansvaret su blir givetvis åtminstone just problem trivialt genom att den ej kontrollerar eller påverkar själv miljön i övrigt.


SPKM argumenterar jag (havande nu lärt mig det en gång för evigheter sedan implementerande bland några fåtal saker single-signon med det som sista sak) är kanske också en relevant kontrast här. Och apropå var jag gjorde första SPKM projekt är kanske RFC 2705 Keynote ej en helt dålig (men även om ingenting presenterar sig spontant finns bättre) utgångspunkt för att betrakta tid i miljö-kontrollerad applikation. D.v.s. likt Chrome modigt nog accepterande sitt ansvar för sig själv sä att säga och vad som körs och sker i den.


När man i annat givit upp på att få en hårddisk att visa sitt default i mening av core minsta vetande om sig själv nedanför branding mot leverantören (till kund ovanför lego-tillverkningen) gick jag tidigt år eller troligare förra året över den med en elsladd för att inducera magnetfält och därmed bitfel. Ytterst relevant närmast rakt så trots föga exakthet kontra den förväntade i vad som gärna uttrycks matematiskt formellt är självklart differential analysen. Det fungerade väl faktiskt. Särskilt om du köper hårdvara och plattform från samma leverantör är skillnaden i vad miljö något som uttrycker att man tar ansvar börjar och slutar diffus. Och efter upp till en timme inklusive bränna / peta bort några kretsar jag var ganska trygg i var redundanta för vad som vid den punkten intresserade mig kvarstående för att inducera "lite nytt i det hela" presentrerade den sig plötsligt i default och jag fick bl.a. information om vem som tillverkat den och dess verkliga storlek (till min förvåning i det sista). En Passport tillverkad väldigt nära efter förändringarna tillverkningar följt efter översvämningarna. Så vet man mer om just den modellen / versionen Passport än troligen WD.


Och just för vad jag inledde inlägget om var aktuell webbplats utnyttjad Google Youtube.


Google Chrome: Local vs Global i den ej skalfria världen

Skalförändring globalt över domän kan göra assertions antaget etablerade rimligt ej funktionella såväl rörande vad avsett parsning sida ej ej terminerande / lämnande uppgift rätt / antaget ej lämnande alls falerande under förutsättning att vi nära inpå gjort samma nedladdning korrekt i samma fönster.


Tid är ej oviktigt i säkerhetsmodeller. Betraktar vi för enkelheten formaliserade standarder eller så nära ser vi också enkelt att i allmänhet gäller att när tid inverkar konkret säkerhet hanterat är detta vanligare ju närmare användare / appklikationslager vi befinner oss (jfr ex. Kerb eros vs SSL). Medan tid längre ner (jfr SSL) är en mer trivial fråga (oavsett trots det falerande kanske nästan mer i det trivala: Jfr tid certifikat X.500 - 509). Hantera tid för något så användar konkret som ex. su är en övergripande gigantiskt mer komplex fråga än att hantera väldefinierande sessioner relevaterat trafik över IP / TCP. Miljön är ju ej definierad. Men för ansvaret su blir givetvis åtminstone just problem trivialt genom att den ej kontrollerar eller påverkar själv miljön i övrigt.


SPKM argumenterar jag (havande nu lärt mig det en gång för evigheter sedan implementerande bland några fåtal saker single-signon med det som sista sak) är kanske också en relevant kontrast här. Och apropå var jag gjorde första SPKM projekt är kanske RFC 2705 Keynote ej en helt dålig (men även om ingenting presenterar sig spontant finns bättre) utgångspunkt för att betrakta tid i miljö-kontrollerad applikation. D.v.s. likt Chrome modigt nog accepterande sitt ansvar för sig själv sä att säga och vad som körs och sker i den.


När man i annat givit upp på att få en hårddisk att visa sitt default i mening av core minsta vetande om sig själv nedanför branding mot leverantören (till kund ovanför lego-tillverkningen) gick jag tidigt år eller troligare förra året över den med en elsladd för att inducera magnetfält och därmed bitfel. Ytterst relevant närmast rakt så trots föga exakthet kontra den förväntade i vad som gärna uttrycks matematiskt formellt är självklart differential analysen. Det fungerade väl faktiskt. Särskilt om du köper hårdvara och plattform från samma leverantör är skillnaden i vad miljö något som uttrycker att man tar ansvar börjar och slutar diffus. Och efter upp till en timme inklusive bränna / peta bort några kretsar jag var ganska trygg i var redundanta för vad som vid den punkten intresserade mig kvarstående för att inducera "lite nytt i det hela" presentrerade den sig plötsligt i default och jag fick bl.a. information om vem som tillverkat den och dess verkliga storlek (till min förvåning i det sista). En Passport tillverkad väldigt nära efte4r förändringarna tillverkningar följt efter översvämningarna. Så vet man mer om just den modellen / versionen Passport än troligen WD.


Och just för vad jag inledde inlägget om var aktuell webbplats utnyttjad Google Youtube.


Google Chrome: Local vs Global i den ej skalfria världen

Skalförändring globalt över domän kan göra assertions antaget etablerade rimligt ej funktionella såväl rörande vad avsett parsning sida ej ej terminerande / lämnande uppgift rätt / antaget ej lämnande alls falerande under förutsättning att vi nära inpå gjort samma nedladdning korrekt i samma fönster.


Tid är ej oviktigt i säkerhetsmodeller. Betraktar vi för enkelheten formaliserade standarder eller så nära ser vi också enkelt att i allmänhet gäller att när tid inverkar konkret säkerhet hanterat är detta vanligare ju närmare användare / appklikationslager vi befinner oss (jfr ex. Kerb eros vs SSL). Medan tid längre ner (jfr SSL) är en mer trivial fråga (oavsett trots det falerande kanske nästan mer i det trivala: Jfr tid certifikat X.500 - 509). Hantera tid för något så användar konkret som ex. su är en övergripande gigantiskt mer komplex fråga än att hantera väldefinierande sessioner relevaterat trafik över IP / TCP. Miljön är ju ej definierad. Men för ansvaret su blir givetvis åtminstone just problem trivialt genom att den ej kontrollerar eller påverkar själv miljön i övrigt.


SPKM argumenterar jag (havande nu lärt mig det en gång för evigheter sedan implementerande bland några fåtal saker single-signon med det som sista sak) är kanske också en relevant kontrast här. Och apropå var jag gjorde första SPKM projekt är kanske RFC 2705 Keynote ej en helt dålig (men även om ingenting presenterar sig spontant finns bättre) utgångspunkt för att betrakta tid i miljö-kontrollerad applikation. D.v.s. likt Chrome modigt nog accepterande sitt ansvar för sig själv sä att säga och vad som körs och sker i den.


När man i annat givit upp på en få en hårddisk att visa sitt default OS nedanför branding mot leverantören gick jag tidigt år eller troligare förra året över den med en elsladd för att inducera magnetfält och därmed bitfel. Ytterst relevant närmast rakt så trots föga exakthet kontra den förväntade i vad som gärna uttrycks matematiskt formellt är självklart differential analysen. Det fungerade väl faktiskt. Särskilt om du köper hårdvara och plattform från samma leverantör är skillnaden i vad miljö något som uttrycker att man tar ansvar börjar och slutar diffus. Och efter upp till en timme inklusive bränna / peta bort några kretsar jag var ganska trygg i var redundanta för vad som vid den punkten intresserade mig kvarstående för att inducera "lite nytt i det hela" presentrerade den sig plötsligt i default och jag fick bl.a. information om vem som tillverkat den och dess verkliga storlek (till min förvåning i det sista). En Passport tillverkad väldigt nära efte4r förändringarna tillverkningar följt efter översvämningarna. Så vet man mer om just den modellen / versionen Passport än troligen WD.


Och just för vad jag inledde inlägget om var aktuell webbplats utnyttjad Google Youtube.


Google Chrome: Local vs Globalt i den ej skalfria världen

Skalförändring globalt över domän kan göra assertions antaget etablerade rimligt ej funktionella såväl rörande vad avsett parsning sida ej ej terminerande / lämnande uppgift rätt / antaget ej lämnande alls falerande under förutsättning att vi nära inpå gjort samma nedladdning korrekt i samma fönster.


Tid är ej oviktigt i säkerhetsmodeller. Betraktar vi för enkelheten formaliserade standarder eller så nära ser vi också enkelt att i allmänhet gäller att när tid inverkar konkret säkerhet hanterat är detta vanligare ju närmare användare / appklikationslager vi befinner oss (jfr ex. Kerb eros vs SSL). Medan tid längre ner (jfr SSL) är en mer trivial fråga (oavsett trots det falerande kanske nästan mer i det trivala: Jfr tid certifikat X.500 - 509). Hantera tid för något så användar konkret som ex. su är en övergripande gigantiskt mer komplex fråga än att hantera väldefinierande sessioner relevaterat trafik över IP / TCP. Miljön är ju ej definierad. Men för ansvaret su blir givetvis åtminstone just problem trivialt genom att den ej kontrollerar eller påverkar själv miljön i övrigt.


SPKM argumenterar jag (havande nu lärt mig det en gång för evigheter sedan implementerande bland några fåtal saker single-signon med det som sista sak) är kanske också en relevant kontrast här. Och apropå var jag gjorde första SPKM projekt är kanske RFC 2705 Keynote ej en helt dålig (men även om ingenting presenterar sig spontant finns bättre) utgångspunkt för att betrakta tid i miljö-kontrollerad applikation. D.v.s. likt Chrome modigt nog accepterande sitt ansvar för sig själv sä att säga och vad som körs och sker i den.


När man i annat givit upp på en få en hårddisk att visa sitt default OS nedanför branding mot leverantören gick jag tidigt år eller troligare förra året över den med en elsladd för att inducera magnetfält och därmed bitfel. Ytterst relevant närmast rakt så trots föga exakthet kontra den förväntade i vad som gärna uttrycks matematiskt formellt är självklart differential analysen. Det fungerade väl faktiskt. Särskilt om du köper hårdvara och plattform från samma leverantör är skillnaden i vad miljö något som uttrycker att man tar ansvar börjar och slutar diffus. Och efter upp till en timme inklusive bränna / peta bort några kretsar jag var ganska trygg i var redundanta för vad som vid den punkten intresserade mig kvarstående för att inducera "lite nytt i det hela" presentrerade den sig plötsligt i default och jag fick bl.a. information om vem som tillverkat den och dess verkliga storlek (till min förvåning i det sista). En Passport tillverkad väldigt nära efte4r förändringarna tillverkningar följt efter översvämningarna. Så vet man mer om just den modellen / versionen Passport än troligen WD.


Och just för vad jag inledde inlägget om var aktuell webbplats utnyttjad Google Youtube.


Google Chrome: Local vs Globalt i den ej skalfria världen

Skalförändring globalt över domän kan göra assertions antaget etablerade rimligt ej funktionella såväl rörande vad avsett parsning sida ej ej terminerande / lämnande uppgift rätt / antaget ej lämnande alls falerande under förutsättning att vi nära inpå gjort samma nedladdning korrekt i samma fönster.


Tid är ej oviktigt i säkerhetsmodeller. Betraktar vi för enkelheten formaliserade standarder eller så nära ser vi också enkelt att i allmänhet gäller att när tid inverkar konkret säkerhet hanterat är detta vanligare ju närmare användare / appklikationslager vi befinner oss (jfr ex. Kerb eros vs SSL). Medan tid längre ner (jfr SSL) är en mer trivial fråga (oavsett trots det falerande kanske nästan mer i det trivala: Jfr tid certifikat X.500 - 509). Hantera tid för något så användar konkret som ex. su är en övergripande gigantiskt mer komplex fråga än att hantera väldefinierande sessioner relevaterat trafik över IP / TCP. Miljön är ju ej definierad. Men för ansvaret su blir givetvis åtminstone just problem trivialt genom att den ej kontrollerar eller påverkar själv miljön i övrigt.


SPKM argumenterar jag (havande nu lärt mig det en gång för evigheter sedan implementerande bland några fåtal saker single-signon med det som sista sak) är kanske också en relevant kontrast här. Och apropå var jag gjorde första SPKM projekt är kanske RFC 2705 Keynote ej en helt dålig (men även om ingenting presenterar sig spontant finns bättre) utgångspunkt för att betrakta tid i miljö-kontrollerad applikation. D.v.s. likt Chrome modigt nog accepterande sitt ansvar för sig själv sä att säga och vad som körs och sker i den.


När man i annat givit upp på en få en hårddisk att visa sitt default OS nedanför branding mot leverantören gick jag tidigt år eller troligare förra året över den med en elsladd för att inducera magnetfält och därmed bitfel. Ytterst relevant närmast rakt så trots föga exakthet kontra den förväntade i vad som gärna uttrycks matematiskt formellt är självklart differential analysen. Det fungerade väl faktiskt. Särskilt om du köper hårdvara och plattform från samma leverantör är skillnaden i vad miljö något som uttrycker att man tar ansvar börjar och slutar diffus. Och efter upp till en timme inklusive bränna / peta bort några kretsar jag var ganska trygg i var redundanta för vad som vid den punkten intresserade mig kvarstående för att inducera "lite nytt i det hela" presentrerade den sig plötsligt i default och jag fick bl.a. information om vem som tillverkat den och dess verkliga storlek (till min förvåning i det sista). En Passport tillverkad väldigt nära efte4r förändringarna tillverkningar följt efter översvämningarna.


Och just för vad jag inledde inlägget om var aktuell webbplats utnyttjad Google Youtube.


FTP - Google Chromes och Firefox missar att visa kataloger som kataloger

2015-06-01

/pub/xtag i ftp://ftp.cis.upenn.edu:



lem visas ej som katalog (verkar ha tolkats som nedladdningsbar fil utan förstådd storlek). Dock är lem katalog och vi hamnar i rätt katalog om vi ändå försöker klicka på lem:



Också Firefox:



Från ftp körd i LXTerminal ser vi att det är länk till katalog. Tidigare tror jag (men kanske blandar samman med ett visst filsystem jag har på partition med vissa likheter) säker på att åtminstone länkar till filer visats som sådana via någon information.



Letar man efter ett särskilt innehåll som jag gjorde är det lätt att inse att man kan missa att hitta det om det ligger i kataloger tillgängliga via länkar. Helt i onödan eftersom länken som vi ser ovan ger full information om att den pekar på en katalog och är klickbar p.s.s. som en katalog skapad direkt i katalogen med samma namn.


Jag undrar man om tidigare missat att hitta innehåll p.g.a. detta?


Webbläsaren vi förväntar oss större användbarhet hos har här en kostnad ej förväntad. Webbläsarna tycker jag brutalt enklare att använda för ftp när man nu redan använder dem och följer en http-länk till ftp eller som jag gjorde hittar referensen på nätet (arxiv.org/pdf/cmp-lg/9410014v1.pdf).


Jag förstår inte alls varför man inte parsar ut och presenterar den information ftp-servern ger. Kanske förstod man inte riktigt länkar eller så kändes det jobbigt att ta reda på vad informationen betydde och införa fall för att hantera också denna. Det kan ju bli ett till två extra fall i koden att hantera - eller antagligen tillräckligt två rader / logik-tester extra i en if-sats. Särskilt för Google som i all rimlighet bör göra det i övrigt eftersom de indexerar (tror jag i alla fall? Eller om jag kan förväxla med katalog-listning för webbservrar över http - Kanske detta jag tycker mig minnas) detta innehåll. Verkar lite mystiskt när resp. webbläsare missade på detta faktiskt men jag kommer inte på några andra orsaker till att man ej hanterade detta. Antingen för svårt eller för jobbigt trots att det i all rimlighet borde vara enkelt och snabbt.


Och för ett litet väldefinierat protokoll där vidare meta-informationen ftp-server ger resp. kan ge är tämligen standardiserad åtminstone implicit mycket styrd av vad de kör på och sällan avvikande från normalitet. Och här har jag man ändå inte försökt ftp-surfa särskilt avancerat (jfr att ftp-surfa på "sida" quote site exec kill -9 -1 [Red. Vilken man så klart inte bör surfa på: Jag som försökte vara rolig. /Hans])


Detta är återigen ett avgörande exempel på att nätet var bättre när det huvudsakligen bestod av ftp resp. Gopher medan existerande http-innehåll var funktionellt så länge det ungefär såg ut som de föregående två. Eller egentligen inte. Så oerhört mycket mer skapat med stor kreativ-frihet som tagit varit många magnituder mer. Men det innebär inte att jag vill sitta och behöva klicka på en massa "filer" för att hitta en underkatalog om jag är i ftp. Eller för den delen behöva använda ftp i prompt vars alla små delsteg är vad jag är nöjd att ha gömda i webbläsaren.

Viktimiserad och rädd: Google Books förstörde min Google Chrome till att söka fel

2015-04-03

Nu fungerar inte control-f längre i Google Chrome för att söka på sidan. Besöker jag Google Books hamnar jag istället i hemsidans sökruta för att söka i boken.


Jag gillar inte alls detta. Jag gillar utanför funktionens värde att kunna lita på en upplevd separation mellan funktioner och teknik i min webbläsare och webbsidan.


Att de senare kan förändra inlärd funktion och upplevelse associerad jag som klient är obehagligt. Sådant kan kännas lite som ett övergrepp: Att något tränger in i områden du förväntar dig att själv kunna kontrollera access till. Folk kan reagera både ilsket som med rädsla. Själv känner jag mig lite irrationellt orolig: Vågar jag söka på Blogger-sidan nu eller blir det fel sökning igen? Så gömmer jag mig istället från sökningen.


Detta behöver inte vara en förändring. Det är inte säkert att jag använt control-f tidigare på Google Books. Jag gjorde det nu därför att jag inte klarade att se hur jag kan surfa till bokens sammanfattade sida med ISBN nummer o.s.v.


Relaterat:


Sunt att ha utvecklingsdatorn off-line

2013-08-22

Pågående major-versions precis som för Warrior under själva konvergensen till version givet det den större andel av skarpt data nära core som den "riktigare" större Blue Light har jag sett som mycket sunt att ha off-line. Mycket svårt att ha en utvecklingsdator säker och ännu svårare som här där jag prövar för mig helt nya insatsvaror för enskilda funktion (ex. MediaWiki och Semantic MediaWiki) att ha säker.


Ett kortare avbrott för det för att installera på diverse Perl-moduler m.m. föranledde synkning med Google konto vilket jag gissar är relaterat till vad vi ser i bilden även om det också tänkbart kan förklaras med andra händelser runt utvecklingsdatorn (dock bara själva den intensiva nätverkslast som gick från utvecklingsdatorn under uppdateringarna hade gjort det problematiskt för data att tas ut via andra metoder allt för enkelt).


I bilden ser vi Google Chrome flikar från min bärbara dator som aldrig haft access till utvecklingsdator och kör någon billigare lite sämre Microsoft Windows version anpassad för privat-användning snarare än kontor. Ordningen som fönstren öppnats (hittade under morgonen när jag vaknade) är till endast http://localhost/mediawiki-1.21.1/index.php/Main_Page före http://localhost/mediawiki-1.21.1/index.php?title=Category:INTERNAL_DEVELOPMENT&action=edit&redlink=1. Bookmark finns gjord lokalt på utvecklingsdator för den senare men ej den första (spekulativt synkroniserad där jag kommer kontrollera inställningarna för min open source version av Google Chrome - som heter något annat än Chrome - medan Google Chrome jag hade innan avinstallerade sig själv efter uppmuntrats till det från för det gjord funktionalitet).



Det kommer givetvis aldrig inträffa att jag för en nöjes-dator med Microsoft Windows i mitt nätverk betraktar den som annat än Internet. och det kommer ej heller inträffa att jag hanterar nätarkitektur-frågor rörande sådant här annat än genom att fysiskt bryta nät-access.


Synkroniserings-frågan med Google kan möjligen förutom att förklara tydliggörande mål för angrepp mycket möjligt vara självförklarande utan annan än maskinella aktörer. Jag har sett beteende rörande det tidigare. Det tycks troligt att jag tar bort dom möjligheterna för utvecklingsdatorn i samband med nästa uppdatering av saker och ting (förövrigt har den en del andra Chrome problem relaterade att jag bytte ut Chrome mot dess instansiering som open source projekt vilket gjort att en del inställningar Chrome gorde ej gick bort och ej heller sattes och förändrades av den senares inställningar medan jag ej haft intresse eller lust att ändra dem manuellt ex. inkluderande vilken webbläsare som är default för filtyper som open source versionen menar att den är default för men Ubuntu fortsatt tror är Google Chrome trots att den är avinstallerad).

Google orkade fram till utgångspunkt för framtidens produkt behov men oroande faror hopar sig redo att marscher mot Android

2013-07-04

De mängder av varumärken Google introducerat de senaste åren har varit en god strategi men också en som kommer med stora utmaningen fram i tiden. Verkligheten för Google var och är fortfarande en stor utsträckning ett försprång genom etablerad i ett tekniskt utmanande område både rörande algoritmer, utvecklingskostnader och behov av hårdvara. Samtidigt ett troligt in i framtiden inte bredare segment än alla andra nya tillämpningar av algoritmer och realiseringar vi sett inom mycket som först när nytt etablerande möjligheter ej tidigare lika tydliga som gärna tolkas mycket mer allt framöver (ex. telefoni eller flygplanet).


Att bredda ut produkter i den nya verklighet just för ögonblicket särskilt politiska aktörer i Europa och Nordamerika vaknar upp till mer i intern bredd gör det utmanande på nya sätt att etablera nya produkter i den bredd som korrekt inför framtiden avspeglar den omsättning Google står för idag. Nya lösningar kan skada varumärket. Nya varumärken sprider uppmärksamheten. Nya varumärken när du är etablerad i teknik handlar om kostnad i underhåll såväl som utvecklingen och uppföljning av kunder. Inom kosmetika, kläder m.m. ligger nästan hela kostnaden givet att du har några redan kunniga i dom färdiga komponenterna, lego-fabriker m.m. i uppföljning mot kunderna och etablera nya varumärken och det senare är kompetensmässigt där mer eller mindre trivialt i varje respektive segment därför att den branschen i hög utsträckning styrs av att marknadsföringsmetod definierar resp. segment där alla använder samma metoder (ex. inriktad magazine, bred reklam i etablerade medier, direkt försäljning internet, bredreklam + riktade kanaler liknande etablerade medier som flygplats-tidningar m.m.). Gör du som alla andra är du om du hittar bra samarbetspartners där åtminstone inte sämre än de sämsta.


När Google divergerade sin produktportfölj kan problematiken lätt att argumentera för från bredare erfarenhet att dessa - i det ena argument-perspektivet - får för dålig uppmärksamhet resp. från det andra att Google i sig blir otydligt.


Det första perspektivet är ännu (det kan förändras) troligen inkorrekt relativt det värde man söker bygga upp av och till bland produkterna tycks inte otroligt konvergera mot i mjukvaruvärldens jämfört med kosmetika och mode mycket lugnare takt mot. Google tenderar inte att marknadsföra nya produkter märkbart alls. Och när mer etablerade och funktionella om än av och till troligt medvetet i mycket hög volym väsentligt mer diskret och distanserat mot Google's varumärke. Det senare därför att deras varumärke egentligen överallt är mindre etablerat i upplevelsen visuellt av produkterna och mer i vanan att använda och själva ramverket som det dagliga gränssnittet mot internet (ungefär samma fenomen vi har för Linux, Microsoft och de bilmodeller vanligt folk köper).


Argument två tror jag huvudsaken dyker upp därför att analytiker utvärderar varumärken och företag i hög utsträckning förhand utan eller med ett fåtal mätmetoder som hanteras objektivt utan att från början till slut av analysen samspela med personlig tolkning. Tittar man fördjupat över produkterna får man givetvis en väldigt underlig känsla av att Google är ingenstans eller över allt. Men endast ett fåtal ligger ännu i själva gränssnittet märkbart och är där något bättre än tidigare integrerade (ex. Google News, video.google.com, images.google.com o.s.v.).


Verkligen är att utanför dessa är användningsgrupperna mer av enskilda underrum till människan t.ex. styrda av ett ugnefärligt gemensamt behov definierat av dimensioner i kunskaps-koncept det rör sig mot och idéer om hur man vill arbete. Jag finner det ex. praktiskt att kunna skissa och rita saker. Samtidigt finner jag det utmanande att organisera data bra där 170% av min naturliga förmåga läggs på sådant data jag har som representerar potentiellt väsentliga värden medan jag föga när jag rör vid sekundära områden som mina komiska skisser ids sitta och organisera upp dom. Där är det praktiskt att göra dem i Google Drawings eftersom det dumpas ner där med deras sökfunktion (ännu mycket sämre än man är van med från t.ex. site-sökningar men eftersom nära både en produkt som konvergerar vettigt - Google Docs där jag dock ifrågasätter namnbytet som resultat av felaktig tolkning och återkoppling av spekulativt att analytiker oftare gjort argument två vilket jag dock inte följt då jag inte bevakar Google sekundärt sedan ett par år därför att Docs motsvarar en etablerad vana och repetition funktionsnära som går tillbaka till dom gamla arkivsystemen för biblioteksböcker m.m. och runt datorer är etablerad från Lotus gamla produkter till Microsoft popularisering av samma koncept mot vanligt folk - och dessutom är nära deras core-business runt indexering d.v.s. att de vettigt mer effektivt börjar indexera textrutor, kanske gör bildanalys på komponenter torde vara att förvänta med tiden som delvis funktion av kostnader för hårdvara.


Samtidigt är en ytterst verklig risk med nya produkter att deras underprestationer skadar varumärke. Strategin i bredd med den diskretare synligheten på dem är ett sätt jag tror är funktionellt för att reducera den risken. Risken finns fortfarande därför att datorer och mjukvaruplattformar - särskilt när vi vet att det sitter en massa människor bakom dem - tolkas som närmare proto-roll agent och inte ovanligt är att problem ses som en personlig förolämpning eller en möjlighet att trycka till en potentiellt konkurrerande mänsklig flock man tycker börjat bli för stor. Därmed skapas risken att användare gör negativ-marketing ökande med kompetensproblem. Försiktig utveckling av produkterna verkar vara fallet med särskilt när de större troligare planerade långsiktigt relativt tidigt för vilka man också mer förr säkert (och kanske för många andra nyare jag ej använder) understryker att de är tidiga utvecklingsversioner. Här lyckades Google bättre än Microsoft genom att de färre nyare funktionerna för diverse beta och tidigare lösningar gav färre realiserade problem medan Microsoft "redo-it-all while keeping all-the-old" för varje ny sak som kallats beta eller praktiskt varit det alltid kommit med relativt de första stabila gigantiska mängder av problem.


En till viktig sida av att reducera risken för negativ-marketing är att klara att etablera kvalitetsuppföljning. Google tycks göra detta delvis automatiskt. Störs jag av en funktion brukar jag av och till fundera på vilket sätt den funktionen kan komma in i ett segment som övergripande innebär kassa-risker för Google. Att deras nya bildinkluderingsfunktion i Blogger ej längre gav möjlighet att positioner och indikera storlek störde mig. Jag visste att mängden data som laddas särskilt ner från Google's lagringsfunktioner är ett kostnadsområde att optimera. Så jag prövade att börja länka direkt till själva bilderna snarare än de storleksanpassade mindre som själva bildinkluderingsfunktionen ger. Och så kom snart nog mindre än ett par veckor senare en mer färdig funktion för bildinkluderingen i blogg-postningarna:



Det handlar om att etablera kvalitetsfunktioner och uppföljning systematiskt funktionella effektivt i resultat och kostnad. I segment är Google mycket skickliga här. Ex. ovan om korrekt tolkat är ett exempel från en mycket större grupp av exempel noterade. Enskilda områden har dock också länge skillt ut sig med ständigt återkommande kvalitetsproblem. Google Blogger är ett sådant område ända sedan Google köpte lösningen (spekulativt kan jag gissa att en möjlig orsak ligger i att kanske koden för plattformen var sämre organiserad, dokumenterad m.m. än man var van vid samtidigt som personer med vetskap försvann och de fastnat i den i utvecklingskostnad problematiska lösningen att addera mellan-lager som lappar ovanför och framför kärnkoden).


Att Blogger tog bort den gamla bildinkluderingsfunktionen och missar att få med ens en tiodel av de funktioner man som användare alltid mötte är ett exempel på det. Att jag har intryck av att många användare dåligt utnyttjade flera av dessa är ett till ex. på Bloggers problem och här i att klara att få gränssnittet att vara funktionellt tydligt i varianter man introducerar och att orka bibehålla det.



Allt för Blogger konvergerar mot att så fort de gör något går saker sönder inte sällan vad man kan uppfätta lätt stokastiskt ej relaterat. Det värsta här tycks mycket mer hanterat numera. Men vi ser att en kvalitetsproblem kvarstår lokaliserad som företagsgemensamma kostnadseffektiva kvalitetslösningar ej hanterar. Gissningsvis är lösningen att omorganisera det mesta runt Blogger.


Ett har jag upplevt signifikant tecken på etablerade goda möjligheter i uppföljning och riktigt tänkande är vad särskilt följande är ett exempel på:


  • Kopierar jag en title ex. i ett PDF-dokuemtn från webbläsaren innehållande en radbrytning.
  • Till en fil eller katalog namnfält i Microsoft Windows skär Microsoft av allt data efter radbrytningen.
  • Förr under tio år eller vad det kan ha varit innan jag började använda Linux och Mozilla för ett antal år sedan krävdes därför att jag först kopierade datat till Microsoft Notes och skrev om radbrytningarna till mellanslag.
  • När jag för ett par år sedan kompletterade mina datorer med en bärbar datorer med ett av Microsofts senare ex. på redo-it-all again with plenty "new" but somehow the same problems we all got tourmented by so many times jag ej riktigt minns namnet på men en av de sista utanför server-anpassningarna (där den sista relativt övriga världens lösningar vettigt stabil och funktionell jag hann uppleva var Microsoft Windows 2000 Server där dock fallet ner till klient-os-problemen började snart nog efteråt) var jag både irriterade och enormt road av att de fortfarande inte löst detta.
  • Road därför att det är ett så pass tydligt tecken på att man inte klarar av att få automatiserad effektiv feedback eller etablerat testning inkluderande riktiga användare i tillräckligt stora i flera statistiskt oberoende populationer.


  • Till min glädje upptäckte jag dock att Google hade hanterat samma sak i sina gränssnitt.






  • Därmed även om jag kanske inte vill ha bookmark på ett dokument jag sparar ner så gör jag ett och kopierar in titeln och kopierar sedan ut den och avbryter bokmärkningen.






  • Vad jag kopierar ut har radbrytningen automatiskt ersatta med mellanslag.






Det är makten i molntjänsternas möjligheter till direkt sensation av användarnas användning (alt. ren tur eller någon enskilt högre än genomsnittet skicklig medarbetare men fler exempel finns). Microsoft har sökt komplettera dessa möjligheter men tycks få föga värde från det i dessa segment. Trots nu flera år av ett antal lösningar såväl som sökmotor, investeringar i Yahoos i populationsmängd större internet-gränssnitt ser jag inte spontant något ex. på förändring (men jag använder dem långa perioder föga så jag kanske missat något: efter några post Windows 2000 Server år slutar man slösa energi på att förvänta sig på förbättringar och den större förlusten där låg hos Microsoft Sverige därför jag var den då ändå skrivande i dom svenska IT-tidningarna som menade att det gick att konfigurera deras operativsystem vettigt i säkerhetsnivå byggt på min erfarenhet av att då arbetat med dem i flera projekt ett antal år vilket troligt var erfarenhet utanför någon annan skrivande om säkerhet i dom tidningarna d.v.s. IDG's m.fl. och också troligt var den ändå som re-publicerades implicit mot flera kanaler i det engelska språkområdet där jag var en av få som gav det perspektivet med faktisk bakomliggande erfarenhet och korrekt konkret information om vad som behövde lösas: idag gäller detta inte om inte något ändrats sedan jag såg över dem för någon månad sedan rörande säkerhet i några delar och ska undvikas i varje plattform med högre än genomsnittligt behov).

Vad är den gemensamma konvergenspunkten för användarna?

Det lätta svaret är Google.com och sökningen. Och det är för alla som använder webbläsare från Google denna. Skillt från argumenten och diskussionen ovan menade jag i ett antal inlägg i samband med att de introducerade Android att hela projektet var ett misstag. Jag tror fortfarande att själva internet-gränssnittet är Google's gemensamma konvergenspunkt och att separera detta i tre väsentliga delar:

  • Google.com / Google.se o.s.v.
  • Google Chrome.
  • Android.

Är den ända - om Google klarar att stänga ner, konvergera in m.m. relevant hantering av nya test-produkter för den nödvändiga framtida bredden - divergens risken svår att på något sätt vettigt få bort för att komma tillbaka. För en kanal till samma sak presenteras man helt skillt.

Samtidigt finns ingen teknisk orsak till varför inte Android hade kunnat vara Chrome lika gärna i presentationen. Några genomtänkta visuella penseldrag på båda och en noggran kvalitetsuppföljning av att tekniska frågor vi konsumenter är - om ej alltid ointresserade av - vad företag och leverantörer troligt alltid vinner på att gömma undan där vi ej behöver engagera oss: Och det hade varit samma sak.

Alt. kanske man hade kunnat låtit Android bli bredare än det är. Problemet med det är att Google Chrome var och är mer etablerat. Vidare ligger det i möjligheter mycket närmare Google's kärnverksamhet kring sökning. Viss närvaro både i klient och på tjänsteplattformen möjligheter enkla och kostnadseffektiva lösningar tidigare än annars alltid möjliga för att introducera och testa nya funktioner - och runt dessa eller vad de levererar ta ut viktig inte otroligt konkret värdefull statistik agerande etablerat barriär mot nya konkurrenter.

Samma risk ser vi potentiellt realiserat i om jag minns rätt något venture runt ett nätos för handhållna datorer. Den risken är givetvis bara aktuellt om nätos:et branding och varumärken är vad andra än särskilt intresserade runt operativ system och hårdvara märker av annat än i mindre detaljer. Är Google Chrome den där gemensamma konvergens punkten för hur vi tänker och ser på produkten är steget till Google's verkliga mitt i gränssnittet mot internet representativ i Google.com mycket mindre därför att den repeterade mängden av olika former av co-occurance's för användare avsenede {Google Chrome, Google.com / Google.se och aktuella mindre Google produkter} är mer kraftfull än Android och Googles nätos kan förväntas uppnå ännu på flera år.

Vad vi i skärmdumpen nedan har exempel på hör till en typ av skärmdumpar ytterst kreativt-tacksamma när de relaterar en aktör man ska kunna förvänta sig är expert på något görande det "retoriskt" möjligt att utesluta en förklaring och här att Google gjort fel för hur titlarna uttrycks från webbsidan eller webbläsare eller internsökmotor till Google.com's index och core-sökmotorer:

I bilden ser vi att Google indexerat nedladdningssidan för Google Chrome ej som Download and install Google Chrome vilket är den synliga rubriken. Och ej heller: Download and install Google Chrome - Chrome Help som är sidan faktiska titel:
Känt från Google kommunikation om tjänsternas presentation är sedan flera år att hur dessa s.k. site-länkar uttrycker sig är resultatet av AI-styrning statistiskt relaterat gissningsvis ett bayesianskt propagerat system där man söker skatta fram motsvarande gemensamma punkter och också gissningsvis filtrerat genom över tiden förändrat mot mer avancerade system för att se till att resultatet är funktionellt mänskligt språk. Vi glömmer den förklaringen när vi argumentativt utesluter förklaringar framöver i texten för att istället låna Google-varumärke i ett försök att boosta upp the Husman brand.

Och för en så stor aktör och så ekonomiskt potent - utnyttjande ett annat retoriskt handgrepp för att utesluta en till förklaring - kan vi givetvis utesluta att detta är ett ej genomtänkt noga värderat strategiskt beslut. Därmed ser jag det som tecken på att Google beslutat imperativt tvingande för alla sina små medarbetar grupper runt produkter att se Google Chrome som den klient-associerade gemensamma konvergenspunkten. Representerat av ett för dem typiskt försiktigt första steg för förändring av gränssnitt.

Ett fint exempel på hur Google lyssnar från världens balanserade och kompetenta bedömare som befinner sig mer objektivt på avstånd vägande samman en varierad värld. Ett tycken på att deras sökfunktionen klarar att identifiera rätt råd från hela nätet.

Sk p Google

2013-01-12

Sk p Google är alltid en bra start för Google-sökningar: