Google Translate duger inte: Försöker gömma sig på webben

2013-08-29

Vill jag söka en sajt jag besöker t.ex. därför att ett i Google indexerat dokument inte längre verkar finnas - ofta flyttat - kan jag direkt varande en gedigen expert-surfare klicka på webbläsarens adressfält och sätta dit site: så fungerar det och webbläsaren surfar fram en massa sökresultat.


Vill jag översätta en sida måste jag istället kopiera (!) adressen, och manuellt därefter surfa till translate.google.com ställa in diverse och inte sällan därefter få meddelande om att det inte går att översätta därför SSL.


Varför kan jag inte skriva translate: och låta det hela bli löst? Diverse plug-ins brukar ju finnas för ditt och datt. Men jag surfar webben på min minamala bärbara dator där webbläsarens skärm störs nog tycker jag av alla nedladda filer som tvångsmässigt dyker upp längst ner tills man stänger ner det.


Här använder jag ju varaktigt lösningen Google Chrome. Ett för mig långsiktig investering där jag vågat lita på att lösningen inte bara kommer avslutas eller divergera bort i saker ej intresserande mig. Därmed lär jag mig gärna ett också ganska komplext språk för att styra det hela inkluderande både site, translate och kanse något mer tillsammans med separatorn :. Det är en kostnad jag vågar trots en individ hårt slavande i annat vågar ta för att vara del av en bättre webbupplevelse för mig och kanske fler.


Men var finns visionne? Ledarskapet= Den gamla tiders gårdsbutik mentalitet där man sätter vad man skapar för i centrum? Vem vågar vi användare såväl tror jag Google's medarbetare våga sätta tro till när man klarar och orkar fram till värde för site för att sedan glömma bort eller strunta i det för translate eller missande att föra in det i motsvarande de tyskt-exakta riktlinjer jag själv koordinerar mitt dagliga arbete? Och vad ska aktiägare tro när utveckling tycks ha frysit helt sedan Madame Mayer lämnat?


Bristen på vision och förståelse av kärn-affären varande jag och andra av världens verkliga internet sökande saker och ting märker jag dessutom i Google's api-data. Varför sätts inte sökfunktionen on-going efter den view jag är i? Är jag i produkter borde jag väl rimligen få endast produkt resultat? Givet search in the core bör det väl fungera jämförbart eller egentligen mycket bättre än hierarkier på egna sajter? Särskilt som så få hierarkiska eller några länk-strukturer finns. Istället får man för samma sökord (relaterat att försöka reda ut hur mycket det kostar per transaktion att göra sökningar, om jag får förekomst uppgifter, regler för hur det får användas o.s.v. varande något om något jag inte ens fullt begrep mer än ej relaterat och ev. var något någon partner till Google gjort.


Google produkterna finns märkte jag nu förövrigt inte på products.google.com som har med shopping att göra. Rörande vad folk som söker shopping söker på vet säkert Google bättre än vad jag gör.


Sökande på google prediction api hittar jag dock fram till rätt domän nu. Den produkten kände jag ej beteckning på innan och hittade slutligen fram om jag minns rätt via sökträff på Stackoverflow där länken verkade komma på en sida där Google ville att jag skulle acceptera licensvillkor för två produkter (inkl. Translate API och Prediction API) jag inte använder eller innan hört talas om vad jag kommer ihåg.


Ganska seriöst "produkt-shoppande" för förekomst statistik för att slippa tröskla igenom tusentals Gig data för exakthet ej nödvändigt - med hopp om de för enklare människor som jag - Internets verkliga surfare - helt orimliga priser såväl som kontrakt rörande vad jag egentligen köper jag minns från 2011 ska ha lämnat världen av att man egentligen inte vll sälja och introducerat en köpbar produkt - söker jag dock modigt vidare lite:



Och klickar på en länk i Google's sökresultat från sin developers.google.com sajt.



Förvisso kan jag förstå att man kanske inte riktigt vill sälja den här formen av statistik även om jag betvivlar på att det är en riskfaktor (jämför gärna med Google Research dådkraftiga och föredömliga datdelning såväö som de gigantiska webb-corpus andra projekt försiktigt börjar göra tillgänglig där åtminstone förekomst statisik på den kvalitetsnivå Goolge väljer att visa vid användar-drivna sökningar knappast uttrycker fördelar konkurrenter om man säljer korrekt till ett seriöst pris: själv har jag cirka 44 000 000 nya entiteter expandera min core-grid från tidigare size-optimerade på cirka 100 000 jag vill ha en parallell källa till och just lite slöare mindre föränderligt ändrande dugligt för några månader minst webb-förekomst snarare än nyheter ger: kanske 1000 kr per 50 000 förfrågningar om man också för något mer bra på köpet - kanske lite historik på sista datat, varians över en ännu längre period, och co-occurence vektorer för topp 1000 resultat - ett trevligt personligt bemötande med lite kod-hjälp från alla kod-delningsprojekt Google bedriver. Kanske färdiga Perl-moduler för integration med API.


10 öre per transaktioner köper jag dock för om webbförekomst ges med kvalitet och möjligt att använda vidare i licens även om jag knappast lär köpa 44 000 000 transaktioner utan snarare 100 000 som jämföresle i quality assurance av annat eller adderande in där egna corpus tycks scarce.


Google-historik här säger mig dock att givet mot-lutet söka rätt på uppgifterna är det inte värt tiden att söka mer på det. Jag har en känsa av att priset är gigantiskt högre än vad jag betänker här.
Åtminstone förr kunde man ju göra 10 000 transaktioner ungefär mot det gamla web-search api:et. Antagligen går det fortfarande. Problemet där är ju att obetalt och oreglerat är frågan vad man egentligen får göra med det. Applikations-domänen för mig är sådan att jag vill ha ytterst exakthet på rättigheter för data och hålla möjligt problematiskt data separerat. Minns jag rätt är dessutom licensreglerna för dom transaktionerna sådana att jag ej kan använda data oc än mera ska göra förfrågningen åt en riktig användare.


I summering. Tips på följande uppskattas:


  • En webbläsare samma som Google Chrome så jag ej behöver lära nytt men med translate operator adderad och utan irriterande utrymmeskrävande statusinformation ständigt ockuperande delar av min skärm längst nere i fönstret.
  • Occurence statistik för hela engelska webben med god inklusion jämfört med Google. Och gärna på högre kvalitet (jag har en känsla sedan många år att Google inte ger sitt bästa värde utan mer något annat från en delmängd kanske relaterat datacenter eller bara filtrerat föra tt ej läcka kunskap till konkurrenterna).

Dessutom gärna tips på en hosting-hall där man hyr in sig med egna datorer. Det fanns en jag gillade besökande den för några år sedan i Vertahamnen i Stockholm. God säkerhet, trevlig IT-chef o.s.v. Men jag klarade inte att hitta den med Google's webbsökning eller Openstreetmap. Kanske såld till Tieto, WM-data eller liknande?


Initialt kan jag gärna tänka mig och föredra något tillfälligt sex månader i Uppsala för att kunna göra on-site konfguration enklare.


Också här menar jag att realism i prissättning är viktigt.


När nu Google örjar signalera att man tröttnat på webbsökning, översättning och webbläsare är det kanske dags att driftsätta lite och äta upp dem. Kanske en sökmotor riktad deras produkt-sidor m.m. de glömt bort förfallande till mode-affärer (solglasögon m.m. att döma av bilder av top-management).