Från utredning till tillämpning i tre enkla steg efter inte mer än två års funderande

2013-09-30


Förståelse snart nog tillämpad i konsten att skriva pressmeddelanden (där förmågan vuxit till sig sista fem åren bland universiteten snart nog på nivå med kommersiell verksamhet i segment med större vana: Hunger efter Obama-pengar m.m. liknande har lyft dem allt högre i fantasifullt skapande):


"For instance, in an online review for a product, people may use cultural references, analogies and words with multiple meanings — such as “awesome” or “cool.” Humans, of course, can pick up on these linguistic tricks to decipher the overall meaning of the review, but software can’t."

Från: Bringing 'common sense' to text analytics | MIT

Givet etablerad kunskap sedan idag väldigt lång tid i det mesta teoretiska där vi haft i allt praktiskt förutom storlek och prestanda och möjlighet till att ta in och representera stora datamängder lösningar i nivå med vad vi ser idag bland de öppet publicerade (ex. Concetpnet, Yago, DBPedia) sedan 1990-talet. Och blickar vi bakåt i forskningen kan vi se samma koncept man idag oftare publicerar rörande mätningar m.m. runt algoritmer föreslagna eller genomförda av och till redan på 1960-talet på mer begränsat data (ex. i militär-forskning eller inköpta utredning senare publicerad öppet: en del exempel finns för den som letar bakåt här).


Idag är färdighet snarast när det ej som ex. går utanför det välkända det praktiska (ex. nära associerat vad i pressmeddelandet diskuterat Concept net) ligger i dess värde som filtrerad datakälla och orka hålla vettig tillväxt över tiden. Idag sedan ganska lång tid - kanske speglande blivande kommersialisering eller nedprioritet av universitet - hör det knappast till vad som är annat än bakgrundsinkludering du gör en gång vid behov utan att oroa dig för vilken version. Sista versionen var ju i huvudsakligen ett tydliggörande av hur stora datamängder som kommer från ett fåtal datakällor i sig ungefär det samma (ex. som i bilden nedan DBPedia) men med mycket av den kontextuella informationen tappa.


Filerna sorterade med de största överst. Den mer intresserad Concept net med övriga idag gamla trotjänare hittar mer om resp. sökande bakåt här eller användande taggarna längst ner. Normalt har jag ju om något lite osund naturlig preferens för att lyfta fram värden och positivt försöka peka på värde i saker och ting så det finns säkert diskuterat för dessa system (där inte något är särskilt bättre än annat rörande själva datat av de större) torde finnas diskuterade).

Vad vi ser ex. på i diskussionen nedan är den överhuvudtaget oavsett common sense lösning mycket vanliga rundgången i data. De tar gärna in relationer mellan koncept från varandra men för det normalt inte med något adderat värde. Förvirring notation, automatisk import m.m. är vad man ibland misstänker ger en del konstigheter även om jag inte vågar påstå att samma data via omvägar ibland återkommer till samma common sense system lätt defekt så att det nu kommer in på troligare felaktig plats. Spårbarhet är inte alltid etablerat enkelt om alls.



I år har jag med mindre förundran notterande det redan långt innan men med adderat en växande nöjdhet med mycket av gillande. En som i detta segment där vi har vad vi kan kalla över-konvergerande kommersialisering av ganska mycket väldigt lika ej särskilt annorlunda från vad vi har sedan länge kan ibland vara värde. Trötthet i finansiering och hur kompetens samlas kan göra det enklare för ett kompetensområde som i mycket varit stilla ganska länge i hur innovation (för att låna begrepp från MIT's utredning) realiseras när det handlar om nyare möjligheter. Fokus hamnar så lätt på paketering finansiering runt om egentligen samma sak eller egentligen samma fenomen hur det översätter till och skapar möjligheter när koncept närmare slutanvändare av typen surfare snarare än industriköpare tillämpar det.


Det gör känner jag åren som kommer lättare för oss att se vad nytt som kanske kommer genom en sund kontrast. Jämför med hur Microsofts kvalitetsproblem (jag blev uppriktigt förvånad när jag efter många år utan Microsoft's OS insåg att det OS som kom med min Laptop led av samma i vardagen dagligen irriterande problem kring ditt och datt) skapade utrymme för Linux (välkänt men vi kan se samma fenomen oavsett område och oavsett mellan flera uteslutande komersiella lösningar). Lämnar man smalare personliga intressen kanske man kan se en mer problematisk koppling mellan fenomenet som sådant bredare och den långsiktiga förmågan för USA att ekonomiskt orka bidra till världsekonomin som trots nuvarande problem ändå är normalt förväntat.

Fler konvergenser P(A,B): Inför Smash and grab operation i domän TV-nätet

Smoothing enligt tidigare verkade av allt att döma mycket funktionell när value-typer adderades men jag valde ändå en förenklad metod som ger mindre flexibilitet men är funktionellt för alla viktiga användningar och behåller tidigare mindre lösning för övriga därför att förenklingar käver en till läsning av alla datafiler jämfört med skattade jag åtta till tio nya för flexiblare lösning (vilket tar väldigt lång tid) inte minst därför att filerna måste styckas upp mycket mer för att gå att ha minne för beräkning.


Oavsett det roade jag mig nyligen att ta ner större data rörande musik-lyrik och tog ut samförekomst rent binärt per meningsnivå av allt utan hänsyn resp. musik-lyrik-frekvens eller annan sådan spearering o.s.v. och från det samlad P(A,B) skattning.


Vidare från den viktade jag samförekomsten med ej normaliserad addition av förekomst två mått på intresse i två nära besläktade perspektiv: publicerande och upplevande (skattat från data jag tog ev. 2011 eller 2012 via möjligheter som då fanns via api:er hos en tämligen branschledande tjänst rörande publicering "media-stycken" bl.a. ofta på temat musik och film) - och normaliserat i kommersiellt möte av dessa data samlat från "internet marketing". Där värde adderas in i "antal" när det finns till resp. koncept oavsett om konceptet består av ett ord eller flera (om flera utan hänsyn förekomst av färre ord jfr wash your dog tar ingen hänsyn till samma värden för your dog eller dog) för resp. av de två koncepten.


För alla sådana förekomster - utan hänsyn till ordningen för A och B - dividerar vi värdet med alla värden för resp. de förekommer med.


Detta konvergerar avseende värde-typer förekommande - avrundat o.s.v. - för sannolikhet havande värde i resp. i+1 enligt proportionellt ökande eller minskande för lutningen som all förekomst av koncept-perspektiv vi är minus förekomsten vi bedömer dividerat med förekomsten vi bedömer.


Vilket innebär - är jag tämligen säker på - indikerar (trots tämligen rundimentärt hanterande av mätvärdena prospketerande om de är värda att använda seriösare) att de genomgått påverkande smoothing av tjänsten innan levererat ut. Antagligen enligt någon variant av bionominala-fördelningar. Det är kanske lite intressant eftersom jag aldrig annars fått intrycket att samma aktör just använt dom algoritmerna associerat sökresultat för annat.


Oavsett vilket gäller att för värde association mellan säg angenämnt belönande och våldsamt eller otrevligt gäller regelmässigt att förenkla till det till spontant uppenbara positiv och negativ hör till vad som oavsett någon förekommande viktlösning publicerad eller de bättre jag gjort själv i övrigt levererar regelmässigt signifikant sämre än andra motsvarande sådana "mer eller mindre" som jag brukar kalla för mig grundläggande. Normalt verkande påverkande globala tillstånd i vad som är beräkningskrävande ser jag föga värde av att låta positiv och negativ påverka därför att man får det typiskt mycket mindre med ex. up och down och Blu lght intensity och vid ev. behov utnyttja det till utgångspunkt att applicera positiv och negativ på riktat rörande något avgränsat koncept eller en koppling sådan till annan. Musik-lyriken när vikter som här mycket nära det reward-drivna - d.v.s. vad vi ser värde att publicera för, betala för att driva trafik till resp. lyssna eller titta på utan att behöva betala - precis som förväntat tycks ge mycket intressanta och potentiellt mycket kvalitativa skattningar.


Jag hade inte just räknat med att aktuellt musik- och film-specifikt viktdata skulle hålla tillräcklig kvalitet. Det gjorde det heller inte första körningarna men efter transformation / projektion på det datat med up och down fick jag vad jag spontant bedömer som riktigt mycket bättre data än jag någonsin sett för positiv och negativ. Åtminstone när vi ser mer värde i vad vi vill använda positiv och negativ till i det ärligt praktiskt reward-drivna snarare än vad som känns korrekt att indikera när mätt och tillfrågad i forsknings-lab i psykologi-forskning eller för ännu sämre positiv och negativ data i eventuellt ofullständigt roterade frågor på Amazon mechanical turk (för att indirekt referera två av de oftare uppmärksammade viktsystemen relaterade positiv och negativ vilka båda inte spontant ser fel ut enkelt när man tittar på dem men ej levererar predikterande människa eller människor i beteende från språk oavsett om vi går fram eller bak i tiden).


Åtminstone för stora delar av datakällans möjligheter via extraktionsmetod jag använde tror jag att den är slut nu. Förr kunde vad publicerat-tjänsten tas ut till sekundära tjänster (ex. omvandlande ett filmklipp innehållande musik till mp-3 eller motsvarande) vilket gav SEO-driven marketing för den tredje ganska viktiga värde-dimensionen. Andra vägar att ersätta finns säkert och ännu bättre är antagligen att försöka för musik längre tillbaka i tiden ta vikter från försäljning, marknadsföringsbudget m.m. Praktiskt här och nu för mig ser jag emellertid inte att det är intressant som funktion av tidskosgtnaden. Både rörande automatisering tolkning av datakällor reward såväl som att från data byggt av människor direkt eller indirekt avseende hur titlar på lyrik-sidorna m.m. ser jag många i och för sig säkert intressant glada små utmaningar (definition glatt: ej iriterande på nivå att man kastar ett lagringsmedia ex. exterm-hårddisk i väggen för att i ögonblickets sanning inse att kostnad några få-tusen ny hårddisk mot att garantera att långsammare delar av personligheten aldrig självplågar sig med skit-datat igen är korrekt) men just tidsödande.


En allmän oavsett viktsystem mycket trygg brytpunkt är att de 10 000 - 14 000 vanligaste koncepten över alla jag tillåter (och ej nödvändigtvis inkluderande alla ord oavsett om vanligare all det minst vanliga av dessa) är tryggt utdata om det tillämpas i mina algoritmer för transformation och projektion vid analys enskilda nyheter d.v.s. i kontext av ett större sammanhang där för enskildas koncepts ev. felaktigheter reduceras. D.v.s. när vi gör projektion till denna topp från deras kontext i nyheten där kontext består av en mängd koncept vikterna tillämpas på. Jag bedömer att om man hanterar datat jag utgick från mycket seriösare än nu prospekterande - särskilt något vettigt genomtänkt istället för additionen - kan det orka fram till det (vilket just för positiv och negativ nära nog unikt för viktsystem jag förvaltar långsiktigt ej orkar stabilitet givande förskjutningar och fel när vi räknar framåt i tiden utan nytt data görande att vi inte självklart kan betrakta säg nedanför topp 1000 - 5000 mycket bättre eller sämre än data långt nedanför vilket gör det ganska svår använt i de lösningar jag valde att skapa med många fler dimensioner än normalt - konkret problematiskt blir effekten att mer sällsynt data vi annars vet stabiliserar sig över allt inträffande görande att vi praktiskt kan ta data från säg topp 50 000 till 100 000 ej nödvändigtvis gäller och filtrering istället måste ske innan data går in i nöten vilket jag saknar lösningar för avseende så pass specialiserade problem som positiv och negativ där ju gäller tror jag att kan man se dom problemen för filtrering kan man antagligen lösa vikterna direkt istället - om inte vetskap och förståelse av världen just nu och hur den utvecklar sig handlar mindre om data från närmaste dagar, veckor resp. månad och mer om många år för att få det vettigt om ens alls görligt).


Positivt överraskad av datat från filmklippstjänsten. Gör mig nästan lite motiverad att socialisera samhällen relaterat sajter och tjänster implicit driven användar-initierad publicering av värde-innehåll (jfr musik- och filmsajter som vid förfrågan tar bort filmen som kom på bio förra veckan när ombedda om nu någon noterar att den publicerats från sekundära sajter publicerande inbäddat i brist på sökfunktioner m.m.). Ett segment där jag förövrigt kan notera att gällande rapporter åtminstone från amerikanska myndigheter runt frågan sista två åren såväl som är mitt intryck arbetsmetodik hos copyright-ägare ej riktigt förstått vad verksamheten som genererar intäkter är eller hur man effektivt kan detektera publiceringen. Fascinerande nog kommer det relaterat "antal" ner till vad vi kan applicera typer och instansier på precis som för för språket: Typen "This is a movie" såväl som ett språk-koncept vs. där det refererats skapande fler instansier. Ju mindre ditt sample du bedömer antalet instansier från är desto större relativa skattningar får du rörande egentligen allt om smoothing ej sker. Både faktiskt förekomst relativt hela världen såväl som dina förluster samtidigt som det faktiska resultat i borttagande av publicering i samma utsträckning blir sämre. Metoden att t.ex. göra stora delar - ytterst verkligt funktionell för affären - tillgänglig och uppenbar enkel för de metoder ex. leverantörer filmbolag använder medan säg 70% ej riktigt framgår - trivialt ex- spindlande dem - är ett exempel på dom divergenser verkliga också bara för en typ avseende publicister snarare än för själva copyright-koncepten.


Mitt återupptagande av teve-tittande sista åren - på laptop med liten skärm - efter många år helt utan teve, och utan att någonsin använt en fildelningssajt eller liknande (mycket post-kulturellt min tid som mediekonsument på nätet) - har kanske som ej otroligt representerande nu i all verklighet ytterst stora och väsentliga grupper med ålders-centralitet förskjuten uppåt allt mer också från min ålder (jag var nog tror jag äldre än år rörande internet-konsumption av populärkultur) avseende värde-mängd ex. för de betal-tevetjänster som nu marknadsför (tar betalt och har ytterst relativt gratistjänsterna verkar det mycket långsam såväl som smalare publucering åtminstone utanför som jag minns det den största lagliga i USA när den fortfarande var det drivande konceptet) har gissar jag i mitt motstånd från att behöva lär mig något nytt för rent hobby-ändåmål (jfr fildelning, thor och allt vad det heter) levererat en till den direkta kommersiella mitten här för åren som kommer. I samma utsträckning reduceras tid ex. på Youtube varande tror jag mer typiskt för samma då i storlek mindre centralitet för de teknik-tröga men ekonomiskt intressantare konsument-grupperna närmaste åren bakåt.


Datakällor för vikt viktsystem ska - vad som är kvalitetsdrivande upp till tung-nivå för mig - vara vad man rent personligen ligger nära i vad man egentligen mäter och där helst själv tillämpar. Att direkt personligen förstå typ av datakälla gör att man lättare detekterar när den börjar tappa och det är dags att försöka hitta fler alternativ att bredda upp den med. En gång dominanta datakällor har dock ännu för mig aldrig ännu kommit att reduceras till annat än stora - det är snarast nytt-nytt som behöver tillkomma för dem - vilket jag tycker pressmeddelanden är ett bra exempel på. En mängd fler kanaler finns - flera generationer av nya sådana - men det är likväl en god grundkälla man ej vill ta bort från en nu större parallell-mängd (där förövrigt den första kompletteringen var en till äldre datakälla: rekryterings-annonser, och pressmeddelanden lades förövrigt ovanpå den vid tiden också etablerade i patentansökningar).

Nyhetssökning: Parsning ner till enskilda meningar under hög-intensitet

Vid ett flertal tillfällen under året - oavsett eller ev. därför en ganska cynisk-person - kände jag ointresserat motstånd men kom likväl att ta ut skärmdumpar såväl som på andra sätt dokumenterande tids-dispergenser rörande en mycket marknadsledande nyhetssökfunktion under hög-intensitet rörande nyhetshändelser i förändring.


Jag mindre upplevde det troligt eller vad jag egentligen kunde bedöma trolighet för men noterande möjligheten att det i vissa fall kan existera ett intresse att reducera spridningskraft i förändring för att minska vad vi utan det skulle definiera som naturlig feedback tillbaka påverkande - adderande ex. kraft tillbaka - nyhetshändelsen som sådan. Då vissa kulturella eller samhällsdefinierande struktur-likheter existerade med där man möjligen - även om jag kanske i alla fall kan upplevas tror jag egentligen felaktigt mindre berörande - kan argumentera visst intresse finns för det. Varande i så fall okänt för mig och om så inte helt ointressant fann jag mig dumpande ner och dokumentera det för ett antal stickprov ytterst väsentliga nyhetshändelser (inte minst Egypten-turbulensen ganska tidigt).


Därefter har jag också on-going noterat slöhet i färskhets-rapportering. Den andra "problematiken" hade emellertid fallit bort ur mitt minne i meningen att jag ej associerade det gemensamt.


Emellertid kan jag nu se en annan tämligen trovärdig förklaring till det hela. Rörande processande av nyheter finns ju en mängd grupper av tekniker vi gärna använder. Bland de ännu mindre vanliga hör ju att konkret parsa hela nyheten mening per mening. Jag adderade själv stöd för det under året - mycket smartsamt och otrevlig programmering om än utan särskilda om någon teoretisk-problematik - vilket särskiljer sig tydligt från dom statistiska och viktigare pardigmen genom att vara brutalt långsammare.


I vissa segment - om de är av intresse - för tolkning går det emellertid (vad jag klarat att bedömma och så vitt jag vet utan något publicerat alls indikerande annat) klarar vi ej att komma ifrån det. Vi etablerar som människor inlärning liggande i språket där vi givet det kan acceptera en kreativ flexibilitet utan krav på att behöva yttrycka vad vi snabbare kan fånga och ta upp med dom snabbare statistiska metoderna (för att göra tydligare utelämnande statistiska parsers snarare än ex. bag-of-word vektorer med mera).


Vad jag själv sökte drivande mig att addera detta stöd - och det satt långt inne med stort motstånd eftersom det var välkänt för mig hur direkt otrevligt hela segmentet är i programmering - var "pack-dynamiken" implict för enskilda nyhetshändelser och nyheter eller drivande dessa och viktigare on-going i verklighet inverkande och påverkande.


Där är det kraft. Men är på nedsidan långsamt. Själv har jag inte prövat det på skarpare nyhetsparsning där det snarare nu är planerat att gå in först smalare mot ett fåtal tidningar just p.g.a. prestanda-kostnaden denna form av parsning kommer med.


Aktuellt företag levererande nyhetssökning som roar mig att använda - även om jag får erkänna att jag stadigt under kanske sista sex månaderna ev. också av andra orsaker upplevt reducerat värde där i alla fall europeisk dagtid man vanligen numera behöver komplettera med Reuters - noterade jag idag köpte upp tidigare år teknik krävande just denna form av parsning. Jag tror den är något reducerad i att ta vad jag ej minns stardard-termen på nu men logiska subsegment av meningen vilka för engelskan vanligen är ex. på entitet gör detta eller detta is detta o.s.v. För pack-dynamik är det ensamt mindre intressant därför att kontextuellt oftare ges i påföljande samma där de var för sig tappar dynamiken (ex. sekundärt indikeerande att entiet är OF något folk eller grupp eller ge värde-association) men för att extrahera t.ex. common sense relationer i automatiskt inlärning är det välkänt och ganska beprövat nu sedan ett flertal år fungerande ganska oberoende av andra liknande relationer (men också ganska bortkastad tid än då givet att så väldigt mycket filtrerat sådant data nu finns).


Jag håller det inte för otroligt att detta förklarar dispergensen. Mer övergripande för samma entitet har jag redan innan noterat att personligt skattat resulterande från verksamhet indikerar att de tappat hungrig eller väl-motiverad i prestige, personligt o.s.v. Kanske mer eller numera uteslutande av vad som kommer in till en given verklighet varande big and rich world utan den kulturbärande historiken från tidiga kämpande år. Prestanda och detaljer i det enkla är vad man kanske märker tappas balanserat mot förvisso möjligen mer komplexa och funktionella lösningar i idé eller algoritm mer eleganta. Det är vad vi ska känna igen också som normalt när företag tar steget till att bli givna och tagande värde-flow som given när det också samtidigt eller efterföljande kommer till att bli sin egen person så att säga (ex. aktie-ägardrivet snarare än de med minnen från start och framåt fortfarande är i core-business).


Det tycks för mig reflekterande över sekundära fördröjningar i det lilla i meningen relativt världens pågående nyhetstid skattat publicerat per sekund jag ej pågående såg eller reflekterat kopplat de mycket mer märkbara fördröjningar stora händelser (jfr Egypten) där man var konkret efter mot det mesta större i dominerande tidningar i engelska-språkområdet, TV m.m. som åtminstone lika troligt som andra mer i risk management möjliga förklaringar, och antagligen trolig förklaring snarare än svårbedömd men antagligen otrolig förklaring.

Angrepp mot Dun & Bradstreet: Social security numbers såväl som personnummer är låg-värde

Nyligen rapporterat av Reuters (nedan via Huffington post) har bl.a. Dun & Bradstreet (kommersiell provider av filtrerad information om personer och företag: typiskt och runt deras affär för kreditbedömning - ett mer repeterat varumärke i segmentet men möjligen något utvecklingsmässigt och i data efter åtminstone som jag minns det år bakåt):



FBI sägs spekulera att social security numbers är vad man söker och det tycks väl åtminstone inte otroligt. Långt innan trivial-tillgängliga databaser för dessa fanns var ju andelen brott relaterat utnyttjande av andras sådana (och förr inkl. helt säkert mycket oftare döda personers social security number vilket lösningar likt Dun & Bradstreet bl.a. löser) vanliga.


Vi förstår från att det ses som möjligt alternativ att dessa angrepp ej otroligt är en mängd fråga och kanske ej typiskt så stort i värde man kanske lätt föreställer sig från enstaka mer uppmärksammade arresterade personer. Eller att möjlighet av andra orsaker att addera skyddande lager i affärsköp är reducerade.


Därför att köpa informationen från dessa företag kostar per transaktion föga. Det samma gäller också data relaterat person och personnummer mappning (d.v.s. vad ursprungligt känt Dafa spar längre tillbaka där det knappast nu lika lite som förr kostar just något: sista gången när fortfarande konsultande i det segmentet jag hade med dom transaktionsköpen att göra låg det för dom på cirka 70 öre vilket jag minns upplevde var indikation på att de blivit "lurade" ev. någon mellan-provider utnyttjande att det var strunt-summor i affärslösningen och jag betvivlar att det idag flera år senare kan ha gått över ens en krona: Så Sverige här om vi förhandlar ltte kostar knappast mer än några miljoner).


D.v.s. det finns ingen långsiktighet - och har i statistisk-trovärdighet versus riskkostnad som utryckt för enskild kund i annat än rare events inte funnits sedan tidigt 1990-tal - något meningsfullt när det kan kosta i pengar eller obehag för individ stabilitet i något där lösningen beror av att dessa siffror ej är publika över en större population (att de är publika för godtyckliga individer är ju givit som vi alla begriper i Sverige såväl som i USA av vårt dagligt agerande med en mängd företag).


Faktiskt blev jag lite förvånad när jag läste om hacker-angreppen mot vilken tjänsteleverantör det nu var som hade hand om numera om Dafa-spar. Förutom alternativet att köpa det minns jag det verkligen som att man regelmässigt i alla fall förr fick som användarkonton för test-sökningar mot databaserna - ej skarpa belastande resp. under andra primära krav när data är vad som ska användas under kontrollerade sammanhang. Åtminstone i tryckt eller om det var auto-skickade instruktioner (vilket jag påpekade också för andra eller tredje uppdraget berörande det föreslående att det kunde vara lämpligt att korrigera, indikerande ett annat problem och föreslående att en större genomgång av säkerhetsarkitekturen kunde vara lämpligt och indirekt att jag ej otroligt kunde vara ett alternativ för det).


Givet att uppmärksamhet i media på problemen där är det antagligen ganska tryckt att referera det nu (jag har ej heller någonsin gjort uppdrag åt dessa direkt - ej heller via indirekt kund köpande tjänster av dem från det silence agreement berörande något rörande deras tjänster eller information de givit då ev. problem där varit vad för vad jag är medveten om hanterat så det ej inverkar potentiellt negativt säkerhetsarkitektur indirekt mot kund). Rimligen korrigerat liksom potentiell problematik relaterat bulk downloading vilket jag kanske ej påpekade för Sema men antagligen genom deras kanal mot andra liknande leverantör i banksektor men närmare direkt själva bankerna i grupp möjligen var problematik.


I Sverige tror jag vi generellt kanske kan vara mindre oroade per individ även om konceptet av folkbokföring är mindre starkt relativt det amerikanska lösare definierade systemet. Jag har själv två gånger på platser jag aldrig innan besökt (ex. i en liten butik i Sävja resp. Pressbyrån vid slutet av gågatan i Uppsala men för Pressbyrån besökt innan hämtat ut försändelser krävande legitimation för de senare och för de första utan paketreferensen men lovande komma ev. tillbaka med den för något relaterat deras betalning eller annan uppföljning).


Folkbokföringsadress, hämta ut visande leg.-handling o.s.v. som säkerhetsarkitektur mot användarna dog med Posten.