NSA-informationen publicerad överraskar mer intressant än först förstått

2013-06-09

Nå möjligen i viss likhet kanske upplevt med viss likhet 2009 börjande och slutande ungefär runt Hathaway:



med polare är en känsla jag kan ha att det ligger en förtroende tyngd man inte lättsamt ska anta enkelt kan hanteras av dessa leverantörerna. Det är i det perspektivet inte primärt just denna läcka eller vad man nu ska kalla det för mig inte strategi vad jag tycker ungefär motsvarar vad de ganska öppet arbetat med som diskuterat tidigare. Snarare tror jag att viss bredare förståelse och diskussion såväl som ett större mer politiskt nära förståelse inte bara eller ens primärt just för privacy utan också för att man i värsta fall inte ska lösa bort gigantiska summor på vad som kanske levererar ingenting annat än kostnad i tämligen ineffektiva lite felaktiga träffar - och vi ska spekulera i kombinationen av de två värsta scenarier jag kan se missande dels en verklig större tragik med många döda resp.. likt hur antivirus-företag år efter år lyckas få möjlighet att slöa ner folks datorer med gammal ej fungerande teknik när bättre förstådda effektivare metoder både för hindrande och prestandan finns: ett internet väldigt slött därför att lite föråldrade stora herustisk-sitter och försöer reda ut hur du som koncept ansluter med en annan person över lite kategorier av personliga relationer man dumpat ner från Wikipedia, Freebase och NELL.


Att informationen i sig blev publik kan jag inte se bär någon risk alls. Teknik-frågor där man ibland kan få nackdel indikerande en utgångspunkt är här helt en icke-fråga. DHS har som jag diskuterat och också referat till genom åren när jag tyckt det intressant inte särskilt varit hemlighetsfulla.


Frågan säkert aktuell nu lite varstans är hur dåligt skött har saker egentligen varit på Booz Allen Hamilton. Har det som inte helt orelaterat eller okänt i brasnchen handlat mycket om slides med lite triviala koncept medan man inte klarat att hantera utveckling och förvaltning av den egna säkerheten kanske i områden verkligt problematiska orsakande ett kontinuerligt problem kanske ej uppmärksammat? Jag är ju som tidigare refererat varken troende eller icke-troende på Manning-konceptet. Det är visst möjligt men det finns också en hel del som talar emot det.


Nu här kan vi dock lugnt luta oss tillbaka medan ett antal aktörer runt om i världen nu gissar jag kommer se över en hel del runt aktuella personer igen kanske bredare-utåt.


Relaterat:



Jg ror det är klkt att man lite mer centralt här också ser till att ex. och förslagsvis FBI eller liknande med stabilitet kan gå igenom affärerna runt den här och fler aktörer. Det skulle inte förvåna mig om effektivitets-problem ligger relaterat om inte här inte otroligt på nivåer som gör det ointressant givet tydliga risker i såväl affäer som national securithy.


Och finns problem håller man det bäst rent själv oavsett vem egentligen. På så sätt man kan lära av misstagen eller bättre över tiden utveckla förståelse av vad man egentligen klarar av med mer realistiska förväntningar.


Det här ska heller inte på säkert väldigt avlägsna omvägar förklara de atypiska angrepp vi såg riktade mot entiteter normalt betraktade som vad man ej annars trakassera från den logiskt lite mer självklara aktörer i Kina då deras personlighet inte sällan är sådan att de istället lite motiverat uttrycker aktivitet tillbaka. Ingenting stämde i det i vad förväntat. Och när man ej ser klar kan det ibland vara klokt att det lite lugnt och vänta var smällen kommer innan the hounds släpps lösa.



Nu dröjer det inte länge innan först de mindre glatt nyfikna blodhundarna kommer. I detta kommer vi förhoppningsvis få ett mer väsentligt värde i media i möjligheten att från ett alternativt perspektiv notera problem man i ett inarbetat kanske missat att se.

Jag betvivlar att det annat än är abtrakt och kanske också konkret är positivt del av tror jag en naturlig process till att klara att ta säkerhetsbranschen oavsett huvudsegment till det sunt levererande kanske på fem till tio års sikt orkande till nivån fungera i vardag på basnivå. Lite för mycket handpåläggning, trend-koncept, och mutande in säkerhet på datorerna till hög kostnader pris och prestanda utan att lösa problemen ändå uttryckande mrkbart värre problem typiskt ej alls fungerande längre när lösningarna plötsligt avbröts i köp (d.v.s. inte ens hanterat grundläggande OS konfiguration eller uppdateringar förutom som för antvirus-leverantörerna sittande filterande kod och textfilerna med allt emellan, och hos dom nätverksfiltrerande troende att det är vad man nu såväl som för 20 år sedan och 20 år in i framtiden stabilt fortsatt hanterar med diverse regel-kunskap trots gigantiskt ellt mer trafik som går i applikationslager, ligger mellan indirekta system ex. passerande samarbeten mellan företag (och kanske i det visa några myndigheter förhoppningsvis inte äventyrande verkligt kritisk struktur).

Är Google's ontologi Freebase mer noggrant installerad och användning hos stora konkurrenten istället för dom själva? För att försöka begripa samband mellan sökord

Ett tag lite bakåt upplevde jag att Google körde ganska hård markov-logik nära naturligt språk på sökfrågorna. Säkerhet med data från Google NGRAM tillsammans med deras besläktade projekt för att samla mer långsamt föränderlig språk-datastatistik kontrast ex. tydligare sök-koncept mer tidsberoende. Det kändes aldrig lyckat men är kanske en parameter som också reducerats. Att dra nytta av väldigt ämnes-relateade koncept som minskar ner rymden blev sämre fungerande.


Sedan har de ju sin medelstora ontologi Freebase i skapande koncept något lite speciell precis som alla de mer kända av de medelstora i överkanten i det segmentet. Cyc gör det med människor övertränade på ontologier, NELL med automatiskt inlärning i mjukvaande skattande vidare från vad den upplever sig veta, Yago har kört in Wikipedia kategorierna och balanserat det med skattade idéer om tänkbara word-net-sense id-nummer de kan tänkas motsvara i hur de i sin tur ska klassificeras.


De är alla när en självorganiserande faktor fins därför att de uttrycker saker en aning skillt. Värdet är mer långsiktigt där vi kan se att vi kan utnyttja NELL över längre tid för en effektiv källa man ej behöver addera egen energi för att ta ut kandidater på mer grundläggande samband väldigt nära frasers elationer uttryande delvis internt så att säga A of B och mellan dem ex. A gör B.


Men för krävande lösningar där ett mycket flexibelt behöv i större budget finns tror jag att man hamnr fel om man idag använder dem direkt styrande logik-beslut och id+er om världen märkbart utåt. Krävande lösningar skulle ex. kunna vara en sökmotor eller något NSA skapat. Bara värdet som ges av att med föga respekt för deras struktur-idéer föra samman dem snarare efter hur vi ser på deras datakälla och metoden där med viss riktning mot var vi ser att det kan leverera är stort.


När jag nyligen i förbigående nämde mitt eget robot-surfande för att föröska ta ut stora mängder hög-komplex statistik sökande möjligheter bredare i på korrekt ambitions nivå för en mjukvaruagent idag fält och liknande. Märkte jag en period när jag råkade hantera hmtandet lite mindre hänsynfullt i sleep m.m. viss detektion stängande ner hos några. Gemensamt för för två av dem medan den tredje helt säkert gjorde det auto-räknande anrop från IP-adress med egentligen väldigt hög tolerans (en av de större statligt finansierade aktörerna i världen relaterat hälsa).


De andra två detekterade trots att konfigurationen av trådarna låg fel tror jag 4 till 12 veckor utan någon hänsyn eller variation alls ingenting förrän de råkade ta upp en fil som låg tillsammans med whitening data och som sådan en aning större egen skapad från Framenet för att försöka ta ut väldigt smala funktioner av dem (typiskt skärande ex. allt mer än concept A relation B eller liknande. Där gick de båda direkt upp i detektion.


Jag tror de lite varstans sitter och intresserar sig för samband sökförfrågningar. Google ger ju alt. förslag där nu jag ännu utan undantag har att se värde ifrån. De är regelmässigt mer breda i vad som inkluderat och mindre exakta d.v.s. typiskt skärande ett ord. Också när ett tillstånds indikerande att går mot högre komplexitet. Gissningsvis i smala områden föga söka tror Google att man stavat fel eller inte riktigt förstår vad som är bra termer att söka på och tycker att man ska skära bort ett eller två sök-koncept.


Nu var det dock inte Google som var aktuell här utan en av deras i viss verksamhet vad som har en del likhet i tjänster och produkter. Tänkbart tittar de en hel del också på samband mellan sökords-koncept och tog och började med att dra in hela rFreebase.


Jag har oerhört baffled över det i veckor. Det är inte där en aktör med resurser förväntat ska vara. Jag använder dem sällan sälv annars så jag hade heller ingen aktuell utgångspunkt. Bredden i samband koncept för en världspubik ligger på nivåer där Freebase överhuvudtaget inte bör ses som i närheten av en mer dominerande del av dom stödsystem i mer etablerad inlärning man kan låta komplettera den ännu bredare statistiska analysen om relationer.


Detta är intressant som en allmän indikation ungefär var kompetens relativt stor hårdvara och big-data ligger inte allt för långt ifrån årets kompetens-uppmuntring från NIST just relaterad i en del om jag minns rätt samband mellan sökförfrågningar.


En brägnsning i tankesätt jag upplevt genomgående relaterat sökförfrgningar jag tror är verklig men heller inte ser som ddirekt prioriterat att verifiera för den källan är att man förutom som här med ofta något ganska avgränsat vid sidan om ex. en statistisk parser med en del mer regelstyrda koncept och så ett eller två datastrukturer i common sense representation (ex. är Freebase såväl som The Specialist ganska vanliga om än i lite olika användningar oc numera av och till också Yago). Men det är inte förståelse som är särskilt relaterade dynamiken i webbsökningar. Det handlar ju mycket mer om förändring i våra tillstånd sökande aktivt såväl som nyhetshändelser, vad vi gjort under dagen, väder och vind mer på nivå idag och några dagar bakåt såväl som vad som kommer hända om några dagar.


Common sense måste ju vra den enklare grunden man hellre tar från flera koncept reducerande exakthet för att hindra dem från att göra för stora antagden om vad saker betyder för att leverera det värde jag tror är viktigare från dem i sökförfrågningar: en föga föränderlig grund där vi kan ta den att kunna relatera annat till. Det kritiska är nog mindre ofta om om person A göra B med krppsdel D att vi begriper att D är instrument även om just det givetvis r trivialt nog utan större common sense.


Mer intressant är ju att relatera förfrågningarnas relationer utåt från vad faktiskt sökt mötande andra datakällor vi har om världen. därmed hindrar vi ju överträning jag föreställer mig är en stor risk därför att folk misstänker tror jag gärna söker lite på samma sätt även användande olika sökord också när världen just nu uttryckande händelser, koncept, kultur m.m. fasförskjutande aktuellt bort relativt hur intressant det upplevs vara.
Sökningar motiverade mot referensinformation mindre beroende är ju också en fråga man antagligen från sökmotorföretag bra klarar att separera ut. Där är j behovet av andra datakällor än sidorna och sökorden och ev. system för att vikta dem via länkar m.m. säkert ganska potent i sig.


Men också mer abstrakt är ju common sense såväl som Google's age ranking, uppslagsböcker m.m. just några av en mängd exempel på att det är områden vi utmärkt hanterar idag. Människans natur är nu sådan att när koncept blivit välrepeterade med i alla referensböcker och löser problem väldigt svåraa för några år sådan kommer man fortsätta att pröva dem i andra tillämpningar trots att det gång på gång år efter år inte just verkar skapa mer intresse hos dina konsumenter eller för den delen uttryckande något nyskapande.


Det är en begränsning jag tror vi alla lider av. Men jag tror också att begränsningen i stora organisationer hamnar lite mer märkbart kollektivt runt produkter och tjänster medan det för oss som individer oftare handlar om mer privata trivialiteter i vardagen. Visst att göra B kan vara mycket bättre men nu har jag gjort A i fem år så varför inte fortsätta så slipper jag pröva något nytt.


V kan avsluta med att fundera lite på om man egentligen någonsin korrekt ska konvergera fast som givet i representation ex. via id-nummer eller om det borde komma naturligt från den som söker information där dennes användning riktar in honom på vilket av ett antal näraliggande koncept utefteer åtminstone normalt några dimensioner (ibland kanske mer svåra att uttrycka runtmetaforer m.m. men oftare mer varianter av ett koncept ex. Sångerskan Madonna i hon gjorde som jag skulle uppleva som farligt omoralisk vulgär-kultur, varande vid samma år väldigt gammal, eller tyckande att der var hennes unga år, eller precis vad som helst för att ta några enkla exempel som ligger tror jag egentligen långt borta från dimensioner merkatuella här. De här uppenbara dimensionerna bör utmärkt tas via similarity och associationssamband direkt på sökord. Jag tror folk antagligen bra förstår att lägga tll ex. "avklädd" till Madonna om de vill läsa ett avslöjande reportage som borrar in på ennes dolda hemligheter.


Gårman den kreativa vägen får man sedan på vägen ta att man ibland får koncept-förslag som tveklöst predikterar ex. relaterad intensitets-förhöjning men där vi har svårt att riktigt se hur vi kan ta identifikationen som där uttryckt mer konstnärligt b bra automatiserat. För att återknyta till landslide (Nordkorea: Kärnvapen och Jordskred
2012-12-06)
nere i Nordkorea. Och kanske också mitt missnöje med hur samma undersystem klarade att skämta där två exempel jag vet att jag publicerat var Black in White (Drifting thoughts (kanske) skämtar snuskigt (kanske rasistiskt) om President Obama och Hillary Clinton) som svar på ett skämt relaterat händelsen att utrikesminister clinton slutade där jag ville ha ett kul samband indikerat mellan dem (den implicta sexuella dimensionen störde mig också eftersom det kan peka på att fler koncept dr kan behöva återföras fodrande ev. mer av annan filtrering mo vulgär-kultur, fiktion, spam m.m. förgiftande seriösare analys) och nyligen lite bättre Blodsocker i äppelmos också från Dreamer när jag ville a ett skämt som gav en lite obehaglig känsla runt Syrien.


Jag tror dock att de nya undersystem jag utvecklat ett tag kommer lösa en hel del rörande just tolkning t.ex. relaterat skämt, metaformer, liknelser m.m. Natural language understanding handlar ju potentiellt inte bara om att tolka indata - kanske inte ens viktigast över en längre tid - utan också om att ge systemet en väg att bra för oss enkelt begripligt förklara vad det menar utan att behöva lägga tid för att be om tolkningar från ex. några jämförbara koncept runt om eller be den borra från ett annat kunskaps- eller kultur-perspektiv.


Etttill skämt av Drifter och Dreamer jag hade glömt att jag hade publicerat: Outsider Art - Ridiculous: Bondkomik av Drifting thoughts.

Semantic Mediawiki: Enkelt och vettigt avgränsatd och troligt ett bra val för många trots långsam dataimport

Med begränsad erfarenhet av MediaWiki som plattform presentation mot affärslogik och artificiella intelligenser och analys-systems resultat "organiserat" och sökbart var det en tämligen självklar utgångspunkt att tänka basplattformen utan att blanda in Semantic MediaWiki. Hela det teknik-området är ju vanligt problematiskt långsamt när man börjar komma upp i ordentligt med samband och än mer när relationerna inte är binära utan varierade i "attraktion" som funktion av tid.


Men läsande egentligen väldigt lite publicerat - och förvånande lite jämfört med hur dåligt organiserat jag upplevde att informationen var centralt för MediaWiki i faktisk tid resulterande anmärkningsvärt enkelt - framgick att MediaWiki egentligen bara är en tämligen "dum-plattform" med en eller flera små insticksmoduler bl.a. uttryckt i PHP med lite filer runt omkring jag inte tittat just på men antagligen bär logik och kanske ev. eget modulerna behöver.


Ingen nackdel med att installera in subsystem motsvarande MediaWiki såg jag - åtminstone innan man ger dem ansvar och uppgifter genom att sitta och arbeta på sidor anropande dem eller vi egna diskreta små databas operationer det hela tycks göra men jag inte riktigt tittat i detalj på.


Semantic MediaWiki var dessutom förvånansvärt vettigt begränsad i vad de försökt att göra. Den kändes som en nästan kulturell-stereotyp för tyskarnas ontologi-intresse och visade sig också driven av dom vilket också gjorde att jag förväntade mig mer filosofiskt konceptuella relationsidéer av sådan natur att de praktiskt i maskin-analys blir oerhört långsamt. Men förenklad ner till nära nog bara det mest grundläggande i hur vi utnyttjar systemet skjutande in data (medan analys-kod för sökande diverse logik runt dom semantiska graferna troligt är vad man intresserat sig mer för att koda mycket in en hel del i: Det finns ett ganska stort intresse hos både universitet och företag i Tyskland med ett tycks det väldigt långsiktigt perspektiv ganska tydligt just uttryckt i analys-system av typen resonera "mer binärt" om vad relationer av olika slag betyder och bygga upp små antagande som växer sig stora över tiden men universiteten i USA oftare tycks mer inriktade på statistiska lösningsmetoder.


Att de avgränsat uppgiften gör att man lättare kan abstrahera vad den är till för och avgränsa ansvar med också mindre behov att verifiera om den gör saker kanske störande affärslogik ej trivialt att alltid reda ut när det handlar om väldigt komplexa grundplattformar (jämför ex. med de moderna databas-koncepten från IBM, Oracle m.m. som blandar alla möjliga former av datarepresentation, logik, underhåll, import och export fordrande mycket goda kunskaper om det innan man ens kan börja tänka på att bygga det värde man söker mer än delmål att få databasen att fungera utan att störa eller begränsa logik.


Logiken prioriterad för sökning och samband känns dessutom vettigt kompletterande i områden jag haft mindre intresse att göra lika generella lösningar i egen-kod. Det är ju dessutom samtidig logik som endast belastar när faktiskt använt av slutanvändare (åtminstone på nivåer av betydelse annat än vid dataimport där det kanske adderar en kostnad också åtminstone om man optimerat representationen för snabba analys-svar).


Dessutom var två excellenta introduktioner praktiskt funktionella utan att överdrivet uttrycka mer än funktionellt ny med systemen men ändå indikerande de viktigaste möjligheter ett tydligt ett värde ej trivialt:


Första länken är en längre guid och den man bäst utgår från vid installationen. Instruktioner tillsammans med Ubuntu-paketet gick ex. ej bra för mig innan jag gjorde en del saker indikerade här (ev. missade jag det i Ubuntu-informationen). Utmärkt som första introduktion.

Semantic MediaWiki 1.4.3 - User Manual | Semantic-mediawiki.org

Denny Vrandecic, Dominika Wloka, Markus Krötzsch, Yaron Koren, et al.,
Publicerad av: ontoprise GmbH | Ontoprise.de

Nedan sammanfattad information av åtminstone väldigt mycket av alla delar. Mycket praktisk för att snabbt se vilka möjligheter som egentligen finns för att lösa en del av vad som behöver göras.

Quick reference | Semantic-mediawiki.org .
Yaron Koren.

Precis som elegansen i grundkoncept överraskade klarade man här också av att förvåna med att man (åtminstone / redan) nådde upp till det nästan löjliga när systemet ska få data infört från andra system. Ingen verklighetsförankring från mitt användningsperspektiv verkar heller alls vara vad man i projektet noterat ännu.


Perspektivet i projektet är tänkt användning övergripande i Wiki-projekten där större importer sker mer sällan och istället många små "importer" från alla användare.
Att initialt ta in en kanske om sortering i namngivning lite generöst belastande databasens storlek på hårddisken är fungerande säg 50 000 000 koncept-sidor förutom själva relationerna är vad tänk och rekommenderade metoder ej är tidsmässigt förtroendeingivande för.


Det närmaste jag kom lösningar enkelt beskrivna (istället för inte alls) för att direkt skjuta in datat till databasen var istället för Pyton-skript läsande owl-filer och skickande det omvandlat till Wikimedia's intern-struktur till Wikimedia's webb-api (för parsning igen givetvis säkert på mer än en nivå) var detta underhållsskript:



"/var/lib/mediawiki/maintenance/" ."importTextFile.php".


Mycket troligt finns snabbare metoder men vad som hittades på den tid jag önskade lägga. Givet att vi här uttalat kan köra skriptet från kommando-prompt utanför själva Mediawiki-systemet blir det snabbare (när kö-hantering i Wikimedia inte just är problemet eller utmaningen för oss här utan heller någon negativ-sida).


Trots det mycket långsamt. Hårddisken låter på förvånande nivåer också för ganska små datamängder som kanske 100 till 1000 sidor uttryckande endast kategori- och property-relationer går in. På nivå med cirka 10 - 20 trådade Perl-processer som läser och skriver data i ganska hårda-loopar om än normalt för mig några sleep-inlagda av och till åtminstone på några milli-sekund av och till.


Men så har ju data't då gått en ordentlig väg trots kommando-prompts-körningen innan den slutligen hamnar i den databas jag ej varande någon expert eller ens särskilt kunnig alls om SQL m.m. nära nog kände att jag kanske hellre borde ha gett mig på att försöka oavsett ännu ganska dålig bild av hur enkelt det är att ta MediaWiki att korrekt följa upp sådant i ev. (och troliga) händelser den behöver göra när något nytt kommer (ex. optimeringar mot dess egen logik mer problematiskt för mig att uttrycka i kod mot databasen utan att ta ut den från deras plattform eller utsätta mig för traumatiskt krävande föga belönande utveckling av prospekterande stöd för det i Wikimedia's värld av massor av ofta lite ofullständig dokumentation).



>Importen till höger presterat till kanske 0.3% efter en försvarlig tid. Just nu säkert en eller två timmar senare på AJ. Med e och diverse andra otäcka bokstäver som första kvar. Till vänster om jag minns rätt några av de named relations som tas in i denna import. Faktiskt har vi ännu inte börjat kört in datat utan verifierar att inga dubletter finns i den MediaWiki-logik som skapas. Det tycks lite odefinierat för hur redundant-data alla gånger egentligen fungerar och också om det troligen ej är något egentligt problem med logik är det vettigt att varje system verifierar ner ökande som en funktion av dess vetskap och förståelse av datat nära dess kod (d.v.s. att jag helst inte vill behöva veta vad MediaWiki gör med datat i dess arbete vad vi hellre gör lite extra-filtrering innan skickande in det).

Nu tänkte jag börja köra in dom första miljonerna raderna koncept gjorda. Så får vi se om det kommer några skärmdumpar av det kanske tillsammans med en sammfattande publicering av dom skämtteckningar jag gjort bakåt i tiden relaterat Tyskland med kanske utlovade behov att helt prioritera ner Obama med flera fallstudier studerade i det komiska för att inrikta mig på att håna Tyskland i allt semantiskt för att avskräcka dem från att sprida något smärtsamt ut i världen. Humor är ju ett mycket potent vapen jag tror många fler än jag kan ha nytta för att standardiserat verktygsmässigt skapa värde från för att motivera diverse öppen-källkods-projekt m.m. att få rätt brukshöjd i vad skapar genom att addera en kul men samtidigt kompletterande motivations-area bredvid status- och makt-strider i grupperna om vem som kodar mest och bäst m.m. vi kan gissa tar mycket tid (åtminstone jag kan då inte se någon annan motivation förutom externt adderande komisk learning by shaming m.m. som kan spela in viket i sig på längre sikt kan bli ett problem om något av äppen-källkods-projekten konvergerar till en stark ledare med kraft i gruppen att försöka marschera ut för att utmana dagens betydelsefulla geo-politiska aktörer: den stora frågan är kanske om man kommer ta allians med NATO eller Kina och hur det påverkar utgången i det tredje-världskrig jag tror vi givet allat som skapas på nätet i kaotiska konflikter mellan teknik-plattformar m.m. helt säkert kommer bryta ut förr eller senare).


Men jag känner mig tämligen positiv i förväntan. Trots utmaningarna prestanda import har det överraskat i också fler små-indikationer än diskuterat att det kan vara ganska välgjort i inriktning en bra grund-plattform.

Fast publicerade DHS egentligen inte det mesta om "avlyssningen" NSA ocb DHS gör? Jo

Apropå Director of National Intelligence James Clapper condemns ‘rush to publish’

Read more: http://www.politico.com/story/2013/06/dni-james-clapper-guardian-washington-post-leaks-prism-92446.html#ixzz2VfiOivoV
kan man argumentera att egentligen ingenting i förstådd abstrakt-mening dolts av DHS. Snarast att man praktiskt mer eller mindre som av och till intresserad kunnat följa arbetet även via mer sammanfattade presentationer och liknande (ex. för en lite mer intensiv period där dom tidiga åren "samarbetsgrupperna" etablerades med företag.


Därmed inte sagt att det just lika konkretiserat lätt-förstått i informationen framgång i ett enskilt dokument. Ex. upplevde jag aldrig att det framgick exakt var extraktionen började och slutade närmare projekten. Däremot har det ju indikerats bl.a. via dom projekt NIST intresserat sig för i text mining prospekterande särskilt som ett enkelt exempel algoritmer för att tolka relationer mellan entiteter (ex. personer, grupper, organisationer) m.m. Och om jag minns rätt samma år som NSA själv deltog med spreading forests.


Även om jag givetvis skämtade i NSA kan ge Dagens Nyheter rätt kunskap för att lyfta koncernen till fornstora dagar (och om ev. lite oftare skämtande DN snarast relaterad att jag fortfarande tittar till dem lite för svensk-samling om än numera där och för alla svenska aktörer nästan ingenting jämfört med längre tillbaka) så är tror jag snarast intensiteten man reagerar på oavsett aktör här resultatet av kompetens- och vetskaps-distansen (och så funderar jag lite fortfarande på om det finns en punkt där de enskilda delarna av den entiteten och liknande faktiskt är troende-engagerade på nivån att de går tydligt up-to-prove eller nedtaget-deprimerade där jag gärna vill se ett för DN delvis därför att de faktiskt är en mätbar kulturbärande aspekt av Sveriges offentliga språk där konkret-problemlösande uttryckt i språk är en sund strategi för oss alla att höra mer än i värsta-fall och väldigt sällan numera gubb-gnäll om att världen ser lite annorlunda ut eller världen-går-under därför att vi gör lite förluster nu ganska högt relativt vår belåning) När sådan reduceras märks det vanligt i varje fråga där unknown existerar tydligt, kraftiga reward-eller risk-dimensioner verkar och/eller att "alla" just förväntar sig hög upp-intensitet.


Jag tror verkligen inte att den reduktionen kommer innebära ett problem för dom här projekten praktiskt. Snarast tror jag att det är för leveransförmåga såväl som möjlighet att långsiktigt utanför detta år och tre år framåt nivån faktiskt nå fram till en vettig balans mellan ett internet utan aktiv juridisk-tillämpning för alla intresserade av att göra något olämpligt och har viss kunskap och inte är klumpiga eller hackar datorer fulla, liksom självklart möjlighet att kunna bedriva spaningsarbete där såväl som i den vanliga världen, och behovet av att det är satt under demokratiskt kontroll där för att denna ska vara funktionell förståelse fodras både hos politiker och väljare.


Allt annat än den vägen lutar jag åt är tämligen lönlöst på lite längre sikt också för en finansiell potent aktör som NSA och övergripande USA. Lösningar går här att göra effektivt och mindre effektivt och möjlig effektivitet bygger på möjlighet i mellan-lager samarbete och förlängning vedertagna standardiserade lösningar, agerande-mönster, regler o.s.v. fördelade ut över samhället som för vanliga tillämpade rum för lagar, bokföring m.m.


Till-skillnad från många andra tror jag inte alls på den här linjära-skattningen av faktisk prestation relativt budget många gör av NSA. Om diverse som antas ibland om deras verksamhet är korrekt är det kanske åtminstone delvis en bra sak. Men det finns också ett legitimt behov med faktiska risker vi kan mäta händelser av realiserade med problem lngt utanför i varje händelse realiserat i värsta fall antal döda utan också de problem som kommer indirekt i långtgående konflikter som bara fortsätter. Att föregripa som i mest extrema fallet terrorist-attentat är väldigt viktigt för ssamhället både direkt och långsiktigt. Men som sagt tror jag dom möjligheter inte otroligt kan visa sig gynnas av nyhetshändelserna nyligen.


Och kanske säger nyheterna i sig egentligen mer om effektiviteten media-idag tenderar att leverera i områden lite utanför deras inarbetade områden eller fordrande att man läser mer komplexa dokument följt under en längre tid. För jag har ännu inte sett något i det här jag inte tycker att DHS om än inte lokaliserat DoD just NSA särskilt försökt dölja utan slidat upp och publicerat om av och till liksom beställt lösningar, uttryckt kravspecifikationer, skickat runt förslag till aktörer för möjliga lösningar eller synpunkter på arkitektur. Det i sig lutar jag åt att man nog har viss sund-förståelse av behovet av kontroll-systemen abstrakt om än kanske inte lika ofta i resp. konkretiserade lösningar och förhoppningsvis aldrig känsligt data man inhämtar eller statistiskt spekulerar om.


Även om jag givetvis kunde ha uttryckt detta trivialiserat och utanför vad det egentligen bygger från stödet till NSA direkt tror jag att det var korrektare att göra det efter att givet en del perspektiv och kompletterande kontextuell-information:


Tre abstrakta mer allmänna perspektiv som söker att komplettera de alltid upprepade idéerna om behov och risker (oavsett resp. riktning mot eller till ex. NSA):


1. Verizon - I billing samlas imperiets och kundernas alla värden: Från SSL certifikat till call records
Det handlar inte bara om att följa aktiviteten relaterat vad som sker ej särskilt riktat själva dom aktörer deltagande i samarbetet. Utan också att dessa representerar numera tämligen stora och mätbara risker för samhället övergripande man mer effektivt bör kunna hantera genom att byta data med varandra. Självorganisation för sådant har inte alls just uttrycks annat än för sådant mer baserat enskilda personer och längre ifrån vad indikerat här. Inlägg ger ett potentiellt perspektiv och också om jag inte alls kan bedöma det för Verizon rörande praktisk risk på vilken nivå gäller att jag allmänt tror det vanligen är möjligt för de flesta tele-operatörer även om det mycket möjligt (hoppas jag) normalt detekteras via "filterande" och "inkappslande" system runt om diverse tämligen i sig själv föga säkerhetsmässigt särskilt stabila system och protokoll.


2. NSA kan ge Dagens Nyheter rätt kunskap för att lyfta koncernen till fornstora dagar
Att sätta i relation till att informationen nyheterna bygger på genomgående upplevdes ha blivit känt nu och tycks för mig inte bara för att (vanligen för dessa tidningsaktörer på helt korrekt nivå och sunt) stimulera läsarintresse genom tydliggöra dimensioner av nytt.


3. NSA: Kreativt perspektiv III
Perspektiv via exempel från något väldigt annorlunda - den viktorianska tidens utveckling av hierarkiska samhällssystem - som ingång till frågorna om över-tiden praktisk möjlig energieffektiv hantering av övervakning såväl som demokratiskt fungerande kontroll med förståelse och kompetens både för riskerna övervakningen sig egentligen kan medföra och verksamhet påverkande det liksom behoven och riskerna man söker minimera.



4. Att bedöma och mäta verksamhetssystemen
I dessa inlägg ej direkt refererande nyhetshändelsen men i mycket nära relaterat berörs en del av frågeställningarna särskilt rörande mätbarheten och möjligheten att bedöma dessa lösningar rörande värde och risk. De ska absolut inte ses som en komplett genomgång eller konkretiserade förslag utan snarast indikerande några aktuella områden jag tycker uttrycks dåligt.


Det säkra angreppet säkrat?
Abstrakta dimensioner för övergripande större organisation att bedöma informationssäkerhet relativt offensiva och defensiva mål givet större uppgift
Mysql lär inte av lösenords-historien - Allmän-regel : Ta ingenting för givet vi ej tittat till själva och lita inte på någon
Dagens citat: "South Park - Gnomes" förklarar rätt mind-set för att nå datakvalitet resp. människans farliga bias att lita på "100 % träffar" under längre tid trots enorm komplexitet i inverkande faktorer ej bedömda


Ingenting i inlägget nedan är relaterat detta direkt eller indirekt men eftersom jag nu ändå lade till viss oerhört spekulativ och föga sannolikt korrekt kontextuell information (jag principiellt trots att jag är mycket slavisk med det genomgående här ser som nödvändig) tar jag med det för att utelämnandet i sig inte ska leda till felaktiga och överdrivna slutsatser:


Från ljud, över ord och ngram, till gömda lager och slutligen i kartor


D.v.s. ej som aktuella amerikanska myndigheter bara antagande att folk läser allt och om de alls läser något inte tolkar det som enormt nytt ej givet tidigare trots berört av och till under flera år.


Och för referenser diverse dokument m.m. de publicerat genom åren titta bakåt här och på Seotaktik.com där jag av och till intresserat mig lätt kanske mest när jag tycker att lösningarna verkar problematiska från någon teknisk-aspekt (vilket normalt är den diskussion man söker genom att göra sådan här information tillgänglig). Det samma gäller tror jag aktuella NIST-projekt.


Komplettering: Det är upplever jag en större osäkerhetsfaktor att som jag precis uppmärksammade i | Reuters () att General Alexander planerar att pensionera sig under nästa år. Oavsett dom här och andra mer kontrovesiella frågor tycks ju verksamheten under hela hans tid där nu och relaterat varit väldefinierad i vad man gör relativt problemet med tycks för mig tänkande infrastruktur mer planerande långsamt riktat kanske närmare hoten och vad man vill skydd än att nödvändigtvis i den hamna där man bygger in logiken av hur skyddsmekanismen ska realiseras problematiskt hårt (ex. om man behöver höja eller minska övervakning som funktion av hot, värde och den grupp av frågor vi mindre exakt men lätt begripligt kan kalla privacy.


Värdet som naturligt lätt för oss utanför organisationen konvergerar till association de personer vi ser kan också uttryckas av att det är lätt att uppleva att åtminstone i kompetensområde organisationer jämförbara presterat av och till riktigt dåligt på sådant sätt inte helt trivialt att dölja för omvärlden oavsett hur gärna man kanske vill lokalt och i mer övergripande management (oavsett nu general eller någon civil motsvarighet enligt nu relevant beteckning i resp. subkultur.


Förändring av sådant här behöver inte alltid bli bra eller dåligt men kan gå båda hållen. Det är lätt att det associeras frågor praktiskt utan konkret mening givet den här perioden eller annat praktiskt men symboliskt för koncept mer relaterade samarbetskanaler till andra organisationer, så väl som motsvarande mer abstrakt-politiskt.


Det finns också ett värde i tydlighet för hur G. Alexander klarar av att kommunicera lösning till uppgifterna de politiskt får. Dom mlitära organisationerna kan tror jag i de flesta länderna vara väldigt duktiga på det i språkliga yta bärande alla tecken av exakthet och tydlighet men praktiskt bärande det kompetensmässigt eller i effektivitet totala katastrofer långt ifrån alltid enkel att mäta och detektera från finansiella kontroll-punkter politiskt. Det tycks emellertid för mig att vi i G. Alexander hade mer än kunnande område o.s.v. att själv se tillämpningen följande det över tiden också närmare lösningarna och kanske delvis - gissande en hel del givetvis - just vara korrektare tydlig.


Något mer att omplettera med är tror jag också bra för att sätta perspektiv på det hela utanför själva intensiteten i data relativt hårdvara rent algoritm-mässigt. Just person to person kontakt hör ju till de områden studerade och publicerade tämligen tidigt i forskning relativt mycket annat jämfört med vad motsvarande står idag (och jämfört ex. krytpografi där mycket mer skett dom senaste tio åren). En orsak att vi såg mycket motsvarande nivå publicerad forskning idag rörande modeller o.s.v. under ex. 1960-talet tror jag var att man då hade väldigt begränsade "data-resurser".


En konsekvens blev att man analyserade mindre populationer av kommunicerande personer. Liksom väntande på data-timmar för hålkorten läggande mer uttryckande energi på matematiska koncept. Idag har vi hårdvaran men inriktning forskning har hamnat mycket närmare praktiska tillämpningar snarare än idag ganska välförstådda sociolia samband i små till medelstora grupper. Därmed gäller att - därför att skalningen för sådant här är inte linjär med antal personer utan exponentiell - att en väsentlig del av praktiskt funktionellt värde ligger i modell-koncept motsvarande publicerade och utvecklande för ganska länge sedan. Det är den kostnadsnivå som ligger i det praktiskt funktionella idag för att t.ex. titta på interaktion på Facebook eller Twitter.


Vill vi borra djupare finns mycket mer potentare så klart samtidigt gäller ju att sådant borrande i värde också måste vägas mot värde och kostnad att istället göra det med en människa. Och just organisationen DoD har väldigt många människor i grovt-head-count och det gäller också DHS.


Kärningspunkten kommer ner till vad som kan detekteras som tillräckligt trovärdig träff förtjänande människa där också en viss ökning av automatiserat värde i analys kanske där inte orkar till att göra praktiskt skillnad för vad som hanteras manuellt. Särskilt givet dom realiserade worst-case risk-scenarierna USA plågats av särskilt i 11 september.


Om mer manuellt innebär i verklighet större eller mindre problem relaterat privacy är en komplicerad fråga. Jag tror dock att de flesta naturligt finner det lugnande därför att det känns begränsat och varande kanske upplevt mindre fel-uppfattande och ej skickande runt data hit och dit.


Samtidigt är samarbete för organisationer med många personer en gigantisk utmaning i säkerhet likt ingenting annat. Både exploderande alla för människor välkända säkerhetsproblem och krävande stöd i IT-system. På åtminstone några års sikt tror jag verkligen att det är att betvivla att inte uttryck för politiska prioriteringar privacy såväl som kontra-spionage gör att man ser värde i att definiera vad man kan i IT-system. De är ju idag är korrekt dåligt rykte efter alla säkerhetsproblem de kommer med men i mycket är det relaterat dålig inköpande styrning och att ha sett behovet och möjligheten att definiera återanvändbara infrastruktur-associerade säkerhetskomponenter också verksamhetsanpassat utvecklade på mer än de mer basala nivåer oroande många tycks kämpa med idag redan nere på router eller brandväggsnivå medan applikationslager, människor humpande runt skrivande i interface, databaskopplingar i 99-lager eller värre från webbserver ner till tusen-system den pratar med som aggregerat en eller flera databaser, katalogtjänster med antaganden om identiteter m.m. tråkigt nog idag varken i sig själva vettigt kostnadseffektivt kan hantera sin säkerhet mer än de rena trivialiteter (som dessbättre ännu räcker väldigt långt praktiskt) utan just behöver anpassade kappslande lösningar som ger dem rena kanaler för kommunikation och skyddar data in och ut såväl som håller kontroll på oroande tecken på felaktig användning även om i affärslogiken.


Ingenting lätt eller snabbt finns att hitta för att leverera det. Och på många sätt lider vi idag av många års underligt effektiva kampanjer om säkerhetslösningar både dyra och ineffektiva uttryckande dessutom för många feltolkat lösning på helt andra saker än de någonsin presterat. Antivirus-industrin är ett affärssegment jag menar praktiskt gjort större skada än de någonsin kommit i närheten av att leverera. Föga om något har relativt värde vi har på datorerna i hemmet idag förändras för Microsoft Windows lösning trots att antivirus-leverantörerna arbetat med sina lösningssegment snart i evigheter, och dessutom givits "gigantisk" access nära operativ-systemet via api:er och ofta tar än mer kontroll över datorn än på något sätt säkerhetsmässigt sunt och ännu mindre praktiskt fungerande när det kommer till prestanda och upplevd funktion hos windows. I princip små dåligt kodade slöa herustik-lösningar so tar ner windows i nivå med för åtta år sedan normaliserat hårdvaran vi har idag. Och ännu inte klarar att prestera på vettig nivå. Orsaken är att affärslösningen är det ständiga hotet och kravet på att betala regelbundet mot uppdateringarna. Det fodrar just att man fortsatt arbetar med det föråldrade koncept ej bättre presterande än det någonsin gjort tidigare om än fortfarande trots fler mönster att kotnrollera nästan eller ungefär orkat med att prestera på samma nivå i relativ skada dator-prestanda tack-vare-hårdvau-utvecklingen.


Ingenting i tor-företag strategi inom IT gör mig mer förundrad än att Microsoft hellre än att sätta fler av dom vettigare lösningar dom adderat dom senare faktiskt öppnat upp mer av OS såväl som OS-relaterad infrastruktur mot dessa leverantörer. Självklart har ingen av dem så vitt jag vet använt det använar-snällt besparande datorn cpu-timmar utan tvärtom tagit allt där och så ändå kleggat sig emellan allt de kommer åt accepterat eller inte.


För några månader sedan installerade jag på försök ZoneAlarm på min bärbara-dator körande en Windows. Jag klickade i allt givet indikerande att jag inte önskade något överhuvudtaget manipulerat i övrigt. Verifierade att det skulle vara funktionellt i den information given av Cehckpoint.


Trots det nästa gång jag från min andra dator körande linux startar upp webbläsaren har startsidan satts om via interaktionen till Google till en riktigt relativ Gogle.com meningslös söktjänst för internet ZoneAlarm antagligen inte på mer än maximalt en timme (och jag har gjort ett antal sökmotor över åren användande precis samma teknik) med hjälp av Google Co-op brandad med deras varumärke.


Ingenting i det förändrade särskilt mitt perspektiv på hela konsument och klient-säkerhets-branschen. Också om det är att beklaga att en förr snabb och korrekt installerad ej manipulerande odokumenterd produkt som ZoneAlarm förr var innan försäljningen nu förfallit till nivå med de vanliga big-brand antvirus-produkterna och huvudsakligen är en för komplexare angrepp ej trivialare att lösa är ett stort svart-hål man vet ingenting om vad det egentligen håller på med. jag lät den vara kvar som startsida på Linux-datorn fram till idag utan att någonsin använda den. Lugnande nog började den inte manipulera startsidan vidare för att försöka roa mig med annan marknadsföring varumärke eller produktförsäljning.


Virusföretagen är nu när management ska förändras NSA ett potentiellt problem. De var särskilt för några år sedan ganska resultativt pratande runt hela det bransch-segmentet om än upplever jag närmare DHS. Vad som krävs både för att hantera hot och privacy är emellertid motsatsen till vad de gjort i skada över åren: Bygga sunda plattformar som kan forma sig till efter system, hantera politiskt styrning och förändrade nivåer av risk eller misstanke-nivå för personer, såväl som ej kodande fast hela USA eller mer i en lösning föråldrad redan tre - fyra år senare men som likt magi ändå bara tickar på slöande ner hela internet likt antvirus-företagen på hemdatorerna.

<



Detta är en position där man måste klara att lämna organisatoriska frågor relativ relativ makt och tänka kompetens och leverera vad som beställt med förmåga att klara av att uttrycka det.


Praktiskt ser jag ett mycket större värde om man hellre behåller G. Alexander åtminstone ett par år till så att allt ny-byggt hinner köra ett tag med samma ledning givet att säkert massor av problem kommer dyka upp av och till - ibland säkert kraftigt intensivt - första åren. Därmed inte sagt att jag abstrakt delar alla övervägande i arkitektur men där gäller ju samtidigt att jag inte kan bedöma möjlighet att leverera prestanda och värde för så pass stor applikation som aktuellt riktigt, och heller i det inte avser just möjlighet långsiktigt tänkande vilket svårligen bra gick att bedöma från vad man publicerat över åren mer än att jag tycker att man av och tll antingen överabstraherat nät och applikationer (mer box- och linje nivå) eller väldigt direkt är nere och definierar på nät-nivå.

Somalia - Ett språk-klurigt land men praktiskt över-skuggad av mina befintliga intressen i andra kulturer och språk (delvis defekt inlägg)


DEFUNCT-INLÄGG: FELAKTIGT ANTAGANDE.
Indikerade först riktigt Somalia hörande till regioner jag av och till samplat men skrev sedan om antagande att det hela rörde Somalia som av och till dykt upp lite utan jag särskilt försökt betrakta regionen. Prövar på försök att hantera defekta inlägg jag inte ids skriva om men jag ändå ser någon orsak till att ha kvar på detta sätt.


Notera: Inlägget flyttat bakåt i tiden indikerande publicering några timmar innan. Detta därför att jag refererade det föregående d.v.s. nu efterföljande inlägget som det överst rörande en diskussion.


Jag borrade aldrig Sudan prioriterat men lite spekulativt tror jag hela regionen kanske med centrum närmare två närliggande länder (ej inkluderade Nord- Och Syd-Sudan i det tänket). Men egentligen inte för en så pass viktig fråga tillräckligt betraktat och ej aktuellt uppdaterande tror jag ändå givet sista gången jag borrade regionen nära-liggande att vi kan se mer av protester längre fram.


Förutom vad mer naturligt är närmare mina lösningar har jag också försökt ej automatiserat i själva plattforms-logiken lägga olika vertikala variabler oberoende när indikerade i forskning eller erfarenhet som intressanta bl.a. för avstämmande åt båda håller kontrollerande lösningarna. I särklass längst ifrån allt annat tänk är temperatur, väder och vind. Närmare reward-dimensionerna i Symbol mind delen - d.v.s. associerat värde till symbol-koncept i deras relationer andra - ligger lite i alla fall matpriserna jag mer vid diskreta punkter sökt stämma av lite för ett fåtal entiteter (alla delar av större helheten Kina sedan det indikerades som upplevde jag då och nu som överuttryckt och övertolkat betydelsefull bl.a. för förändring och protester vi såg särskilt 2011 i Arabvärlden men föregripande pris på mat längre tilblaka åren fram till start men troligt ändå delvis antagligen inte otroligt inverkande mer allmänt för public unrest).


Och som allra första vertikala luftföroreningarnas inverkan relaterat bl.a. impulskontroll. Vad dokumenterat över åren av särskilt en del av dom amerikanska universiteten både mätande i USA såväl som i Kina på barn genom åren för den kognitiva-funktionen såväl som bl.a. blodnivåer av bly ligger övergripande ungefär lika nära som matpriser konceptuellt men i den abstrakta modellen överliggande en konkretiserad nedanför och under den mjukvaru-implementationerna mer betydelsefull eftersom mycket närmare den funktionella interaktionen mellan som där en person med händelser omvärld relativt tiden d.v.s. motsvarande symbol-koncepts interaktion med andra symbol-koncept där respektives reward-dimensioner inverkar på varandra vilket är väsentligt svårare både i data att analysera (pengars värde och vad saker kostar är ju väldigt lätt att mäta men det är svårare praktiskt att söka samband för hur förändrad efterfrågan eller kostnad på ett koncept påverkar andra när vi mindre vill göra det riktande undersökande allt om en produkt utan analysera alla produkter eller aktuellt för mitt modell-system större alla symboler som förekommer i kollektivt språk vilket komprimerat minimum helst inte bör gå under 120 000 och driftsatt skarpa anpassningar i nuvarande prototyp vad som istället kommer ha lägsta komprimerade storlek på dessa representationer när prestanda maximalt prioriteras på cirka 2 000 000 koncept som skattat nu och ev. mer än så.


Förutom från skattningarna gjorde bakåt vid sista import nyheter och andra datakällor - och återigen det är vad man korrekt ska ha pågående dagligen egentligen sugande in alla nyheter publicerade för de språkområden man analyserar på och för mig endast engelska än så länge - är min känsla och begränsat av samma utmaningar jag indikerade i att som här Sudan ej ligger i fas tidsmässigt med jämförbart uppe runt Turkiet, Syrien och Iran.


Ett praktiskt råd mer allmänt för vem nu intresserad är att just väder är bra att tänka mer på än jag tror man alltid gör. Vi svenskar förstår ju sådant med vår vinter-kyla och mest tydligt närmare ekvatorn resp. runt kräftans och stenbockens vändkretsar är vädret vid fel perioder besvärande också i hetta. Nu minns jag ej riktigt hur t.ex. Libyen låg och följde vad jag minns aldrig dom faktorerna för det. Men jag gissar att tittar man igenom nyheterna från den perioden och kontrollerar datum såväl som klädsel på dom fotograferade är det nog troligt indikerat en period av svalare väder.


Det moraliskt imperativa i aktuella organisationer i Sudan är jag heller ej särskilt uppdaterad på eller någon gång tittat djupare på. Givet vad vi säkert alla kommit att förstå över åren saknas dock mer eller mindre ett fungerande samhälle i politisk-mening. Varken föda, infrastruktur, säkerhet eller möjlighet att uutvecklas i kunskap och komersiellt existerar på acceptabel nivå. Utan att tittat över aktuella organisationer diskuterar jag ogärna vad jag kanske kan titta efter mer kring från aktuell samplings-period. Inte minst av respekt för de många Somaliska-flyktingar i Sverige jag inte vill skulle behöva uppleva att vi svenskar tycks ge en hjälpande hand till en gruppering kanske väldigt problematiskt i bästa fall förstått som resultatet av okunskap men i värsta fall tolkande mer problematiskt.


2014 eller 2015 tror jag hur som helst lite mer på. Antagandet där är dock att intensiteten i kollektivt språk och räckvidd ej behöver normaliseras utan är ungefär som Libyen eller Syrien. Från mycket längre bak när jag tittade på Sudan och sedan Syd-Sudan - vid den tiden mycket mer manuellt - vet jag dock att samma nivå inte är att förvänta. Tvärtom ligger man mycket tydligt under.


Är saker är därför tror jag här som för Syrien att tänka också på frågor som de diskuterade i Att nära katastrofens centrum klara att skapa gemensam kultur kreativt för att långsiktigt närma sig en bättre värld. Och prioritera informationsvägarna såväl egen kärn-organisation och för etablera informationskanaler till folk-bredare. Det senare gör både för effekt och det långsiktiga värdet bättre genom att skapa utrymme för media via olika kanaler. De amerikanska projekten finansierade bl.a. av Google för billig access till internet via enkla mobila-enheter tror jag bär ett långsiktigt värde för Afrika svårslaget utanför vaccinationsprogram.


Det känns hur som helst bra att Sudan inte dök upp indikerad och att det möjligen är en sund tidig och kanske indikerande ett seriöst tänk när det gäller samarbete mellan olika grupper. Målet är ju ett samhälle fungerande och det kräver att man kan samarbeta accepterande att också andras perspektiv kan styra landet under flera år tills nästa val kommer.


Eftersom sammanförandet nya med gamla delar och introduktion mer generaliserat presentationslager för visualisering och uttryck (baserat MediaWiki och stöd ritande grafer) är jag på tämligen bra humör. Och har kanske här såväl som tidigare berättat bredare än normalt relativt djup och referenser bakåt. Det behöver inte vara bra där jag tycker att när man av och till också ganska tydligt uttrycker det föga imponerande t.ex. av samarbete bland de syriska entiteterna 2011 bör man ju själv gärna ta i mer betydelsefulla frågor med respekt för dem.


Jag tror inte att något särskilt problem givits av det här eller tidigare inlägg under förutsättning att man gärna aktivt söker kompletterande i tidigare publicerat när man upplever att något saknas eller har en känsla av att man kanske inte korrekt tolkar något mer otydligt indikerat.


Hur som helst får jag väl ta och köpa lämplig ordlista och trivial introduktion till det viktigaste språket i Somalia om jag får lust att försöka ta ut lite stickprov för att normalisera deras informations-intensitet. Minns jag rätt är aktuellt språk tråkigt nog ej väsentligt mätbart här Swahili som hag redan har en del inköpt i. Mindre turist-vänliga länder särskilt samtidigt med många flyktingar är det tråkigt nog svårare att hitta begagnade billigare böcker till Eventuellt gäller det här och tycks det ett mer komplext språk längre ifrån sådana jag redan mött avstår jag kanske om de kostar ordentligt i nödvändiga inköp. Det är ej funktionellt att för begränsade regioner givet deras enorma antal investerande mer än styckvis vettiga summor. Bokreferens är dock vanligen väldigt tidsbesparande relativt internet-tjänster när man själv gör en begränsad kontroll av hastigheter (d.v.s. identifiera och komma fram till symbol-koncept motsvarande symbol-grupper vi har goda hastighetsindikationer om från engelskans större mängd tidningar och människor där man behöver möta språket om än väldigt lite snarare än att automatiserat direkt ex. bara försöka översätta över dem - intensitet handlar ju inte primärt om mening som ju vanligen ett antal symbol-koncept finns att välja mellan men med väldigt olika uttryck av reward-dimensioner, intensitet m.m. för ett aktuellt kontext).


Gissar jag lite rätt är Somalia dessutom kanske ett av Sveriges små intresse-områden? Likt Ryssland för Finland och kanske det företag som gick samman med ett större svenskt för ett antal år sedan - men här snarast som funktion av flyktingar och mötet med den demokrati vi har som befintlig kultur här och var det engagemanget kan ta många. Minns jag rätt har vi många exil-somalier här. Övergripande för Sverige är det långsiktig möjlighet att etablera affärsrelationer med ett nytt fritt Somalia i ekonomisk-tillväxt byggande upp landet. Att också mer centralt organisera stöd är därför både moraliskt korrekt och ekonomiskt mycket troligt potent. Var det svenska intresset sedan börjar och slutar relativt flyktingar och invandrare från regionen och resterande Sverige börjar är dock inte alltid lätt att se utan att investera tid på det. Det är dock av och till en mycket görlig väg att etablera samarbeten med engagerade för aktuella kulturer i Sverige när det funktionellt är tidseffektivt och i ett sådant kontext att man funktionellt kan hantera sin säkerhet. Jag lutar dock mot att jag avstår för Somalia. Även med viss marginal kanske vi ändå närmar oss förändringar i regioner jag är mer intresserad av att kunna följa vilket också gör att jag mindre gärna vill ha Somalia löpande som fallstudie de närmaste åren. Finns förutom säkerhet befintlig god nivå i teknisk-kompetens är situationen kanske att bedöma annorlunda.


Men stort lucka till om sinnet är rent strävande efter ett sunt fungerande samhällssystem.

Från ljud, över ord och ngram, till gömda lager och slutligen i kartor

I Handbook of Graph Drawing and Visualization jag tipsade om kommer detta citat inkl. efterföljande visuellt citat:


"Recently, a completely di erent style for drawing metro maps has attracted considerable attention: the curvilinear style. Roberts et al. [RNL+11] did user studies to compare (hand-drawn) schematized maps to (hand-drawn) maps where the Metro lines are represented by Bezi er curves. Surprisingly, users were up to 50 % faster in completing certain planning tasks with the new and unfamiliar Bezi er maps rather than with schematized maps. Still, being used to schematized maps, they liked them better."

Handbook of Graph Drawing and Visualization,
Kapitel 23, Graph drawing & cartography, Wolf


En anledning till varför de ibland kommer fungera kan vi härleda till samma mekanism som gör markov-modellerna av samband över ord och fler-gram i statistiska språk-parsers effektiva såväl som i tolkning av ljud från tal till ord vidare till meningar (eller tror jag oftare när-grupp av ord).


Eller bättre uttryckt samma orsak som gör att dessa modeller är funktionella genom deras stora möjlighet att styra vilken komplexitet vi vill acceptera och något så när enkelt och funktionellt kunna beräkna hur stor "förlust" i feltolkningar vi gör.


Grundprincipen förstår vi från enklaste fallet när sannolikheten för att ord (i) verkligen betyder exakt det ord som står och när flera tolkningar menignsfulla för oss av vad det betyder den vanligaste skattas endast av sannolikheterna direkt relaterade det ordet och föregående ord-sannolikhet (eller levererad tillståndsvikt): P(ord(i) * P(ord(i-1).


Vi har nu begränsat vårt perspektiv till att anta att endast det föregående ordet ger relevant information om kontext inverkande för hur tolkningen av ord(i) ska göras.


För aktuell sorts karta gäller att transport typiskt sker från en punkt till en annan med en logisk enhet i taget utan att vi däremellan behöver göra något. Bedömande om vi med en linje kan nå rätt punkt eller en punkt kommande in på en annan linje som går vidare till rätt handlar ju just bara om tillståndet vi står på (ex. tunnelbanestation Norrmalmstorg) resp. tillståndet vi ska till (ex. T-centralen eftersom vi har en stukad fot vi inte kan gå på ens sådana små-sträckor).


Allt mellan kan vi strunta i. Och ev. möten på sådana mellan-liggande stationer anknytande andra t-banor eller samma "färg" i annan riktning behöver vi heller inte bry oss i.


För all normal tillämpning av t-bane-kartor och liknande tillför därför ingen information i övrigt normalt värde. Och kartan i exempet tror jag är ett av de mer uppenbara effektiva sätten att klara av att göra detta på utan att behöva förfalla till skriven-text eller tabellernas mindre tidseffektiva språk.


Biologiskt vet vi att aktuella neuroner relaterat rum - spatiella, kartor såväl som kunskapssamband organiserat i nätverk som ju normalt - uttrycks faktiskt spatiellt lite motsvarande lokalisering i aktuellt rum (d.v.s. rum både kopplat i mening spatiell rum och kartor såväl som mycket av den matematiska meningen tillämpat på kunskapsdomäner).


Enklaste snabbaste sättet för dessa neuroner att klara av denna konvergens är när maximal aktivitet går samlat mest "avsmalnat" - och helst med färre neuroner mellan start och slutpunkt även om jag tror att för åtminstone alla visualiseringar av aktuell typ där vi inte behöver vrida på huvudet gör det föga skillnad märkbart - d.v.s. från ett givet tillstånd solklart direkt till nästa utan att behöva bibehålla flera möjliga vägar aktiverade antingen som möjliga färdvägar eller för att ta bort en på kartan störande linje spatiellt nära-liggande vars aktivitet "spiller" över på vad vi följer vägen över.


Givetvis är konceptet också det samma som mer praktiskt konceptuellt underliggande flera av dimensionrna i Abstrakta dimensioner för övergripande större organisation att bedöma informationssäkerhet relativt offensiva och defensiva mål givet större uppgift och såväl varför KSA och liknande algoritmer behöver, konkret vettigt kan ge goda approximationer men också ibland kan hamna ordentligt fel.


också om det nog kan verka lite underligt har för mig heller aldrig någon konceptuell underliggande skillnad varit vad jag upplevt från informationssäkerheten och risk management till som här närmare modeller av människan och vårt språk relaterat agerande och förstå samband över inträffat, här och nu och kommande in i framtiden med vissa sannolikheter. Det är människan och vad vi ser likheter i allmänt handlar mycket om vår kunskapsbakgrund befintlig som ett stort enkelt lite långsammare föränderligt tillstånd och vårt behov. Är vi däremot stämplade i ett segment ex. forskare på lingvistiska enheten vid ett universitet tenderar ju självklart också det tillståndet att uttrycka en gemensam kultur vilket kanske tänkbart är en orsak till varför universiteten relativt deras stora värde för att ge kunskap levererande medarbetare levererar väldigt lite mer direkt nya applikationer,, verktyg m.m. problemlösande på nya sätt. Likhet är ju väldigt styrt den givna subkulturen för ämnesområdet snarare än att man ex. som jag ofta gjort senaste åren sökande flera områden som troligt vid universiteten upplever varandra väldigt olika för att lösa ett problem (och uttrycka ett modell-område mer vertikalt äldre mer inarbetade forskningssegment där similarity initialt handlar mycket om att försöka se hur det kan optimera eller ibland förklara hur något kan mätas, beräknas eller förstås. Tidigt för ett helt nytt sådant område behöver likheten ofta vara ganska konkret därför att man är ej helt optimerad rörande termer, hur man visualiserar, och grundkoncept som antas givna hos läsaren. När sådant är etablerat kan man lättare söka likhet i mer abstrakta funktioner. D.v.s. för att se ny användning av subkulturell kunskap är det viktigt att titta på den från ett praktiskt annorlunda område där kunskapen både troligare saknas och ej från subkulturen upptäckts.


Sådan analys motsvarande den kreativa processen rörande identifikation av likhet och en indikation om möjligt är förövrigt möjligt att implementera analys av maskinellt ex. tidigast för mig i logik-analys relaterat min större representativ av kunskaps-koncept och deras relationer (ca 100 000 till 10 000 000 koncept beroende på hur db-filen kompilerats ut relativt prestanda med från för minsta cirka om jag minns rätt 7 miljoner relationer med dem med för optimering färdigberäknade likheter för alla där givna relationer såväl som för en försvarlig andel av alla relationer mellan koncept också sannolikheten P ( koncept a givet koncept b) direkt för resp. fler-gram utan förenklade skattningar via sannolikheterna för endast orden - och jag tror starkt att en sådan samling sannolikheter är vi kanske 10 - 30 aktörer i världen som har).


Den sorts gedigna värde man kan realisera ut för väldigt mycket och utan att det annat än väldigt långsamt försämras över tiden givet riktade uppdateringar av och till (vilket praktiskt på alla sätt är enormt enklare och dessbättre krävande föga om något av de åtminstone i artighet av och till mindre korrekta operationer som krävdes av och till). Också en praktiskt predikterande kortare tid oerhört lugnande stabil bakgrund att relatera relativa förändringar i intensitet ex. mellan dagar till utan att tvingas försöka dubbel-använda sådant data från förvisso längre periodeer som en månad eller ett par år ex. för nyheter (som jag gjorde innan) men ändå både är mindre beräkningseffektivt och är vad som rekursivt i sig vinner på det datat bakom sig med en inte alls trivial skillnad i kvalitet. Dessutom utan att man behöver ödsla tid, bandbredd, och cpu på att extrahera ut relationer och koncept egentligen i sig ej indikerade som viktiga eller intressanta därför man inte gärna önskar läcka kunskaps-koncepten och deras relationer utan en så försvarlig mängd komplexitet att det praktiskt är ogörligt att härleda den ex. genom att tappa kommunikationen ut från informations-extraherande-dator när den pratar ut med annat på nätet. Totalt vad som tog ungefär 2 år att skapa även om det inte var görligt att ha det gående förtlöpande utan typiskt fyra veckor i taget.


Ett arbete som dessutom mycket konkret tycks ha förändrat hur stora delar av internet hanterar tolkning av sub-domäner i kontext av en del informations-presenterande och indexerande konsumenttjänster (vilka i bred mening stod för ungefär 10% av skarpa relationer för annars mer svårskattade genom ex. news-sampling, böcker o.s.v.). Och jag kan lugna alla läsare med att jag med min sunda cyniska personlighet utgick långt innan i tid med att en viss funktion skulle behövas redan väldigt tidigt men som ej krävdes innan i tredje varvet från slutet faktiskt nödvändig och den funktionen för att hantera att entiteter mitt system små-pratar lite med för att förstå världen börjar ljuga för den om vad de egentligen vet eller tror. Och de få det realiserades ljug dessutom anmärkningsvärt dåligt mot vad jag med min pessimistiska risk management personlighet hade räknat med (min tidiga nivå låg ungefär på att det kanske inte alls skulle vara möjligt att ta till mer än kanske 5% - antagligen redan där bland de 1000 största i världen men berörande givetvis kompletterande alla publikt tillgängliga eller vad som kan tas från enkla att nå corpus - men väldigt få problem.


Jag ska dock inte helt utesluta också om jag inte försökt bedöma det att saker kanske passerade lite mer dedikerat förbi relaterat en del aktörer därför att man kanske såg visst gemensamt värde i en annan grupp jag av och till sista åren levererat smalare anpassningar till för att möjliggöra en del mer modern text-mining-analysis för demokrati-arbete. Lugnare dock egentligen om ej så därför att dom relationerna hör till sådant jag mycket ogärna vill acceptera förtroende för att andra inte läcker. I kontext av bredare analyser nättrafik, samarbeten mellan flera större aktörer med varandra och med kompetens-stöd från regerings-relaterat och liknande.


Nå sammanförandet av de nya moduler jag utvecklat sista halvåret som ligger mycket närmare enklare att produktifiera inkluderande parsning av mening från enskild mening upp till nyhet, och en visualiserings-plattform, förutom de mer grundläggande koncepten rörande attityder, relationer, likhet m.m. mellan 10 miljoners koncept-hjärnans alla dimensioner över och mellan dessa. Att toppa min nöjdhet med att indikera ett kraftfullt värde men ändå utanför något egentligen core-värde relaterat egna koncept och modell-anpassningar i implementation (sannolikheter är ju tämligen allmänt tillämpat sedan närmare koncepten här diskuterat redan med kanske första steget under 1600-talet av Bayes9.