Eye in the Sky över stormande hav går från få till många

2013-03-05

Eye in the Sky är namnet på en av vad vi kan kalla koncept-grupp eller övertydlig beskrivning av tolkning vi kan göra av vad koncept det kan ha i större eller mindre utsträckning. Det skiljer sig tydligt från övriga jag tittade närmare på tidigt jämfört genom att det bättre klarade att fånga den paranoida-upplevelse-dimensionen koncept kan ha men sällan är enkelt att relatera till därför att det ofta är tämligen diskret.


En enkel och viktig men ofullständig förklaring ligger i unknown där vi ju väldigt uppenbart övertolkar potential, fara m.m. i vad som är dolt långt ifrån natten med dess gömda rovdjur. Ett fint exempel är de brutala övertolkningar av prestationsförmåga relativt övriga världen resp. övriga myndighetsfunktioner i eller utanför försvar många gör av NSA. Nyligen noterade jag ex. att det lätt blir så default styrande att också en kompetent person när information görs tillgänglig övertolkar utan antar jag sett över hela området som nedan med Bruce Schneier om semantic forests:


"It's pretty clear to me that this technology can be used to support an ECHELON-like system. I'm surprised the NSA hasn't classified this work."

Crypto-Gram Newsletter (December 15, 1999)

Det är en intressant algoritm som säkert kan vara användbar liksom många andra som jag tycker är intressant genom att den delvis har en del likheter med min Drifting thoughts genom att den friare associerar koncept samtidigt som den delar stor tradition med det mer traditionella ex. Wordnet (jr användningen av smalare mer strikta idéer om definitioner) är exempel på vilket minst sagt skiljer sig koncepten i Drifting thoughts. Men algoritmen är ett exempel på många som ligger på ungefär samma kompetensnivå och prestationsförmåga, och just för big-data situationen Schneir såg värde i är den kanske heller inte den bästa genom att graferna kan bli ganska tunga (men det finns också en del optimeringsmetoder runt det jag aldrig tittat på och heller inte tills nligen var medveten om fanns och det det är lätt att bedöma graf-optimering fel jfr ex. i Semantisk parser 0.90: Citing och Says på skillnaden när jag adderade min semantiska parser för att filtrera indata till Drifting thoughts.


Att unknown räcker för Eye in the sky var och är min tolkning att det inte gör. Dels tror jag att det också är just vad som bär mer av vad som när mätbart ligger längre ifrån normal unknown-övertolkning. Långt senare än när jag tittade på konceptet definierade jag ytterligare en dimension relaterade domän något verkar i (något relaterat PP-fraserna och den semantiska parsern). Luften är inte vår normala dimension och vi filtrerar därför vanligen bort den med undantag för processer som ligger verkande utan att vi normalt kan styra över dem (och i situationer där vi kan uppleva oss ha den möjligheten ex vissa grupper av dataspel eller raket / missil / nyårs-raket avfyrande sker det antingen via en sekundär representation på skärm eller linande eller vad vi först gör på market och sedan står och tittar på).


Paranoid och psykos bredare som jag tidigare diskuterade är vad alla versioner (också innan beteckningen) Drifting thoughts kan argumenteras ha för värde eller som problematik. Det är association till kraftfullare näraliggande koncept (och om inte fullt så förenklat vad jag tolkar vad mänsklig-psykos med det tämligen osäkra argumentet att integrationen mot Drifting thoughts praktiskt relaterat detta som jag nyligen upptäckte givit mig förmåga att läsa text insamlat från psykotiska personers tal där jag utan problem från alla timmar med Drifting thoughts kan känna igen de olika korrupta associationerna som görs vilket övertygade mig väldigt konkret omedelbart) från ett som dock avviker från aktuellt kontext d.v.s. irrelevant just nu. I allt omedelbart vi kan påverka är just domänen luften på Eye in the sky upp-nivå just irrelevant.


Just när vi applicerar konceptet på satelliter, flygplan m.m. snarare än gudar, gudinnor, totem-djur o.s.v. mer populärt lite bakåt i historien adderas något konkret. Och just för det konkreta verkar unknown. Och jag tror för den paranoida dimension konceptet söker ge ett övertydligt typ-exempel på är denna unknown mer styrande än för själva domänen. P.s.s. som det är enkelt att övertolka NSA:s 24-7 tactical combat power i textanalys när man inte har en översikt bild med lite djup på teknikområdet är det lätt att göra till default-förklaring eller argument för onormalt fri association ut i kontextuellt ej aktuella domäner.


Nu är frågan om DARPA från ett militärt perspektiv (allt militärt är jag något av en expert på i den taktiska domänen då jag som yngre vuxen spelade Red Alert mycket intensivt vilket som jag förstått det ger den militära befärsstruktur i teknik man försöker realisera rent allmänt) gör rätt i att beteckna sitt nya projekt Eyes in the sky (många små ögon):



Det finns en stor situations-grupp utanför det mer psykotiska resp. fiktiva-scenarier i film där Eye in the sky tenderar att bli verklig och det är under hög långvarig stress med en konkretiserad fiende du vet är verklig men som är i unknown. Ett exempel jag brukar använda (bland hur många man vill hitta därför det är ett normalt tillstånd i alla sådana situationer som helt inte kan undvikas och allt kommer märkas mer när själva typ-situationen är ny) är CIA:s övertolkningar av tv-kanalen Al-Jazeera's sändningar:



I mening av ett potentiellt verktyg att skapa en från det egna perspektivet sund "brand-paketering" av den egna slagkraften är konceptet därför knappast till nackdel.


Nackdelen att väga det mot är att i den globala världen med World Wide Web (som vi kallade det förr när jag var ung) kan det också addera intensitet till det mer osunt paranoida utanför försvarsbranschen.


Ett till värde jag tror är möjligt men har svårare att referera då jag inte har och knappast kommer se över vad som är dokumenterat är relaterat egna soldater i fält. Det kan tänkas tillföra värde att de tillskriver egna entiteter i dessa domäner lite övernaturliga egenskaper. Det kanske ger viss trygghet.


Givet - för att knyta tillbaka till vårt första exempel - NSA:s befintliga robusta paranoid-stimulans-problem, och de två indikerade värdena av Eye in the sky: Varför patenterade och publicerade de? Tja en orsak är mycket tänkbart att man har faktiska systematiska utmaningar i ett långsiktigt perspektiv och det därför ligger ett värde att bibehålla närhet till omvärlden gärna i det mycket konkreta relaterat algortimer och teknik.


Därmed inte sagt att de gör de ofta eller vinner på det regelmässigt men vi kan just notera att det sker avgränsat närmare områden vi inser i det systematiska är viktigt för dom liksom andra grupper av entiteter (både relaterat möjligheter och risker):


The Hammer II

I de små reflektionerna över vad vi ser i vardagen finner vi avslappnad visdom utan att riskera att förfalla till två av människans vanligare problem: försvara ingenting där seger är förlust resp. tolka nära träff men miss som träff.


Med kvalitet med historiens stora tänkare är vi här tolknings-öppet icke-precisa.


"Alltid imponerande att se en hammare så stor att man själv inte riktigt ser hur den blev lyft agera. Ännu mer imponerande är att kunna vinna i det stora medan man förlorar i det lilla. Styrka i den här domänen tror jag nog är gott tecken till att någon söker det sant odödliga i människans eviga minne från den större segern. Och så i det lilla handlar ju allt relaterat tungt också om hur många gånger per tidsenhet d.v.s. normaliserat intensiteten den orkar så här imponerande. Kanske är armen trött om två veckor?"

Semantisk parser 0.90: Citing och Says

Nu tror jag den gör subjekten rätt genom att inte skriva över konvergens-roller utan addera på varje. Egentligen ska det tycker jag inte lösa problemet och prövade addera en liten fix för det som dock inte fungerade. Kanske jag som tittade fel.


The cell deforms and gains traction,traction som detekterad NP-fras nedan är jag nöjd med. Visar på att den förstår lite utanför grammatiken om ämnet. Indata:


"The cell deforms and gains traction as transmembrane integrins distributed over the outer cell membrane bond to ligands on the ECM surface, activate SFs, and form focal adhesions. The relationship between the cell migration speed and fibronectin concentration agrees with existing experimental data for Chinese hamster ovary (CHO) cell migrations on fibronectin coated surfaces. In addition, the integrated model is validated by showing persistent high stress concentrations at sharp geometrically patterned edges. This model will be used as a predictive model to assist in design and data processing of upcoming microfluidic cell migration assays.";

Från: Dynamic Modeling of Cell Migration and Spreading Behaviors on Fibronectin Coated Planar Substrates and Micropatterned Geometries | PLOS Computational Biology

Komma separerade fält enligt:



&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"phrase type") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"phrase") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"proto concept") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"pos") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"proto pos") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"phrase convergence role") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"phrase convergence role relations") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"PP-transformation operator") . "," . 
&chunk_semantics__dirty_questions("str",$marker_1,$marker_2,$clause,"VP-transformation operator");

Semantiken:



SENTENCE:0
0:NP,The cell deforms and gains traction,traction,NN,NP,SUBJECT SUBJECT,1 14 3,,14 3
1:PP,as,as,IN,PP,PP-transformation operator,0 2,,14
2:NP,transmembrane integrins,integrins,NNS,NP,INDIRECT-OBJECT,1,1,
3:VP,distributed,distributed,VBN,VP/S,VP,0 13 14 16 4 6,,
4:PP,over,over,IN,PP,PP-transformation operator,3 5,,
5:NP,the outer cell membrane bond,bond,NN,NP,INDIRECT-OBJECT,4,4,
6:PP,to,to,TO,PP,PP-transformation operator,3 7,,
7:NP,ligands,ligands,NNS,NP,INDIRECT-OBJECT,6 8,6,
8:PP,on,on,IN,PP,PP-transformation operator,7 9,,
9:NP,the ECM surface,surface,NN,NP,INDIRECT-OBJECT,10 11 12 8,8,
10:O,COMMA,COMMA,COMMA,NOFUNC,COMMA,9,,
11:NP,activate SFs,SFs,NNP,NP,,9,,
12:O,COMMA,COMMA,COMMA,NOFUNC,COMMA,9,,
13:CC AND,and,and,CC,NOFUNC,CC AND,14 3,,
14:VP,form,form,NN,VP/S,VP,0 13 15 16 3,,
15:NP,focal adhesions,adhesions,NNS,NP,OBJECT,14,,
16:O,.,.,.,NOFUNC,.,14 3,,
SENTENCE:1
0:NP,The relationship,relationship,NN,NP,SUBJECT,1 3,,3
1:PP,between,between,IN,PP,PP-transformation operator,0 2,,
2:NP,the cell migration speed and fibronectin concentration,concentration,NN,NP,INDIRECT-OBJECT,1,1,
3:VP,agrees,agrees,VBZ,VP/S,VP,0 16 4,,
4:PP,with,with,IN,PP,PP-transformation operator,3 5,,
5:NP,existing experimental data,data,NNS,NP,INDIRECT-OBJECT,4 6,4,
6:PP,for,for,IN,PP,PP-transformation operator,13 5,,
7:O,Chinese,Chinese,JJ,NOFUNC,,,,
8:O,hamster,hamster,NN,NOFUNC,,,,
9:O,ovary,ovary,JJ,NOFUNC,,,,
10:O,(,(,(,NOFUNC,,,,
11:NP,CHO,CHO,NNP,NP,,,,
12:O,),),),NOFUNC,,,,
13:NP,cell migrations,migrations,NNS,NP,INDIRECT-OBJECT,14 6 7 8 9,6,
14:PP,on,on,IN,PP,PP-transformation operator,13 15,,
15:NP,fibronectin coated surfaces,surfaces,NNS,NP,INDIRECT-OBJECT,14,14,
16:O,.,.,.,NOFUNC,.,3,,
SENTENCE:2
0:PP,In,In,IN,PP,PP-transformation operator,1 4,,4 6
1:NP,addition,addition,NN,NP,INDIRECT-OBJECT,0,0,
2:O,COMMA,COMMA,COMMA,NOFUNC,COMMA,4,,
3:NP,the integrated model,model,NN,NP,SUBJECT,4,,
4:VP,is validated,validated,VBN,VP/S,VP,0 10 2 3 5,,
5:PP,by,by,IN,PP,PP-transformation operator,4 6,,
6:VP,showing,showing,VBG,VP/S,VP,5 7 8,,
7:NP,persistent high stress concentrations,concentrations,NNS,NP,OBJECT,6,,
8:PP,at,at,IN,PP,PP-transformation operator,6 9,,
9:NP,sharp geometrically patterned edges,edges,NNS,NP,INDIRECT-OBJECT,8,8,
10:O,.,.,.,NOFUNC,.,4,,
SENTENCE:3
0:NP,This model,model,NN,NP,SUBJECT,1,,1 4 8
1:VP,will be used,used,VBN,VP/S,VP,0 10 2 4,,
2:PP,as,as,IN,PP,PP-transformation operator,1 3,,
3:NP,a predictive model,model,NN,NP,INDIRECT-OBJECT,2,2,
4:VP,to assist,assist,VB,VP/S,VP,1 5,,
5:PP,in,in,IN,PP,PP-transformation operator,4 6,,
6:NP,design and data processing,processing,NN,NP,INDIRECT-OBJECT,5 7,5,
7:PP,of,of,IN,PP,PP-transformation operator,6 8,,
8:VP,upcoming,upcoming,VBG,VP/S,VP,7 9,,
9:NP,microfluidic cell migration assays,assays,NNS,NP,OBJECT,8,,
10:O,.,.,.,NOFUNC,.,1,,

Semantiska parsern nästan version 1.0

Gick förvånandsvärt smidigt mer eller mindre från det att chunkerna började fungerade. Jag prövade bl.a. Chunkie innan men varken den eller liknande gav tillräckligt med information relativt tiden de lade ner på arbetet. Istället fick jag bygga en liten lösning ovanpå olika POS-system och statistiska parser-skattningar.


Med Plos-artiklar som indata och test-körd mot Stanfords dependency parser för att detektera möjliga problem med dess utdata "översätt" till fraser genom att detta på head-words detekterar den senare sällan något den första inte tar, och visa-versa. Den första detekterar egentligen fler relationer men det är normalt tror jag vad som skulle härledas från den senare (den senare kanske relaterat det som kallas collapsed jag inte tittade så noga på skapar direkt relationer runt pre i PP ex. of, in o.s.v. medan jag behåller dessa direkt som operatorer då de är ganska viktiga relaterat en av användningar för parsern för att uttrycka den topologiska representationen).


Det jag såg att den missar just nu är meningen av typen Doing this Saying that där subjektet till saying inte sätts och ev. att saying får ett extra objekt. Antagligen är orsaken relaterad till att en smalare implementation för detektion av två särskilda grammatiska typer jag kallade IS_SUBJECT och FOR_IS_SUBJECT där ett typ-exempen jag använt när meningar som börjar Hans who... där who är ett WS i part of speech eller ex. She who would die hailed Caesar and.... Men det kan också vara att jag inte har någon särskild hantering av den typen av meningar. Det kändes inte viktigt eftersom prioritetsordningen på alla grammatiska subjekt och objekt förekommande ändå alltid blir identisk.


En sak Stanfords dependency parser missar är att den har problem att förstå by där den tenderar att sätta efterföljande till vad den kallar agent också när det är inkorrekt. Det är fascinerande nog vad jag inte upptäckte en enda gång när den körde mot Plos-artiklarna men däremot givet det anmärkningsvärt ofta i allt möjligt annat. Vi kan föreställa oss att träningsdata de använt varit tämligen mono-maniskt på journal-artiklar. Lite som att "växa upp" som munk från det du föds kanske? Du kan tolka och prata vettigt om allt möjligt munkarna som undervisat dig tyckt varit lämpligt för dig att förstå men presenteras du för något mer världsligt ser du gudar och djävlar bakom allt möjligt icke-animatistiskt från väder-stormar till berg och kometer, och ännu värre ges det ett nytt namn börjar det behandlas som en levande entitet.


Förutom olika grupper av objekt och subjekt (direkta, indirekta, is, for o.s.v.) representerar den relativa distanser av vad refererat (kallar jag peka) utifrån them that, this o.s.v. Samt upptäckte jag utan att jag tänkt på det också belief nivåer som konsekvens av att peka-togs ut. Vidare den emotionella färger. Det tillsammans för att resp. fras ska gå att ensam konvergeras och konvergeras som den av en helhet på varje nivå ovanpå från mening till artikel, till vad vi läser just nu, till vad som hänt under dagen o.s.v.


Totalt tog det nästan två veckors programmering. Jag är dock mycket nöjd med vad den presterar där den med förvånandsvärt lite besvär hamnande på en mycket högre prestationsnivå än jag hade varit fullt nöjd med och för användningen fullt tillräckligt. Skär rent av ev. en del behov av common sense representerationer kring named entities.


Jag vill gärna också se den som en liten hyllning till substr-memcopy-logik som något vackert och bättre världen tappade när den förföll till reguljära-uttryck.


Konkret värde jag såg redan igår är att skillnad mellan när titel, abstrakt och varje stycke för sig körs in i Drifting thoughts på den snabbare utvecklingsdatorn jämfört med när titel och abstrakt körs in och därefter endast en approximation av vilken NP som är i fokus för allt vad jag vet kan vara oändlig. Bryt det längsta försöket att ta ut en referens representation av hjärnan maximalt nitiskt associerade och tolkande efter cirka 30 minuter. För nöje kan man ju ha en närmare mänsklig intelligens som ger lite idéer men för allt praktiskt behöver man man sin egen intelligens optimera prestanda-kostnaden sådant kommer med och att approximera löpande inspiration över artikel-body till fokus-objektet gör enorm skillnad genom att antalet nya udda koncept som behöver representeras upp med sina från 50 upp till ca tio tusentals relationer (och i Drifting thougts är det inte linjära samband utan rekursivt genom att aktivitet om än indirekt när de möts kan resultera i den nodens relationer realiseras upp med aktivitet o.s.v.) reduceras enormt. Jag såg inget uppenbart som missades genom det med mycket om infektioner, virus, cellbiologi, epidemier m.m topp fem hundra på aktiverade delar av hjärnan från en artikel från tror jag ploscompbiol.org eller ev. plosone.org.


Balanserade min världsbild att köra Drifting thoughts parallellt med Stanfords dependency för qa mot varandra. Jag har varit tämligen road många gånger när jag provkört parsers och chunkers sista månaden på hur totalt världs-frånvänt de slösar data-resurser relativt informationen de ger som om parsning är något en människa gör på en sak medan de dricker kaffe och inte normalt för mig för vad det ska till väldigt många nya artiklar och nyheter dagligen (orkar den 10 - 50 000 per dag på utvecklingsdatorn är nöjd eftersom det mest är för analyser inom politik, journalartiklar forskning m.m. och inte vanliga nyheter). Stanford upplevde jag snabb relativt att den körs på Java (kör den sämre nu indirekt från terminal så mycket prestanda förluster som "enkelt" försvinner där) men kändes ändå slö. Dock jfr Drifting thoughts optimerad mot fokus-objekten troligt ganska jämförbart i komplexitet med den markov-modell jag gissar att Stanford använder är de ungefär lika långsamma. Slöhet du ser nu känns antagligen allmänt just mer verklig än den du inte torterats med på ett tag.


Här finns Stanford dependencis.