Kina: Död mans hand via entropi-drivna statistiska modeller som liknelse för volativ plötslig förändring

2013-03-11

En liknelse kanske funktionell för en noggrann teknokrat mellan de processor som leder fram till förvandling likt Syrien:


  • Tänk dig ett slumptalsstyrt-system bestående a en mängd sannolikhetsfunktioner.
  • För att göra det enkelt (enligt samma mekanism som får oss att namnge orkaner m.m.) att tänker vi oss att systemet är konkret och placerat av en människa (eller en grupp av människor men vi deen galna vetenskapsmannen passar bättre i en liknelse) med Död mans hand.
  • Förutom slumptalen - korrekt kryptologiskt genererade - tar systemet in information från omvärlden kanske via Bing News eller Google News. Det är parametrar antagna i den modell av världen sannolikhetsfunktionerna uttrycker en komponent av i en implementation och påverkar hur troliga olika utfall blir.
  • Några gånger per dag antas en säker mängd entropi-samlats för att ingen någonsin ska behöva känna ansvar för utfallet om de råkat gå nära utrustningen.

Desto mer indikationer av vad vi har ett exempel på här:



Ju mer reducerar långsiktiga modell-antagandena om mer lugna konvergenser till en bättre förändring. Och desto mer indata som mer brett mätt pekar på bekräftelse i försämring vilket ju alltid innebär möjlighet att katalysera och rikta till vad som kan antas leda till det bättre. Antas när den bättre av säg de tre dörrarna tycks osannolikhet under de kommande åren därför volativ förändring innebär lätt en topp i skador och också om de kognitiva och i liv kanske snabbare balanseras ska priset för infrastruktur heller inte underskattas (från risken för epidemier om ex. vattenförsörjning brister till problematik att försörja tätbefolkade delar av kustregionerna o.s.v. under som vi vet från flera länder när skadorna blivit stora tiotals år).


Att stänga en dörr givet det har den normala ibland sundare människor svårt att göra i ett ögonblick. Vi lever i mycket i en markov-värld av tillståndsövergångar. Förändring tenderar därför gärna att vara impuls i kollektiv locomotion. Det är vad vi mycket konkret kan likna med den hypotetiska lösning föreställd ovan. Vi vet att i någon punkt är dörren stängd och ögonblickets impulser når waving över större grupper - troligt p.g.a. rena tillfälligheter just i det ögonblicket men med oerhört mycket upparbetat.


När man först klarar att se verklighetens motsvarighet till vår maskin i människans natur - att förstå och acceptera dess verklighet - finns föga förnöjessamhet i det. Spontant är det lätt att uppleva att det trivialiserar oss. Vad ex. hindsight bias är ett bra ex. på investerar vi tvärtom enorma ansträngningar på att presentera förklaringar av stora händelser enkel jämförelse med hundra tusentals liknande approximerade diskreta punkter visar är felaktiga. Ett ganska och vanligt ex. är uttryck för korrelation med svaga statistiska metoder mellan prisförändringar på vissa grupper av varor och ex. revolutionen i Egypten. Mycket ger oss att det inte är predikterande i någon meningsfull betydelse: det adderar inte i närheten i exakthet det en mängd andra mätningar vi kan göra för att skatta hur trolig den typen av förändring är. Jag avstår från att diskutera det närmare då jag i dessa frågor jag haft relaterat prisförändringar lägat närmare en annan reward-dimension inte lika grundläggande som mat och ogärna utanför det och andra projekt krävande statistik relaterat ekonomi utsätter mig för datakvalitets-tortyren och allt andra småplågor och därför inte vill riskera att uppmuntra mig till att titta för djupt på vad jag redan vet är en av många saker.


Just därför också att jag inte säger att det inte inverkar. Det är en av många saker men ingen ska tro att det är en avgörande faktor vi kommer i närheten av se verkande säkerställt. Dock såklart en väldigt rationell och enkel förklaring vi alla kan relatera till. Blir vi hungriga (eller glömde snuset hemma innan den 20 timmar långa tågresan) blir vi sura och om det håller på länge kan vi i alla fall föreställa oss att många kanske blir jätte-arga. Det skadar heller kanske inte att folk köper denna typ av förklaringar. Värdet i att se det i det andra perspektivet och acceptera trivialiseringen av det mänskliga är inte lätt och åtminstone just denna förklaring kanske rent av kan uppmuntra till att dela brödet med dom som behöver det. Den intresserade kan dock läsa mer i resp. via:



Faktor två som gör detta mindre tilltalande akut är att det inte dröjer länge för i alla fall någon med en bakgrund i säkerhetsfilosofi att inse att vi nog har en risk management aspekt inte otroligt större än man också med viss allmänbildning relaterat media, propaganda m.m. skulle ha svårt att föreställa sig. D.v.s. ser vi att den goda dörren är stängd kan vi tänka oss att vår mekanismen aktiverar funktionalitet - kanske människor ev. mjukvaru-agenter eller mindre troligt tränade sångfåglar som sjunger surt utanför dom tomma brödbutikerna för att spä på ilskan.


Också vår liknelse här måste vi acceptera som möjlig realitet och nu där vi håller ex. relaterat diverse forskning kring matpriserna blir det mer problematiskt hur man sunt kan skatta möjlighet d.v.s. få mätetalen så att risken kan skattas. Vad en del kan ha noterat bl.a. här av och till senaste åren då jag eg. inte uteslutet denna blogg och Pryltrend från en del mindre försök relaterat information i distansiering utan ögonblickets intensitet för att få någon form av ungefärlig bild av den praktiska domänen runt signal och respons har jag experimenterat en del. I dess helhet moraliskt korrekt bedömer jag och också när ingen egentligen accepterad negativ moraliskt aspekt funnits har jag alltid försökt varit noga att lägga ett konkret värde i informationen jag fört över för att mäta respons via. Just här har det väl nästan helt handlat om långsiktiga kedjor där det handlar mer om år än enstaka saker.


I mycket är vad jag lärt lugnande. Vad vi i bredare mening kan kalla Hindsight-bias-människan är en stabil barriär hindrande faustiska riskabla intressen i den svarta magin. På samma sätt som detta område delvis trivialiseras människan gör det också människan i en sannare kollektiv mening till något större och det är inte helt lätt att styra oss.

Vi ska dessutom känna trygghet i att det lilla från historien vi faktiskt med viss trovärdighet kan bedöma är konvergens mot en bättre värld i "genomsnittlig riktning" ganska stabil och som tycks gå lite snabbare över tiden allt eftersom kommunikation och informationsmängden som rör sig ökar (grovt förenklat: mer kunskap och mer impulser tillsammans med fler möjligheter till impulsivitet nu byggd av mer vetande).


Likväl för en osund entitet redan på väg mot fel dörr går det att öka hastigheten. Att trovärdighet söka skatta det i magnitud vet jag inte säkert egentligen går med någon statistiskt sund metod. Populationen av entiteter som Kina, tidigare Libyen, Syrien och kanske 2015 Kuba är inte enorm, och mängden faktorer som inverkar går ej att kontrollera. Vi kan inte ett lugnt laboratorium göra 200 försök i 10 oberoende populationer att stimulera demokrati medan vi utesluter alla kända övriga faktorer som kan inverka.


En tror jag sund balans jag nått i min sätt att relatera till det är att jag huvudsakligen delar vetande men är alltid mycket försiktig med ett fåtal områden. Visst att det ibland kan missbrukas men värdet av det i den andra riktningen både i skyddande bemärkelse och för att ge möjlighet för att människor som lever under förtryck att kanske något lite lättare röra sig framåt bedömer jag väsentligt större. Att mänskligheten faktiskt konvergerar rätt genom historien känner jag talar starkt för det. Vad som kan ge obalans är om fienden lättare tar upp informationen. För att inte riskera negativa känslor kring emotionella upplevda fall av det riktiga eller oriktiga har jag därför tenderat i refererade försök (och via ett antal andra metodområden) riktat kunskapen ganska brett mot några intressanta positiva grupper av entiteter. Demokratiorganisationer och media är två exempel som ev. framgår från försöken egentligen avslutade augusti 2011 här på Nyhetsbloggen.


Mitt budskap till den "nya" kinesiska ledningen är därför att visualisera denna lilla maskin som ingenting av "smarta" dipolomatiska vandringar fram och tillbaka kring Nordkorea, internationell handel m.m. påverkar ett dyft. Varje dag några gånger genereras slumptalen och sannolikheten för go är antingen större eller mindre, och förr-eller-senare brinner det om man inte väljer rätt dörr istället. Så enkelt är det. Och det är jag trygg i sanning också utan en konkret fallstudie på revolution och informationen innan. Gör något bra av 2013. Inititera positiva förändringar, säkerställ lite kapital för egendel för att lugna den egna organisationen o.s.v. så kanske världen slipper ett blodbad ingen kommer vinna något på akut men som bara en sida oavsett hur många gånger det återkommer i rekursion kan förlora (det kan vi vara trygga i därför inte ett ända fall i historien där det slutat på annat sätt går att se). Ta och avsluta den där diktaturen nu i lugn takt och få ut något av det så slipper ni och resten av världen en massa bråk.



Troende kan föredra att föreställa sig gudinnans hand hellre än vad mänskligheten via vårt kollektiva språk - döda mäns händer såväl som levande människor - gör till mer än individerna. Själv även om jag gillar Gudinnan som koncept föredrar viss security-in-the-deep tror att båda som ex. kan fungera bra varierat.

Chunk parser: Fras-relationer för grammatisk- och semantisk information

Speech and Language Processing är en excellent referens till mer än relaterat tolka tal, och har praktiskt i området statistical language processing oftare varit till nytta än Foundations of Statistical Natural Language Processing (ändå vad jag använder oftare än mycket annat och ett komplement kring en del) skriven av Dan Jurafsky's kollega Mannings. Den första ger en seriös och användbar introduktion till chunking medan det kanske är lite förvånande att den senare föga berör det och kanske lite negativt givet dess större användningsområden kring mycket relaterat praktisk problemlösning kring så mycket (regelbundet återkommande område man kanske glömmer är portning av data eller gamla register där meta-information saknas men också data mining.


Eftersom jag är svensk född i kyla och överlevande snö är balans viktigt. Berömmer man en entitet för mycket kan de bli upphetsade och springa i dörrar och släppa ut värmen eller överäta av förråden. Jag införde därför lite "träd-rekursion" i min semantiska chunk-parser där ju:


"The primary limitation placed on these chunk rules [Egentligen refererar han till en särskild sorts chunkers men det struntar vi i.] is that they cannot contain any recursion; the right-hand side of the rule cannot reference directly or indirectly the category that the rule is designed to capture."

Vi fortsätter nu Chunk parsers presterar på nivå med människa för meningar utvalda för att vara väldigt svåra för dem och tittar hur vi tar ut argument 1 till resp. verb i exempel meningen från hennes artikel som analyserade chunkers.


För ett parse-träd när vi ska tolka det för att ta ut en given sorts information existerar en korrekt väg givet trädet och givet när så är viktigt ev. statistiskt-modell för att välja nära flera val finns. Givet det går det naturligtvis utmärkt att representera platt tillsammans med programmatiskt logik. Jämfört med min representation av människans kunskaps-koncept (Blue light) al'a som mest slösaktigt uppställd 1 000 000 koncept och tiotals miljoner numera relationer är det i mycket mindre utsträckning möjligt. Man vinner på att extrahera och representera information på sådant sätt att vetskap bevaras i strukturen på ett sätt lättare att nå. När vi hanterar enskilda meningar, stycken o.s.v. skadar inte lite logik i programmen särskilt som de tenderar att bli snabbare av mindre rekursion, tillståndstabeller m.m.


För situationen att ett verb på en mer undanskuffad plats i vårt "parse-träd" inte har direkt möjligt att begripa vilket dess subjekt är behöver det ju hämta fram den verb-fras (resp. en del annat möjligt) som uttrycker dess relation till det. Det var vad Martha såg som det viktigaste värdet med vanliga parsers (vilket givetvis stämmer för flexibilitet om och när man kan eller vill betala med prestandan relativt mängden kod). Just för att lösa problematiken i ex. meningen är det dock egentligen inte särskilt mycket givet att man kan relatera chunks (och som här eg. inte explicit som named relations vilket ju heller inte är default för Blue light heller). Nedan är hela koden för det undantaget en rad med "return -1":


Klicka på bilderna för att se bättre

Hittas "ovanför" i kodlogiken inte ett subjekt som stämmer med S-id-numret anropas denna och om något kommer tillbaka större än -1 undersöks det. Och något kommer ut. Nedan första argumenten till verben i tidigare refererad ex. mening ("Big investment banks refused to step up to the plate to support the beleaguered floor traders by buying big blocks of stock, traders say."):



Övriga argument (och argument i ungefär samma mening som i Marthas excellenta SemLink vars nytta blev enkelt verklig mer än Verbnet när jag upptäckte att Verbnet som sparar ned tid att få samman dem finns.) är avstängda eftersom jag testade den nya och mycket snabbare kod-versionen för att hämta just verb-relationer till verb på subjekt.


Utan denna eller en liknande kontroll (den jag använde innan långsammare med också funktionell utan "1-dimensionella parsnings-träd" kanske vi ex. får problem med the plate. Är det ev. subjekt till VB direkt efter (nummer 6 i bilderna):



Ett alternativt sätt men med fler loopar och kontroller - och långsammare - är att promenera bakåt från verbet och titta vad som relaterar till det innan, och skapa en kedja tills vi når vad vi är säker på är översta verbfrasen. Inte mer komplicerad logik än chunkers, och kanske rent av enklare eftersom det bara är fraser. Vanligen är det tror jag ofta precis som i ex. meningen diverse PP-operatorer efter varandra och före och efter aktuellt verb som ställer till det men dom är ju bland det enklare att vandra över utan särskilt mycket logik och där mer logik krävs kan ju den mer ambitiösa använda logik representerad i kunskap i form av datastrukturer människan självorganiserat åt oss att skörda (ex. Verbnet m.m.) eller tror jag oftare för just sådant här egentligen mindre omtalade men nog så stora The Specialist Lexicon (U.S. National Library of Medicine, National Institutes of Health) där vi hittar en hel del "avslutande" om verb (och verb:et innan avslutar ju med vad vi har mellan det och verb:et efter.


Nedan ex. på verb complement från The Specialist. Till höger syns en bit av katalogen där det datat är strukturerat jag lät vara kvar med diverse andra verb-datakällor markerade med pilar (och kataloger med data möjligen - högst osäkert eg. - nedsparat samtidigt med en liten bugg i min spindels tolkning av webbplats-direktiv kring sådant om nu det alls var något aktuellt den tiden i ett av fallen och där ett större "bibliotek" / "institution" från europeiska kontinenten resp. ett antal parsers och liknande jag testade men inte tycker är något att rekommendera vara slöare ungefär mycket annat som ger mer information eller hade andra problem).


Skapad med Gimp och Google Docs i konstnärlig händelse och skapelse för att mer än illustrera verb dokumentera åren bakåt och säkert fortsatt länge där diverse arbetsmoment sker med applikationer på webben enklare på vissa sätt och med vanliga applikationer därför att vissa moment tycks de första aldrig få till ex. relevant här skärmdump som auto-sparas i min hemkatalog med min Linux-fix för funktionen.

Slutligen var det rekursionen - och för korrekthet rekursion i skriven pre-kompilator-mening mer än abstrakt koncept - har vi det nedan (första halvan av koden hade vi egentligen kunnat skriva på tre rader men den ska tas över mer eller mindre exakt till annat och har värde så här ett tag för att se om den har sönder saker märkbart istället för att kanske missas onödigt länge med underliga problem svårare att hitta ovanför). Rekursionen är att vi anropar samma funktion med det nya verbet vi fick från koden i en av de första bilderna.



Det tycks mycket troligt att jag plockar bort rekursionen. Jag är en starkt troende på att rekursion, grafer (snarare än ex. de säkrare hashtabellerna) särskilt skapat flexibelt med pekare (instabilt och farligt) eller ännu värre enkelt (blir stort och slött utan att det märks) är som koncept på universiteten (jag var som ung och mindre skadad av verkligheten involverad i labbarna runt Algoritmer och Datastrukturer, Uppsala Universitet kanske 1998 tror jag medan jag var student på Teknisk fysik för att vara studenterna på kursen behjälplig m.m. och rätta dem senare men visste inte bättre) ett exempel på dispergens mellan de datormiljöer, utmaningar och intellektuella resurser typiska för arbetslivet. Elegansen är ju ett värde i sig som bedöms gällan algoritmer medan stabiliteten i den faktiska implementationen några mätningar görs från betyder föga. Hade prioritet istället lagts på stabilitet och kvalitet tycks inte otroligt att både en försvarlig-andel av säkerhetsproblemen liksom de ofattbart dåligt optimerade program som år efter år suger upp all extra prestanda man får med ny dator (ex. Windows XP jag nyligen kom på att sortera en tabell så att det gjords faktiskt visuellt: nästan så snabbt att man inte märkte det ens under last men likväl systematiskt vad som kostar och för åtta år sedan hade datorn jag hade för nöjes-surfande inte orkat det utan att det direkt stört: helt otroligt. Inte självklart att problemet just har med XP att göra. Det mesta man installerat och avinstallerat tycks ju ha dll eller vad det numera kallas kvar registrerade såväl som oregistrerade).

Chunk parsers presterar på nivå med människa för meningar utvalda för att vara väldigt svåra för dem

Martha Palmer Verbnet och Probank hör till de mest användbara datastrukturerna för semantisk-tolkning av text närmare mer praktiska tillämpningar där prestanda är vad som ger möjlighet att göra fler och djupare kontroller på mer data genom att spara tid på mindre mer kompakta statistiska-motorer och ännu den tid man ev. annars själv hade lagt på det. Artiklar publicerade länkade från Martha Palmer (uppdaterad fram till 2011) tenderar också oftare än kanske vanligare ligga närmare praktiska tillämpningar (kanske något finansierat samarbete som inspirerat) och därför värt att titta till ibland.


Chunk parsers är praktiska verktyg och det var därför med visst glatt intresse jag prövade meningen hon gav som exempel i en sammantaget ganska negativ tolkning av chunk parsers:


"[...] it would be difficult to imagine identifying it without building a complete syntactic parse of the sentence. [...]
The prepositional phrase expressing the Manner relation, however, is not identified by the chunk-based system. The tree-based system's path features for this constituent is VB ARROW_UP VP ARROW_DOWN PP, which identifies the prepositional phrase as attaching to the verb, and increases its probability of being assigned an argument label."

Från: The Necessity of Parsing for Predicate Argument Recognition,
Daniel Gildea och Martha Palmer,
University of Pennsylvania,
Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), Philadelphia, July 2002, pp. 239-246.

Och allmänt har visst Martha Palmer rätt även om nu informationsextraktion och annan praktisk användning ofta ger andra konkreta värden. Snabba och ofta tillräckligt stabila allmänt, och viktigare för riktad informationsextraktion presterar de bättre än generaliserad parser utan annan anpassning. Men man ska inte underskatta deras värde annars eller. Betänker vi ex. ett träd är det en komplexitet vi t.ex. också kan uttrycka med den typ av implicita flödesrelationer i grafer jag tog som exempel i Semantiska parsern nästan version 1.0.


"Konkret värde jag såg redan igår är att skillnad mellan när titel, abstrakt och varje stycke för sig körs in i Drifting thoughts på den snabbare utvecklingsdatorn jämfört med när titel och abstrakt körs in och därefter endast en approximation av vilken NP som är i fokus för allt vad jag vet kan vara oändlig. Bryt det längsta försöket att ta ut en referens representation av hjärnan maximalt nitiskt associerade och tolkande efter cirka 30 minuter. För nöje kan man ju ha en närmare mänsklig intelligens som ger lite idéer men för allt praktiskt behöver man man sin egen intelligens optimera prestanda-kostnaden sådant kommer med och att approximera löpande inspiration över artikel-body till fokus-objektet gör enorm skillnad genom att antalet nya udda koncept som behöver representeras upp med sina från 50 upp till ca tio tusentals relationer (och i Drifting thougts är det inte linjära samband utan rekursivt genom att aktivitet om än indirekt när de möts kan resultera i den nodens relationer realiseras upp med aktivitet o.s.v.) reduceras enormt. Jag såg inget uppenbart som missades genom det med mycket om infektioner, virus, cellbiologi, epidemier m.m topp fem hundra på aktiverade delar av hjärnan från en artikel från tror jag ploscompbiol.org eller ev. plosone.org."

Jag såg i exemplet nedan för den semantiska parser som utvecklas för att filtrera artiklar, nyheter m.m. Drifting thoughts inte något av de problem Martha upplevde med sin chunk-parser.


Notera först den första siffran till vänster vilket approximerar motsvarande upp och ned - vad jag gjorde för att approximera kognitiv-komplexitet (som diskuterat i Neurolinguistics bl.a. kring Gibbs-parser) samtidigt som jag försökte göra just upp-och-ner i en annan funktion som aldrig bra bra. Det gäller för S-fraserna. Denna uttrycker det dock så perfekt man kan komma med utan problem en die för icke noll per mening.


För by (vad jag kallar en PP-transformator) att verben vi binder till ganska typiskt upplever jag för den typen av verb-argument ger oss en bra indikationen om den generaliserade förenklade meningen möjlig att fånga i de kanske teoretiskt mindre uppmärksammade men praktiskt bland de viktigaste arbetena inom praktisk lingvistik Verbnet, Framenet, Propbank m.fl. liknande lösningar representerar. Verb-relationerna till by: 6 VP to support VP/S och 9 VP buying VP/S (siffran till vänster där är frasens id-nummer och den som står direkt till höger om "upp-ner-räknaren").


"Manner-argumentet" man ser det i artikeln är "by buying big blocks of stock" där vi ju lokalt i den har en PP. I citatet från min semantiska parser ovanpå chunking agerar by m.m. som operatorer och den uttrycker relationer direkt enligt tidigare där ju redan där ges i alla fall en antydan om "manner": köpa aktier för att stödja något (stödköpa kanske?). Relationerna till buying (egentligen inte argument utan relationer som ej går till vad vi kan tolka som VP/S, SBAR o.s.v.)


.............................................................
S VP/S 4 9 VP buying 

STRUCTURE RELATIONS

ARUGMENTS
 10 NP big blocks NP
 8 PP by PP
.............................................................


Det samma för big blocks där vi också märker av debug-testningen av PP-completement avsedd för situationer där vi har längre kedjor som gemensamt konvergerar till mening och tolkning ex. att ett argument begränsar dimensionsrymden det andra uttrycker. Ex. in the middle of the forest (inte bara obestämt eller hela skogen utan i mitten av skogen: praktiskt för de flesta av oss ännu mer unknown). Siffran är frasens interna id-nummber NP anger bara fras-typen och ex. big blocks är chunk-frasen.


NP 0 4 10 NP big blocks


STRUCTURE RELATIONS
 9 VP buying VP/S

ARUGMENTS
 11 PP of PP
PP-COMPLETEMENT ( 10 NP big blocks ) ( 11 PP of ) ( 12 NP stock )


Och hela utskriften av körningen av exemplet från Marthas artikel. Den är som sådan anpassad för vad jag utvecklar i den (strukturerar och sorterar diverse kod medan jag sätter högnivå-primitiver men just för att illustrera detta passar den perfekt).


Notera när vi tittar före och efter by för den lilla upp-ner-räknaren. Den ligger balanserat på fyra genom hela det "human annotations" beskrivit som Manner i Marthas exempel mening jag fick för mig att jag skulle provköra innan jag tänkte försöka somna. En avvikelse från perfekt manner är för traders say vilket med upp-och-ner räknaren ligger på samma då jag just nu har comma m.m. som inte hanteras i trädet borttaget men följer man relationerna får man rätt fras manner ändå. Say är ju en gammal vän här.


Det egentligen mer intressanta för mig runt motsvarande manner är mindre dom markeringarna oavsett hur användbara de är i kontext av entiteter och vad dom gör utan mer av vad som uttrycks avseende aktuella dimensioner och hur dom begränsas via constraints - kanske vad vi kan kalla proto-whole och proto-part p.s.s. sätt som proto-agent och proto-patient. Var vi är på kartan och vad för sorts karta är det? Är kartan ett antal verktyg (t.ex. gas chromatography, t-test, litterature search m.m.) aktualiserade i texten som förklarar hur vi kan avgränsa vad vi kan förstå om vad entiteterna gjort var någonstans och med vilken säkerhet?


.............................................................

##################################################################
PHRASE STRUCTURE MAP:body_last 0
 NP 0 0 0 NP Big investment banks


STRUCTURE RELATIONS
 1 VP refused VP/S

ARUGMENTS
.............................................................
S VP/S 1 1 VP refused BOSS 

STRUCTURE RELATIONS
 2 VP to step VP/S

ARUGMENTS
 0 NP Big investment banks NP
 13 O COMMA NOFUNC
 14 NP traders NP
 15 VP say VP
 16 O . NOFUNC
.............................................................
S VP/S 2 2 VP to step 

STRUCTURE RELATIONS
 1 VP refused VP/S

ARUGMENTS
 3 PRT up PRT
 4 PP to PP
.............................................................
 PRT 0 2 3 PRT up


STRUCTURE RELATIONS
 2 VP to step VP/S

ARUGMENTS
.............................................................
 PP 0 2 4 PP to


STRUCTURE RELATIONS
 2 VP to step VP/S

ARUGMENTS
 5 NP the plate NP
.............................................................
 NP 0 2 5 NP the plate


STRUCTURE RELATIONS
 6 VP to support VP/S

ARUGMENTS
 4 PP to PP
.............................................................
S VP/S 3 6 VP to support 

STRUCTURE RELATIONS

ARUGMENTS
 5 NP the plate NP
 7 NP the beleaguered floor traders NP
 8 PP by PP
.............................................................
 NP 0 3 7 NP the beleaguered floor traders


STRUCTURE RELATIONS
 6 VP to support VP/S

ARUGMENTS
.............................................................
 PP 0 3 8 PP by


STRUCTURE RELATIONS
 6 VP to support VP/S
 9 VP buying VP/S

ARUGMENTS
.............................................................
S VP/S 4 9 VP buying 

STRUCTURE RELATIONS

ARUGMENTS
 10 NP big blocks NP
 8 PP by PP
.............................................................
 NP 0 4 10 NP big blocks


STRUCTURE RELATIONS
 9 VP buying VP/S

ARUGMENTS
 11 PP of PP
PP-COMPLETEMENT ( 10 NP big blocks ) ( 11 PP of ) ( 12 NP stock )

.............................................................
 PP 0 4 11 PP of


STRUCTURE RELATIONS

ARUGMENTS
 10 NP big blocks NP
 12 NP stock NP
.............................................................
 NP 0 4 12 NP stock


STRUCTURE RELATIONS

ARUGMENTS
 11 PP of PP
.............................................................
 NOFUNC 0 4 13 O COMMA


STRUCTURE RELATIONS
 1 VP refused VP/S

ARUGMENTS
.............................................................
 NP 0 4 14 NP traders


STRUCTURE RELATIONS
 1 VP refused VP/S

ARUGMENTS
.............................................................
 VP 0 4 15 VP say


STRUCTURE RELATIONS
 1 VP refused VP/S

ARUGMENTS
.............................................................
 NOFUNC 0 4 16 O .


STRUCTURE RELATIONS
 1 VP refused VP/S