Marxistisk ekonomi vs Marknadsekonomi: Simplex & Linjärprogrammering kontra Varians & Medelvärde

2012-08-16

För att komplettera New Scientist e-postutskick var den och ett antal linjära-metoder vad som hade väldigt stort utrymme i marxistisk-era-ekonomisk-litteratur:


"The algorithm that runs the world
[Red. In u dreams u old hippis / Hans]


Few have heard of the simplex algorithm, but it may well have determined the food you eat, your schedule at work and the train that took you there. But is its time running out?"

Vad man kallar marxistisk ekonomisk-litteratur är långt ifrån glasklart. Marxistisk-era är ofta mer korrekt där inte sällan ett värde finns i de referensverk som ansågs värda också utanför Östblocket att publicera på engelska. Sedan producerades ju sanslösa mängder skräp också på engelska man regelbundet träffar på i antikvariaten.


Ett exempel just på det här är t.ex. The Theory of Decision-Making - An Introduction to Operations Research av Wieslaw Sadowski, Pergamon Press (copyright Panst Wydawnictwo Ekonomicze, Warszawa) (1965). Redan i kapitel tre är det dags för simplex.


Simplex algoritmen passade också det marxistiska ekonomiska konceptet. Man har en siffra man har på papper ska produceras här och då behöver vi så här mycket av det här och så löser vi några linjära-ekvationer och vet att vi ska beställa 77.3 arbetare på n-antal timmar vilket vi avrundar till 78 så vet vi att vi är säkra.


Systemet fungerade också bra i delar och var den ekonomiska-matematiska-kulturen som tidigt detekterade Sovjet Unionens ekonomiska problem. När siffror inte stämmer med verkligheten senare blir väldigt tydligt.


Metoden sig har självklart inget fel och fyller viktiga funktioner lite varstans. Men konceptet som gjorde den attraktiv i de marxistiska ekonomierna faller lätt på ekonomi är mer komplicerat än man vill tro. Pengar en form av väldigt komplex samtidigt enkel reward-approximation av vad individen upplever men speglar samtidigt det kollektivt och mycket annat.


Ska man konceptuellt förenkla marknadsekonomin lika brutalt är det vad som kommer närmast att man låter konceptet självorganisera sig.


Ett viktigt undantag från självorganisationen finns i alla sunda länder och det är att man väger människovärde mot den ekonomiska självorganisationen. Människovärde och många liknande faktorer är vad vi människor också värderar och som går att kvantisiera mätbart i "reward-upplevelse". Något fascinerande har vi ett par studier där aktivitet avbildats från förra året och i år (tror jag men antagligen länkade jag dom tidigare här annars vid intresse letar jag rätt på dem i artikelarkivet) som indikerar att vi kanske har något av två "reward-poler" som delvis går in i varandra och ganska mycket men inte till 100% tycks konvertibla. Det ena kan vi förenklat beskriva med pengar och det andra med människovärde. Den gigantiska begränsningen med fmri-studier och dylikt när vi vill generalisera vidare är att tidsperspektivet och indata är väldigt avgränsat.


En annan åtminstone tänkbar dimension som kanske spelar in är tiden. Ekonomi ligger i vad som är bra funktionellt självorganiserande medan andra mer tidlösa värden vi ofta konkret mätbart i studier har svårare att uttrycka i kronor kan kräva mer eftertänksamhet och är vad som hanteras via våra politiska system nationellt och internationellt.


PS


History of Modern Non-Marxiam Economics, Antal Matyas (1980) är trots "skildrande" västerlandets ekonomi en excellent översikt över det marxistiska ekonomiska tänket. Också typiskt hamnar den snabbt i diskussion om utility av olika slag.


En bok utan den som sagt inte ovanliga fascinationen för linjära ekvationssystem och med ett fåtal undantag utan matematik är Political Economy av A.H. Walker. Den är bitvis lätt underlig. I Appendix The Mathematical Foundations of Programming är vi dock i relativa förändringar och linjära ekvationssystem.


Den marxistiska ekonomens fascination för utility och linjära-ekvationssystem får man leta länge att hitta något jämförbart med men det finns:



Om den linjära-programmeringen hade sin stora roll i Östblocket genom att upptäcka alla ekonomiska-problem när de redan var faktum torde förenklingen av volativitet ner till varians vara vad som konstant upptäcker problem och tror sig säga något om framtiden bland marknadsekonomiernas ekonomer. Det hör till det unika att något annat mått på volativitet används trots att varenda annat statistiskt område jag mött från mönsterigenkänning, neuronnät, lingvistik och språksyntes, genetiska modeller, smittspridning o.s.v. arbetar med ett flertal anpassat mot problemet man ska lösa.

Nya kulturvikter: Norge vs Sverige - Kina vs USA - Frankrike vs England och Europa & EU mot medlemsländerna

Jag blev precis klar med sista steget av Blue Light uppdateringen i och med att genereringen av Blue Light Entropy från den blev gjord. En ny approximationsmetod prövades där likhet mellan noderna under genereringen påverkar spridning av "kraft" mellan dem och att sedan den absoluta förändringen mellan epoker jämfört med den relativa i varje steg (jfr faktisk förändring relativt exakthet d.v.s. mer "relativ förändring" men mindre konkret förändring visar mindre tilltro till det faktiska värdet).

Generellt är jag mycket nöjdare än jag brukar vara med Blue Light Entropy genereringarna. Mycket sämre approximationer än jag haft på många versioner är egentligen lika funktionella men det finns ett värde att testa algoritmer som sedan anpassas till nyhetsanalysen om de är snabba och bra. Denna blev dock fascinerande bra på åtmisntone toppen vilket också beror på att symbolerna och deras relationer är mycket mer koncentrerat bra där cirka 300 000 noder i och för sig oftast riktiga men med få relationer optimerats bort tillfälligt för att göra similarity-operationerna bättre även utan vikter på noderna.

Några lätt fascinerande förändringar har vi i skillnaden mellan symbolerna United states och China.

I denna generation har China klättrat upp till position sju (47) medan vi har United states på plats 16 (2). I nära nog alla versioner har United states innan haft position 1 eller två speglande de många verksamhetssystem, standarder, politiska organisationer, ekonomiska samarbeten m.m. de är involverade i.

Vi har ett liknande fenomen när vi jämför France nu på plats 31 (34) att jämföra med England på 47 (36). Liksom för Sweden på 1092 (130) och Norway 760 (280).

Kort kan nämnas också att både nu och tidigare tenderar Europa och EU komma lågt. Orsaken ligger i att även om flera verksamhetssystem, symbol-relationer m.m. importeras (i princip gick jag över hela deras verksamhet 2010) gäller att den uttrycker länderna stort. Tittar vi utanför EU som producent av verksamhet och affär gäller dessutom att både Europa och EU är koncept som ges väldigt lite kulturellt utrymme när vi lämnar grundskolan. Tittar vi talande bland våra större Europeiska respektive Svenska tidningar har vi ex. normalt inte EU-nyheter trots enorm politiskt påverkan. Risken med det oavsett sammanhang är att vi inte upptäcker problem alla gånger i tid (jfr Dagens Nyheters fina quality assurance projekt de hjälpt flera svenska myndigheter, stiftelser m.m. där både misstag hittas och både vi läsare och myndigheternas medarbetarna i projektet fick lära oss lite om bokföring, upphandling, bedrägeri m.fl. områden svåra att göra bra utan en korrekt genomtänkt testprocess där media har en viktig roll). Det är potentiellt värde ofta dåligt realiserat i EU.

Orsaken är liksom allt i Blue Light kulturell och kulturell handlar i dom här sammanhangen inte om någon absolut sanning som individer som anser sig representera den bär och som resten av världen tar reda på från dem. Här gäller att med den nya algoritmer påverkas länder en aning tydligare rörande den relativa och absoluta variationer där kulturer som China, France och också Norway är mer entydigt ansluta till starka mer avgränsade noder därför att färre - p.g.a. inriktning mot det engelska språkområdet och mitt svenska ursprung - riktade verksamhetssystem som går djupare in i deras kulturer importeras.

Deras förändring därför att de är länder och ansluta till starka relationer blir därför mer exakt som algoritmen uppfattar det.

Det är troligt vad som behöver viktas om en aning. Inte otroligt är en viktig orsak att dynamiken som i varje steg kommer från nod A till B respektive B till A avspeglande kulturell diversity och attraktionen mellan dem relativt similarity från respektives perspektiv (jämför ungefär: hur väl ser och förstår man möjligheterna som finns att hämta) adderas medan algoritmen säger att de ska multipliceras (av debug-orsaken där jag inte föreställde mig just något märkbart och dom här skillnaderna i kontext av länder är väldigt små för en statiskt vikt med mindre betydelse för nyhetsanalysen dimensioner).

Men det är inte säkert att det kommer påverka Norge och Sverige. Att Norge relativt ökat kan bero på import av nya relationer i område business classifications d.v.s. oljeindustrin som tenderar att ta stort utrymme i dessa. Att ha diversity inom teknologi har sämre "topp-tyngd" i dom systemen så länge man (som hemmahörande i nyhetsanalysen mer) inte viktar industrierna med värde.

Jag tror dock inte att det är Norges hemmahörande i NATO som skämt ut Sverige. Ingen riktad import inom military generellt eller NATO har skett alls i år och det var redan 2011 ett av de (kanske det) mest relationstäta och i symboler största området (är det troligt fortfarande även om cirka 50 000 vapensystem med mycket få relationer filtrerades ut). Så vi behöver inte gå med i NATO för att balansera det här rätt.

Dock gjorde jag en del riktade Norge-kultur importer tidigare i år med som normalt synkroniserade Norge-entusiasm lätt i Kanada-storlek från förra året. Jag tvivel dock på att det ska påverka så här tydligt dock.

Det här med Norge kommer jag dock oavsett om det påverkas av balanseringen av vikterna på dynamiken från de båda similarity perspektiven titta närmare på. Jag har använt Norge och Sverige rörande detta i troligt cirka 10 exempel varav två större i referensböckerna.

Similarity och implicita kunskaps-relationer mellan symboler

En troligt inte särskilt intressant komplettering till de föregående inläggen förutom de som använder Warrior-plattformen och vid "flexibel-konfiguration" stött på ett lätt fascinerande teoretiskt och praktiskt problemområde. De tidigare inläggen:



Utgå från det konnektionistiska paradigmet och föreställ dig ett nät av noder motsvarande biologiska neuroner. Vi börjar mot den faktiska biologiska psykosen utifrån en förenklad modell som grov approximation av en grupp vanliga typer av psykos och går från det till situationen när jag använder det jämförbara begreppet för symbol-näten i kontext av prediktion.


Vi förenklar hela "problemområdet" dopamin i kontext av psykos genom att säga att neuronerna har ett tröskelvärde. När två neuroner avfyrar samtidigt i ett kontext där vi får bekräftelse upplever vi att de hör samman. Vi har som alltid när vi betraktar relationer mellan symboler för en människa eller i nyhetsanalysen ett perspektiv. För en individ är det viktigaste perspektivet individen själv och därför föga förvånande är väldigt många föreställningar associerade till psykos byggda runt falska uppfattade samband där symboler personen mött i motsvarande do-kontext kopplats samman med personen själv.


Att för en godtycklig situation mer än korrekt identifiera relevant kunskap också förstå perspektiv kräver ofta mer. Det handlar inte sällan om vad vi kan sammanfatta med begreppet erfarenhet. Du kan i skolan lärt dig ett antal teoretiska lösningsmetoder men att förstå hur de tillämpas kan kräva annan förståelse sammankopplad med olika situationer (ex. ekonomiska och juridiska premisser eller kunskap om befintliga lösningar).


Bekräftelse inom maskinintelligens, neuronnät, mönsterigenkänning o.s.v. diskuteras nära nog uteslutande (p.g.a. praktisk problemlösning) utifrån träningsdata. Betrakta emellertid situationen för en person vi antar har högre än normala tröskelvärden d.v.s. de avfyrar lättare än de tränats för:


  • Vi har ett kontext personen möter i vardagen.
  • Vi betraktar endast personens kontext utifrån de händelser och beskrivningar denne möter genom nyheterna.
  • Därför p.s.s. nyhetsanalysen får motsvarande ett do- och describe-kontext.
  • I personens kontext kommer ett antal symboler dyka upp under dagen.
  • Avfyrar nu neuronerna för lätt p.g.a. högre tröskelvärde upplevs samband mellan dem.
  • En mer eller mindre psykotisk person kan t.ex. uppleva samband mellan länder som förekommer i en mängd nyheter med andra symboler aktiva i dennes personliga kontext.
  • Ex. trots Finlands expertis på telefoni håller jag det för väldigt mycket troligare att det är vanligare med föreställningen av USA avlyssnar deras telefoner.
  • Inget strikt träningsdata finns nu som kan verifiera om detta är korrekt eller inte.
  • Vi inser att det också finns en risk- eller behovs-motivation som också får högre tröskelvärde än generellt pragamtiskt eller vad som ger värde.
  • D.v.s. den troligt falska korrelationen som uppstår mellan symboler rör händelser och skeenden som inte är fruktfulla eller meningsfulla.

Problematiken uppstår när vi har nuhet mellan "psykotiska samband" och faktiska företeelser där vi via nuheten predikterar de senare från de psykotiska sambanden. Hur är det möjligt i en rationell värld? Vår psykotiska person sätter fokus på starka symboler och när vi istället för en person har en maskinintelligens träffar vi av och till på avspeglingar också långt ifrån "källan".

De är i kontext av vår maskinintelligens potentiellt psykotiskt problematiska i den mån maskinintelligensen inte kan "resonera" och "förstå" hur sambandet kan existera utifrån vedertagen långsam inlärning. En person inser t.ex. samlat från sitt livsinlärning att diverse samtidig aktivitet för symboler i vardagen inte just betyder något. För maskinintelligensen gäller p.s.s. och tydligare kanske enklare att förstå också för människan om görlighet att etablera vedertagna relationer mellan symbolerna.

Vi kan identifiera symbol-par som uppvisar nuhet i den mening att vi kan prediktera den ena från den andra men om vi inte förstår relationerna är risken för att nätet blir psykotiskt hög. Detta därför att om vi inte har de vedertagna relationerna i långsam inlärning (och eller relationer via medier vi antar etablerat detta åt oss d.v.s. relationer mellan symboler i do-kontext för nyheter extraherade i nyhetsanalysen) saknar vi möjlighet:

  • Att flytta och förändra dom grupper av symboler vi använder för prediktionen.
  • När aktualitet för frågan förändras om än bara väldigt litet förstår vi inte hur vi ska förändra våra symboler.
  • Samtidigt kommer prediktionen från nyhetsanalysens data varit korrekta en viss tid och därmed om vi (förfaller till) de förenklade principerna för reinforced learning utan olika tidsperspektiv på kunskap (jämför mycket relevant för hur datatyperna skapas med: grundskola, högskola o.s.v. för referensinformationen från vilket vi tolkar och förstår vad vi läser i nyheterna, forskningsjournaler, årsredovisning för ett företag o.s.v. respektive ögonblickets mycket snabba reaktioner för enskilda entiteter ex. Vita husets pressinformation eller analys av grupper av personer på sociala media o.s.v.) har vi förstärkt ett i och för sig samband vars korrekt är mätbart utifrån prediktionen men som vi inte förstår.

För den ej aktualiserad med olika similarity-koncept kan vi jämföra med korrelationen utifrån samtidig aktivitet som typisk för en grupp av sådana mått. Mer statisk kunskap vi en gång för alla lärt oss är mindre påverkad av sådan och är vad vi kan betrakta som resultatet av upprepad sådan similarity. I det senare fallet är en metodgrupp att titta på vilka statiska inlärningar symbolen eller i hjärnan neuronen har relationer med som uttrycker större närhet (d.v.s. motsvarande att dendrit-träden växt närmare en annan neuron eller viktigare mer jämförbart här att vi kan uttrycka konvergens inkluderade flera grupper av neuroner via motsvarande "kategori-neuroner" över annars större avstånd än lokal dopamin-aktivitet kan uttrycka interferens via).

Det finns en mängd tänkbara sätt att hantera det här på (och hantering av de tidsperspektiven är troligt ganska kritiskt eftersom vi när förklarande relationer saknas kan behöva olika indikationer i ögonblickets snabba händelser ex. information från FN eller EU för att förstå vilka relationer i referensinformation som är relevanta eller vilka symboler som behöver kompletteras med mer data). Emellertid har jag egentligen inte prövat någon av metoderna (än) därför jag inte bedömt just detta område som prioriterat på ganska länge och vidare dröjde det ett tag innan jag upplevde att riktigt förstod varför prototyp-applikationen i Netrunner klarade av att prediktera nyheter tämligen generellt under flera dagar. Just att nätet blev psykotiskt var däremot tyckte jag lätt att se och förståelsen av varför de här prediktionsmetoderna är funktionella kompletterande andra (kanske när vi söker punkter att borra djupare i och runt ett ämnesområde vi är intresserade av) bekräftar att det är en mycket meningsfull jämförelse. I Reward version är ett flertal andra liknande jämförelser etablerade som gör jämförelsen just med psykos enklare. Kanske lite skrämmande bra och svårbegripligt och farligt relativt genereringstiden fascinerande.

Nu är det klart oavsett psykotiska problem i den här typen av prediktion kan man tycka att det kan lösas ganska enkelt utan att behöva titta i detalj på algoritmerna. Om du nu får prediktioner du upplever är viktiga och svåra att få bra via andra metoder är lätt att tänka att så länge man kan uttrycka ungefär hur många fel man kan acceptera finns inte något problem. Det är möjligt att det går att få att fungera men problem jag ser inkluderar (och rör ej avvägning datainhämtning för nyhetsanalys relativt drifting thoughts kuberna):

  • Hela spreading activation konceptet och algoritm-gruppen tenderar just att sprida aktivitet vidare utefter blue light relationerna.
  • Komplexiteten för att tolka och förstå dom spridningarna om man ligger på 1 miljon noder och 10 miljoner relationer (eller än värre med den stora versionen aktuell här?) är enorm.
  • Spreading activation följer inte prediktionerna.
  • Prediktionerna styr bara var du investerar beräkningskraft för att söka mätbar korrelation och från det försöka hitta samband som ger prediktion.

D.v.s. oavsett om prediktionerna fortfarande är korrekta har du ett tidsfönster där världen börjat förändra sig men där diffusionen ännu inte givit effekt i verkligheten märkbart på dom noder vi följer. Där hamnar vi förr eller senare fel och komplexiteten för att försöka gå bakåt i nätet och den vägen på något sätt (om det alls går) identifiera kanske uppdateringar man inte gör eller liknande är föreställer jag mig helt ogörligt.

Spreading activation och jag erkänner själv en periodvis av och till 2010 och 2011 viss fascination för den magi det ger i blue light (eller Drifting Thoughts ännu bättre). Det ska dock inte användas för prediktion över tiden utan som algoritmen och konceptet är definierad nu är det funktionellt för att identifiera intressanta punkter man söker sambanden runt utan att bibehålla tillstånd. Etableras de inte är det tänkbart en indikation om att man behöver importera mer data att bygga en för området djupare anpassad (kanske mycket större) blue light kub från. Med det synsättet kommer man också ifrån behovet av att för rimlig prestanda behöva väldigt mycket beräkningskraft. Jag vågar inte ens drömma om hur mycket ni prioriterat runt dom där prediktionerna. På sätt och vis visste jag att det skulle bli så här. Man talar om exakt varför något inte går att göra, men är mänsklig nog att indikera vad man kan se med det, förklarar att det leder till galenskap, bortkastade cpu-cykler och minne, och när man reflekterar över det kanske tre eller sex månader inser man att det är så klart att de kommer hålla på och peta runt med den svarta magin i drifting thoughts också. Det roade mig då men irriterar mig mest nu eftersom det aktualiserade drifting thoughts för mig vilket är ett koncept som ej är del av Reward version plattformen utan bäst just är en riktad applikation nära ett givet analysproblem ovanpå plattformen men konceptet är som så ofta fascinerande lockande. Jag ångrar inte på något sätt att jag donerade er Warrior-plattformen men det är tydligt för mig att om jag gör det igen till en entitet utan den kompetens ni har får se till att stänga ner allt förutom de givna grundfunktionerna. Får ni cpu över när de stänger ner det där pröva att sätta ljudanalys på sociala media postningar för att konvergera mening. Det ger lite jämförbara underligheter av och till (i aktuell version även om jag tror den senare versionen var ganska stabil även om jag skar bort hela det fonetiska p.g.a. minnes och cpu-kostnaden). Där har vi ju också implicita relationer från befintlig inlärning som kan uttrycka svår begripliga samband man annars lätt missar. Det välkända exemplet från introduktionsböcker i psykologi är ju när vi hör ett ljud samtidigt som vi ser personen forma ett besläktat ljud med munnen och vi tolkar resultatet till ett tredje ljud.

Så hur löser ni problemet? Tja man gör som jag gjorde när jag gjorde dom första genereringarna. När nätet blir vridet och börjar hallucinera kastar man bort det och börjar om från den tidpunkten utan gammalt data. Med mindre än helt annat stöd än som finns i dom där biblioteken finns ingenting annat att göra. Sedan har det ingen betydelse vilket värde tillstånden givit innan. Alternativt gör du samma sak och backar tiden men komplexiteten du möter i relationer är gigantisk.

Faktiskt har jag närmast i Reward version komprimerat ner Blue Light signifikant i antal symboler (ner till cirka 250 000 - 500 000 beroende på konfiguration från ca 800 000) men med väsentligt fler relationer. Det ger över områden minskad risk för psykotiskt obegripliga samband men också minskad möjlighet att söka oväntade samband som kan vara meningsfulla att borra djupare. Det avspeglar först och främst behovet av att hålla cpu och minne så effektivt som möjligt men också just att spreading activation bör ses som en applikation ovanpå grundplattform där man kan tillåta en helt annan typ av relationsnät.