Syfte och mening här är ej att presentera vad som i någon modell konkretiserad delvis är att se som sanning utan istället peka på en generell metod för att snabbt beräkningseffektivt indikera vad djupare kontroller kan sortera ut falska och riktiga träffar ifrån.
Principen är exakt samma som för det förenklade mått på similarity mellan koncept där ingen vetskap eller förståelse antogs existera annat än relationer mellan koncept:
I exemplet här är det ej korrekt att indikera att metoden praktiskt faktiskt kommer levera värde därför att jag har aldrig prövat den i efterföljande djupare kontroller eller ens etablerad tillräcklig mängd information för att seriöst göra den korrekt förenklat. Jag tyckte likväl att det kunde vara meningsfullt att peka på det som ex. därför att:
- Det understryker att också om vi arbetar med reducerad vetskap genom metoden innebär det också att metoden går att tillämpa tidigare med mindre vetskap etablerad. D.v.s. just vara fungerande med det syfte jag primärt ser med den: automatiserat söka möjliga träffar annan logik och AI kan borra djupare men mer kostsamt.
- Dessutom såg jag det som intressant exempel att ev. själv göra djupare längre fram.
I senast följande två diskussioner rörde vi vid den generella mätrymden av komplexitet för problem och relevantare för den initiala ytligae sökning intressant här som realiserat i samhälle:
- Komplexitet och kostnad i planekonomi kompenseras med maktens rikedom
- Rättssäkerhet och sociala organsationer: Diktatur och statligt kontrollerad välfärd resp. "organisation av intressegrupper"
Om nu en i modell-mening generell kostnad föreligger för hur ett enterprise (i den sovjetiska planekonomins mening) hanterar kravställning produktion resp. inhämtande av råvaror och färdiga komponenter föreligger gäller att vi kan uttrycka komplexiteten av en produkt som funktion av hur många faktorer vi ej som enteprise själva kontrollerar innanför sådana krav.
D.v.s. ju fler komponenter produkten innehåller vi ej själva kan tillverka desto mer komplex är produkten. Den förenklade principen från similarity konceptet är att vi ej antar att vi kan värdera varje sådan koppling till andra enterprise eller för resp. sådant enterpriae väger in direkt hur komplex den komponent dom bidrar med är. Istället som grov initial skattning söker vi endast hur många komponenter externt lokalt enterprise produkten innehåller jämfört med vettig jämförelse-grupp.
Spontant för mig tycktes datorer vara en vettig grupp av produkter att betrakta detta för. På den gamla goda tiden (C64, Sinclair 80, Amstrad eller svenka Compis o.s.v.) när datorer ännu ej hamnat där de är idag var de koncetuellt mycket mer av ensamma enterprise:
- Egen legacy processor som hanterade det mesta.
- Mjukvara utvecklades riktat utan möjlighet att köra på andra plattformar utan att väsentligt koda om det med föga möjlighet att återanvända kod.
- Operativsystem helt eget.
Medan verklighet idag är mycket mer av standardkomponenter i hårdvara gemensam för många plattformar (ex. som för Xbox One och Playstation 4 ungefär samma) d.v.s. kommande från andra jämförbart med "enterprise", inkl. i mjukvaruprodukter många fler leverantörer o.s.v.
Ett större trapp-steg för plan-ekonomin bör därför ha varit verklighet från den tidiga generationen av datorer jämförbara med C64 m.m. upp till nästa. Samma utmaning bör av likartade orsaker också gällt marknadsekonomier i den mån datakonceptet skapat delat mekanismer med planekonomin. Det svenska datakonceptet Compis vi hade i högstadiet kan vara ett exempel på detta. Relativt låg-komplexitet åtminstone i hårdvara gäller och ligger just i generationen där detta är att anse det normala (även om i verklighet använt givetvis fas-förskjutet också framåt) men när komplexiteten i verklighet vidare betraktat expanderar ser vi i ingen efterföljare till koncept.
Vi kan se data-produkter i Östeuropa ofta var baserade och i en mängd varianter på chip's inkluderande en mängd i sig själva d.v.s. uttryckande lägre komlexitet i mängder komponenter som fodrades utanför dessa. Bulgarien enligt Wikipedia gjorda ex. persondatorer baserade på 6502 (samma som i Vic-20 som var Commodores produkt föregripande C64 vars processor var 6510):
"Personal computers: IMKO, Pravetz-82/8M/8A/8E/8C/8D — an 8-bit machine, based on Bulgarian-made 6502 variants, IZOT 1030 — based on East German-made U880 (a Z80A clone), Pravetz-16/16A/16H/286 (16-bit) — based on Bulgarian clones of 8086/186/286.
For example, the Pravetz-8M featured two processors (primary: Bulgarian-made clone of 6502, designated SM630 at 1.018 MHz, secondary: Z80A at 4 MHz), 64KB DRAM and 16KB EPROM."
Från: History of computer hardware in Soviet Bloc countries | Wikipedia
Rörande i pc-världen välkända familjen 8086 tycks man ha bottnat ur just i första generationen. Och minns jag rätt var just i pc-världen när man passerade in i generation 8086-286 ett ganska stort steg inkludeande bl.a. matematik-processor (d.v.s. vad som då angavs DX medan de där koppling i hårdvara till denna avlagsnats eller var defekt angavs som SX) och en mängd annat nytt. Kanske mest talande den första pc-plattform med dataspel vi i modern mening skulle känna igen som sådana (ex. DOOM).
Robotron (största tillverkare elektronik i Östtyskland och kompetenshöjd viktig allmänt i Östeuropa) tillverkade som en av sina sista datorer en XT-kompatibel PC (en av IBM's absolut första PC-koncept - minns jag rätt nummer två). Underförutsättning att vi kan anta att kompetens rörande tillverkning av varje del och att sätta dem samman är oväsentlig kommer komplexitet ned till vad vi kan approximera till att synkronisera varje extern komponent eller råvara vi behöver.
Foto: Karsten Reichert (Xaar)
På tema av varianter (kopior) av den tidiga generationen av datorer mer "singulära" i sina koncept gjort Robotron också en hemdator som kopierade processorn i Singclair 80: Robotron KC 87. Både denna processor (Z80) och 6502 var oavsett leveantör från land med planekonomi eller inte mycket vanliga i alla möjliga datorer.
Compis
En detalj rörande Compis av den typ som ibland försvinner bort i historien var att när man passerade in och ut ur datarummet trots att dom centrala hårddiskarna tillsammans med dator var passerade separat i en gammal mycket gediget skåp (mer ett separat rum) var det absolut förbjudet att slå i dörren.
Om något slog i dörren var tryck skillnaden kanske en av fem gånger tillräcklig för att fodra en omstart därför att hårddiskarna "råkat ut för något".
I övrigt kring Compis är jag mest fascinerad över mängd av undervisningsmaterialet som hade att göra med konceptets mycket unika oerhört breda antal tangentbords-färdiga operationer för att göra ordbehandlar-saker likt ändra från små- till stora bokstäver m.m. men mycket mer och mycket mindre användbart. Lite som Emacs som definierat i tangentbordet.
Men det hade också en del dataspel som masken. Jag tvivlar på att någon hade vid detta år spelat dom om inte på skoltid och mer än så en övning förväntat att man skulle göra.
Att ta utökade befogenheter på Compis var genom användningen av CP/M ungefär som andra system från samma tid också med detta operativ både enkelt och svårt. Enkelt om ingen med given rättighet sitter framför datorn och praktiskt svårare om ej så därför att förändringar i rättigheter på något sätt varnade eller signalerade (vilket jag senare ungefär samtidigt i tiden kunde konstatera på ett annat CP/M-system rent av misstag när jag gjorde praktik på ett tryckeri - numera borta från Uppsala men vid tiden stort: Almqvist & Wiksell). Från att det senare var ett misstag inser vi att gränser mellan vad som var koncept du hade rättigheter till resp. var andras mest var en fråga relaterat gränssnitt och inte på något sätt seriöst implementerat. Ungefär som MS-Dos (som ju byggdes från konceptet rörade funktionalitet) men med en del för fleranvändarsystemen för att hantera en del behov runt det men med fög om något i domänen av seriösare hantering kring ex. rättigheter filer m.m. (som jag minns det i alla fall).