Vid medvetande igen

2012-10-16



"I'm not aware of too many things,

but I know what I know if you know what I mean.

Philosophy is the talk on a cereal box.

Religion is the smile on a dog."


[...]

"Choke me in the shallow water before I get too deep."


Skillnaden i mening mellan säg awareness och consciousness hör till vad jag ofta upplevt säger konkret-praktiskt mycket om hur vårt medvetande fungerar. De viktsystem så vanliga både i praktiskt extrahering rörande konfidens om koppling, emotionella viktsystem m.m. är praktiskt lösningar på praktiska problem och vad jag själv ständigt använder i olika versioner. Sådana generaliserar dock i mätvärden samtidigt som jag tror att det tenderar till att leda våra tankar i fel riktning.


Det subsystem jag skapade närmast den verklighet jag tror nyanser uttrycker var Mer eller mindre. Tråkigt nog råkade den sista versionen ut för dataläckage mellan "nyans-filerna" och jag har sedan dess inte arbetat på praktiska delar som fodrar mer eller mindre annat än i "viktmeningen" egendimensioner som up - down, positiv - negativ o.s.v. fångar mer övergripande sammanfattande utan just nyansernas upplösning. Mer eller mindre om jag kommer ihåg rätt förvaltar troligt inte fler än 500 - 1000 nyaans-viktfiler var och en som givit ett definierat namn av typen upp-ner, mer-mindre där varje sida av definitionen identifierar typiskt mellan 20 - 15000 (de större rör definitioner direkt eller nära övergripande egendimensioner) begrepp.


Poängen med att se det som Mer eller mindre att vi kan definiera aktivering riktat mot en subkultur, organisation eller ännu mer exakt nyckelpersoner i sådana, eller kundgrupper.


Vi behöver inte förstå, kunna beskriva, uttrycka regler, senses, cosinus-similarity via bag of word givna vektorer o.s.v. mellan mening. Entiteterna vi borrar uttrycker dom själva och givet att vi tämligen grovt har definitionsfilerna på vad som ligger väsentligt närmare den ena "motsatsen" får vi effekten att när vi hanterar dem mångsidigt och förstår deras relativa positioner i den n-dimensionella hyperkub det skapar givet entiteten relativt något väsentligt annorlunda och relativt något annat väsentligt annorlunda från de båda andra där de två senare punkterna gör att vi mycket enklare kan beräkna euklidiska avstånd utan behov av en absoluta skalor.


Konceptuellt intressant. Resultatmässigt i tolkning väldigt kraftigt. I minnesanvändning och CPU-cykler direkt frustrerande kostsamt. Men i sitt område för mig första generationen av något nu större och mer sammanfört.


Jag nämnde i en postning tror jag 2010 att vi hade en väsentligt stor upphandling på-gång i det här området. En svensk hade roligt åt det och menade att jag missat att entiteten redan införskaffat och trodde sig veta höll tillräcklig kvalitet (står möjligheter från vetenskap någonsin stilla och är inte alltid för den som inte givit upp striden den väsentliga skillnaden mot vilka av möjligheterna du tagit det viktiga). Nyligen såg att man börjat förbereda sig mer konkret mot vad jag tror är det första i en vad som praktiskt blir flera projekt. Spekulativt tror jag att det indikerar bättre vad man egentligen kan och behöver som resultat av införande. Det är det normala för den här typen av ganska stora projekt för entiteter som rör sig med stor budget.


I Deep Learning (DARPA) ligger tror jag också en sida i vad vi kan kalla "distribuerade-sensor-konceptet" d.v.s. man upplever att man har folk lite varstans, pansarvagnar, satelliter, flygplan o.s.v. som suger en massa data man förvisso drar en massa konkreta slutsatser om men misstanken om att "djupare slutsatser" väcks.


Av allt jag sett som dom publicerat än i alla fall tycks den "teoretiska-kulturen" vara väldigt inriktad på den praktiskt teoretiska grunden ex. Manning's Foundations of Statistical Natural Language Processing excellent sammanfattar.
Diverse idag ganska etablerade statistiska algoritmer ovanpå och tillsammans med så mycket mer regelbaserat man bara kan hämta upp kostnadseffektivt från diverse system och lösningar där det redan gjorts, och med en frisk-förhoppning om var sådant ännu inte presterar riktigt ändå fram är det vad "common sense" skapat i big-data typ "nerver ending language" säkert löser och när man som här nog hör till entiteter där den praktiska verkligheten redan bränt dem några på det vad man tänker sig att antingen kvantdatorer eller memristor ska lösa (The CIA and Jeff Bezos Bet on Quantum Computing). En viktig kontrast jag har en känsla av dom än så länge missat är att titta bakåt på gamla projekt DoD redan haft genom åren i det här området. Jag tog själv nyligen ner en hel del data kring det genom att spindla en av deras publika sökmotorer.


Praktiskt för den het på common sense verkar ConceptNet jag hittade via en ReVerb (common sense web-miner) hör till vad de bättre strukturerade jag sett men jag har inte hunnit använda själva datat och inte otroligt är "kvaliteten" ungefär vad man lärt sig förvänta från andra liknande lösningar (common sense är bara sexigt i religiös tro på en enkel-lösning och praktiskt gör det ont och för personer känsla som jag kan det orsaka PTSD liknande symptom med återkommande mardrömmar).


RaVerb intresserar mig för attjämföra en nästa eventuell dataimport från NELL: Never-Ending Language Learning mot och ev. direkt importera från om den verkar bättre.


Common sense för mig är dock inte riktigt vad man generellt menar. I mening närmast allmän betydelse är det inte mer än en konceptuell lösning man hänger på från vad som är bäst för att kunna resonera enkelt ovanpå vad som händer underliggande (vad jag just nu använder en kombination av egna extraktioner från Wikipedia och DBPedia men ev. vad Conceptnet tänkbart är en bättre lösning för).


Common sense i vad jag söker i import från NELL och Raverb handlar absolut inte om att kunna tolka och besluta vad något är. Sådana resonemang i meningen här är dessutom bara vad som skulle bli cirkel-argumentation: Kaffe är en dryck, en dryck är vad man kallar kaffe, läsk, och som man dricker, dricker gör man för att hindra vätskeförlust o.s.v. och ändå missar det just det mer intressanta i föränderliga händelser, ändrade referenssystem, genom att göra antaganden (i dom sammanhang där begreppet uttrycker viss religiös tro om en via web-big-data enkel lösning) om att common sense också klarar uttrycka och fånga föreställningar, tro, idéer, motiv, sammanhang o.s.v. samtidigt som själva antagandet just är att det är etablerat på annat sätt. Det enda jag vill ha från t.ex. NELL är möjligheterna och utan antagande om mening eller något annat. Möjligheten att begrepp är besläktade.


Själva konceptet att man kan förstå hur mening kan konvergeras utan bergen och dalarna som styr var vi hamnar är vad vi borrar berättar för oss vad de ligger tror jag är dyrt både i systemutveckling och antal-datorer som krävs oavsett om det handlar om produktsystem, expertsystem, neuronnät, självorganiserade-kartor eller något annat. Din lösning måste vara sådan att du accepterar att vad du borrar indirekt berättar för dig vad du menar, och inte bygga på idéen att common sense innan förklarat för dig vad saker är. Och samtidigt en lika stor utmaning måste du hindra den typ av "galenskap", "övertolkning" o.s.v. både psykotiska liksom kraftigt motiverade kan hamna i (jfr Hans Holmér och kurderna eller CIA om den arabiska tv-kanalen).