Förståelse snart nog tillämpad i konsten att skriva pressmeddelanden (där förmågan vuxit till sig sista fem åren bland universiteten snart nog på nivå med kommersiell verksamhet i segment med större vana: Hunger efter Obama-pengar m.m. liknande har lyft dem allt högre i fantasifullt skapande):
"For instance, in an online review for a product, people may use cultural references, analogies and words with multiple meanings — such as “awesome” or “cool.” Humans, of course, can pick up on these linguistic tricks to decipher the overall meaning of the review, but software can’t."
Från: Bringing 'common sense' to text analytics | MIT
Givet etablerad kunskap sedan idag väldigt lång tid i det mesta teoretiska där vi haft i allt praktiskt förutom storlek och prestanda och möjlighet till att ta in och representera stora datamängder lösningar i nivå med vad vi ser idag bland de öppet publicerade (ex. Concetpnet, Yago, DBPedia) sedan 1990-talet. Och blickar vi bakåt i forskningen kan vi se samma koncept man idag oftare publicerar rörande mätningar m.m. runt algoritmer föreslagna eller genomförda av och till redan på 1960-talet på mer begränsat data (ex. i militär-forskning eller inköpta utredning senare publicerad öppet: en del exempel finns för den som letar bakåt här).
Idag är färdighet snarast när det ej som ex. går utanför det välkända det praktiska (ex. nära associerat vad i pressmeddelandet diskuterat Concept net) ligger i dess värde som filtrerad datakälla och orka hålla vettig tillväxt över tiden. Idag sedan ganska lång tid - kanske speglande blivande kommersialisering eller nedprioritet av universitet - hör det knappast till vad som är annat än bakgrundsinkludering du gör en gång vid behov utan att oroa dig för vilken version. Sista versionen var ju i huvudsakligen ett tydliggörande av hur stora datamängder som kommer från ett fåtal datakällor i sig ungefär det samma (ex. som i bilden nedan DBPedia) men med mycket av den kontextuella informationen tappa.
Vad vi ser ex. på i diskussionen nedan är den överhuvudtaget oavsett common sense lösning mycket vanliga rundgången i data. De tar gärna in relationer mellan koncept från varandra men för det normalt inte med något adderat värde. Förvirring notation, automatisk import m.m. är vad man ibland misstänker ger en del konstigheter även om jag inte vågar påstå att samma data via omvägar ibland återkommer till samma common sense system lätt defekt så att det nu kommer in på troligare felaktig plats. Spårbarhet är inte alltid etablerat enkelt om alls.
I år har jag med mindre förundran notterande det redan långt innan men med adderat en växande nöjdhet med mycket av gillande. En som i detta segment där vi har vad vi kan kalla över-konvergerande kommersialisering av ganska mycket väldigt lika ej särskilt annorlunda från vad vi har sedan länge kan ibland vara värde. Trötthet i finansiering och hur kompetens samlas kan göra det enklare för ett kompetensområde som i mycket varit stilla ganska länge i hur innovation (för att låna begrepp från MIT's utredning) realiseras när det handlar om nyare möjligheter. Fokus hamnar så lätt på paketering finansiering runt om egentligen samma sak eller egentligen samma fenomen hur det översätter till och skapar möjligheter när koncept närmare slutanvändare av typen surfare snarare än industriköpare tillämpar det.
Det gör känner jag åren som kommer lättare för oss att se vad nytt som kanske kommer genom en sund kontrast. Jämför med hur Microsofts kvalitetsproblem (jag blev uppriktigt förvånad när jag efter många år utan Microsoft's OS insåg att det OS som kom med min Laptop led av samma i vardagen dagligen irriterande problem kring ditt och datt) skapade utrymme för Linux (välkänt men vi kan se samma fenomen oavsett område och oavsett mellan flera uteslutande komersiella lösningar). Lämnar man smalare personliga intressen kanske man kan se en mer problematisk koppling mellan fenomenet som sådant bredare och den långsiktiga förmågan för USA att ekonomiskt orka bidra till världsekonomin som trots nuvarande problem ändå är normalt förväntat.