Menade jag 朔州? Eller Suzhou?

2012-11-18

Blev lätt förvirrad när jag flyttade u och o felordning när jag ville hitta Shuozhou på Google.com för att få den indikerad på kartan där jag inte såg den. Först föreslog Google.com suzhou som alternativ men det var någon helt annan ort. Därefter när jag fick den "korrekt" enligt något av antagligen en bunt system för hur orten inte sällan stavas med våra bokstäver föreslog Google:



Jag blev lite förvånad faktiskt. Kanske har vi några - det är ju ett stort land - orter med troligare samma stavning men ev. lite troligare mer avgränsat med de kinesiska tecknen?


Lyfter vi blicken framåt för att sträcka ut en hjälpande hand till framtidens mer intensivt än tänkande snickrande idag på vår framtid med förhoppning om färre irriterande vardagsdefekter eller fel arkitektur i allt från politik till livsmedelsbutiker är ett i mycket påverkande område unicode.


Med all respekt för svenskan med dess å, ä och ö liksom alla kineser, iranier, greker m.m. - unicode-idiotin. Unicode kostar enorma enorma mängder cpu-tid, minne, utvecklingskostnad m.m. bör vi istället alla våga stå upp för ett rationellt alfabet: 7-bitars ASCII. En skapelse från en tid när USA och Europa var rikt och det var naturligt för medarbetarna på dom stora industriföretagen att bränna iväg miljarder på ett ständigt växande antal redundanta standarder till stora andelar berörande hur bokstäver och siffror ska representeras (någonstans efter ASN.1 respektive den förenklade grunkan för webben som blev vanlig kunde det ha räckt där oavsett hur komplext folk tyckte ASN.1 var då är det ingenting med flera - kan det vara hundra - unicode-standarder och unicode-mimicking "standarder" för mer än alla språk en bunt datorkulturer och generationer ( =~ s/[A-Za-z0-9 \t]// ).


Tar vi bort å, ö och ö från bokstäverna och siffrorna vi har i den här bloggpostningen (oräknat titel och bild) är det nära nog alla tecken jag tycker vi behöver. Krävs något extra för särskilda tecken kan folk gott och väl göra en liten bild för sådant. Det är verkligen att jag tvivlar på att de över-komplexa ordbehandlare som inte gör mycket mer än för 15 år sedan är mycket snabbare via gränssnittet att få dit rätt tecken (Google Docs är ju dock i det området mer nöjd med än mycket annat: få-funktioner och litet gränssnitt).


Praktiskt i representationer - om man nu skulle börja kasta bort alla onödiga otäcka nationalistiska språkliga forsar svenskar, ryssar, kineser m.m. spärrande en värld som söker ett enkelt språk med ett fåtal bokstäver från att mötas via enkelt data. För en kollision / tvetydighet när så uppstår får man ju också fråga sig hur troligt det är att den härrör till att du ex. reducerat bort å, ä och ö oavsett hur brutalt och hur troligt det är att det snarast härrör från ett mer svårtolkat kontext. I sådant gäller ju att själva indatat vi reducerar och jämför med en representation nu ju faktiskt bär informationen vilket räcker en bit till. Jämför trivialt egennamn om vi tänker oss att vi också skär bort stora bokstäver alt. små vilka jag nog tillsammans med punkt m.m. också känner är vad vi egentligen inte behöver. Visst att det blir svårläst och irriterande utan små och stora bokstäver men det är bara vanesak. Informationen det bär är försvinnande liten jämfört med hela ord-symbolen resp. lokalt och globalt kontext.


Den trosföreställningen är dock huvudsakligen formad från praktisk programmering och datorns begränsade minne och cpu:er. Rent personligt har jag mycket lättare för att lära mig språk som i den visuella representationer uttrycker högre redundans med större uttryck av absoluta tecken snarare än som ex. svenskan relativa övergångar och relativa skillnader mellan ljud, ord, meningsbyggnad o.s.v. Jag upptäckte det av en slump för några år sedan när jag surfade japanska webben via Google Translate och upptäckte att jag av mig själv lärde mig tecknen (av "kinesisk" typ). Glömmer dem tämligen snabbt igen om jag låter det gå men ingenting i språk är jämförbart med hur lätt dom väcks upp. Andra språk som engelskan, tyskan m.m. jag lärt har jag vänligen haft större problem med. Swahili upplevde jag dock i ljudformen som väldigt naturligt och på sätt jag inte riktigt förstår passande mig bättre och lite jämförbart med de japanska tecknen lättare att lära utan just något märkbart av dyslexin.


Jag tittade en del på hieroglyfer i vintras och under sommaren. Intressant på många sätt men jag upplevde inte samma egenskap med dom som för de japanska tecknen. Jag tror verkligen att det för japanskan är en fråga om visuell redundans i information relativt hur benägen man är att flacka med bilden.




Om vad som gör tecknen i japanskan speciellt har viss funktionell relation till andra språkliga skillnader som har att göra med mängden information relativt t.ex. visuell uppmärksamhet och koncentrationsförmåga som hur vi tolkar ansiktsuttryck - och var i ansiktet vårt fokus konvergerar - med ev. motsvarighet resp. skillnad med hur vi läser relativ resp. absolut information i ex. engelskan resp. de japanska tecknen vore nog att tolka in ganska mycket (jämför ex. Perception of emotion is culture-specific i brist på en intressantare som mer specifikt tittat just visuell uppmärksamhet och ansiktsuttryck jämförande en japansk försöksgrupp med andra).


Tänker man sig lite vågat ändå en förklaring närmare min spekulation här är det kanske mycket naturligt att låta den relativa representationen av språkets ljud behålla användningen av tecken för att ge förstärkt "visuellt-koncentrerad" redundans kanske lite jämförbart med bilder och illustrationer. Ungefär som de japanska skriftskråken har där vi huvudsakligt numera har två system: ett med tecken konceptuellt jämförliga med kinesiska tecken (men också väldigt olika) och sedan ett tecken-system som uttrycker relativa förändringar i ljud ungefär som vårt.


Möjligen är det konceptet inte helt olikt som mellan en i andra sammanhang uppfattad t.ex. mer "kollektivt" synsätt kanske egentligen ingen större skillnad mer relaterat om vi tenderar att vara lite mer visuell gestalt tolkande hellre eller är mer Markov ljudande tolkande från ljudet eller orden innan där ju Markov-kedjor helt säkert lär tendera att kräva en visuell och annan uppmärksamhet just optimerad mot en längre temporal utsträckning med färre synkroniseringar mot globalt kontext per tidsenhet - om det nu verkligen är så att det kommer med och innebär ökad behov av synkronisering globalt är det ju just inte helt olika vad vi i andra sammanhang kanske vill uttrycka som visuell gestalt eller kollektivt tänkande, eller koncentrationssvårigheter i vissa andra situationer.


Mycket i vår kultur och hur vi tolkar och talar märks och bor i språket. Och varför inte? Finns det inte där kan man svårligen mäta det energieffektivt och i dagens globala intensivt kommunicerande värld är tryggt att ofta försumma allt annat: finns det ej uttryckt i en kulturs kollektiva språk är det direkt otroligt att någon viktigt eller oviktigt finns att hitta någon annanstans (undantaget rena flow-processer ex. trafik detekterad via satellit bevakning utan just det kulturella, hur vi tänker och hur vi resonerar med likheter och skillnader mellan folk och språk).


Det är med visst nöje man av och till kan roa sig med att låta flera för många tråkiga ämnen kollidera och ändå känns viss tillfredsställelse av att det faktiskt ändå som konsekvens av några ämnen som råkade komma med lär bli läst av några stycken i alla fall.


hans husman

Metaforer med Wordnet? Nja

Testade stödet för att konvergera initial tolkning av mening för att ge initial primacy effect en situation sätts upp i märktes en till anledning att särskilt rörande mening vara mer noggrann med att separera "naturlig" association med de mer filosofiska idéer om hur man mer generellt kan uttrycka egenskaper och relationer mellan koncept.


Sådana ex. via Wordnet (jag använder fler inte sällan ofta för att just identifiera relationer som vad som existerar i sådana från större samlingar av data om relationerna mellan koncept) kan ha värden i många situationer, och många ser antagligen tolkning av betydelse som en.


Så länge vi håller oss till mycket lokaliserad information ex. enskilda meningar eller meningar i mycket direkt närhet är också Wordet och mycket liknande (och kanske lika ofta Verbnet inte ersättningsbart riktigt på samma sätt upplever jag).


Problemet med förståelse av mening uppstår när de noggrant genomtänkta idéerna om hur koncept sorterar och ansluter till varandra, och uttrycker över flera koncept återkommande "egenskaper, möter språkets och tankens kreativitet. Flexibla associationer mellan koncept fritt som mycket vi skriver och säger (jfr arbetsminne eller ett verktyg skapat från vetenskap i område X eller kombination av områden men tillämpat i ett annat) blir mer problematiskt) följer svårligen att uttrycker kunskapsmöten utifrån definierade regler som beskriver vad betydelse här. Vi kan jämföra mellan en grundläggande textbok för gymansiet om ett ämne och de implicita antaganden om konvergerad kunskap nödvändig för att bygga förståelse av ämnets benämningar och samband med den ständiga kunskapsutveckling där områden och vad som är möjligt förändras i praktisk tillämpning bland företag och uttryckt i universitetens forskning.


Ju mer lokaliserad ner till det extrema i en ensam mening tolkning görs desto mindre problem ger dessa sådana system helt enkelt därför att mindre utrymme för mer kreativa kopplingar finns. Därför är system som Wordnet värdefulla för att just tolka lokaliserad betydelse.


Under testandet där jag plockade ut en del mer ontologiska symboler ej definierade som sådana för att ha dem separerade till ett avgränsat annat system såg jag ett utmärkt exempel på just denna begränsning och där denna också är lokalt verkande motsvarande i samma princip i det lokala som våra kreativa associationer mer generellt: Metaforer. För tolkning och förståelse av metaforer adderar Wordnet med en del liknande system samtidiga här inte bara föga eller inget värde utan drar konkret ner värdet adderande en till anledning att hålla ontologiska dimensioner separerat för vad dom är bra till.


Det ska absolut inte förvåna oss. Att definiera en färdig lösning med ett språk som mer än fritt kreativt som vara vanliga språk ge oss alla möjligheter att uttrycka snarast försöker definiera vad vi kan uttrycka fodrar en enorm komplexitet om det inte ska ge en direkt begränsning närmare den katolska kyrkans syn på vetenskap under antingen än vad vi i dagligt tal klarar att flexibelt uttrycka. Och varför skulle vi behöva ontologier med regelstyrda tillståndsövergångar när språket i sig uttrycket fria möjligheter liksom vår kunskap?


Det är precis detta man jämförbart i ett oerhört lokalt mer "regel-enkelt" kontext ser för metaforer som är en av de mer kreativt flexibla i mening kanske oftare upplevda lite svårare än väldigt tråkigt språk utan meningens verkliga färg med alla dess nyanser och bara en av två verkande i lokalt kontext jag känner till som ej påverkas av faktorer utanför lokalt (i domänen syntax snarare än skattning av värde-dimensioner jfr stereotyper och associerad uppskattning eller ogillande av varumärken).


Fascinerande nog kan jag praktiskt utifrån de algoritmer jag föredrar också se skilda värden mellan konceptuella grupper av dessa mellan när vi tittar på de mer betydelse-nära relationer där similarity-koncept med ställda perspektiv fungerar bättre medan när vi tittar på ontologiska dimensioner tenderar koncept ungefär motsvarande Resniks (se Semantic Similarity in a Taxonomy: An Information-Based Measure and its Application to Problems of Ambiguity in Natural Language) och Lins (se An Information-Theoretic Definition of Similarity) algoritmer (men anpassat för att klara flexibla kopplingar och hantering salience för information o.s.v.) att fungera bättre. I det senare fallet är ju själva det vi utnyttjar just mer strukturellt ordnade relationer och där vinner man på att mer maximalt söka utnyttja det utan att bestraffa ner informationen via detekterade olikheter: finns en relation mellan ett koncept och en dimension eller över-gripande koncept litar vi på den.


Det ontologiska svaret på metaforer skulle jag hos de mer specialiserade på det området antagligen ofta skulle bli ett försök att definiera vad metaforer är rörande relationer, vad som förändras, vad som är en del av vad o.s.v. Men det har vi ju faktiskt en lösning för i språket och låter man det verka fritt och följer lite hur symboler (i meningen ord och kombinationer av ord) används kan det berätta ganska mycket utan att man behöver förstå allt i språket. Vi kanske kan jämföra med hur många tyckte att deras andra språk var problematiskt att lära sig trots att de från sitt första språk och vanligen ett antal år av ex. svenska undervisningen rimligen borde lärt sig en del upplevda regler för hur språk fungerar (vilka inte olikt kanske en del ontologi-filosofiska lösningar ibland får hjälpas upp med att lära sig saker utan-till som extra regler så att säga ungefär som med oregelbundna verb).


Det ontologiska epitetet ska dock inte generellt underskattas. Och om jag något roades av det här exemplet har det mer med traumatiska upplevelser mer specifikt relaterat Wordnet i samband med att jag importerade in delar av dess data till ett csv-format.
I mycket hör det ontologiska konceptet till det viktigaste vi har när det kommer till kunskap därför det hjälper oss att organisera vetande. Men man ska heller inte överutnyttja det och ex. för att tagga mina bloggpostningar låter jag mitt språk naturligt uttrycka vad jag just för postningen upplever är relevant inklusive värde-dimensioner och salience snarare än att följa förberedda noggranna regler för det. Praktiskt gör det närmast enklare - via sökmotor - just att hitta information jag eller en läsare söker efter som ligger i kreativa kombinationer ex. mellan personer och ämnen ej enkelt förberedda i färdiga regler.