Om media på internet och deras framtid

2009-01-06

Framtiden för traditionella media på nätet bloggade jag om nyligen:

Jag hittade de här två blogginläggen på SVD som diskuterar framtiden för media på nätet:

På bloggen Mindpark.se hittade jag också åsikter kring ämnet:

Det mesta har jag testat och utvärderat under flera år

Tillskillnad från de flesta andra som brukar blogga om detta (antar jag eftersom de regelmässigt inte redovisar något konkret överhuvudtaget) har jag faktiskt experimenterat och dokumenterat min erfarenhet och det sedan många år. Oavsett om det handlar om Flickr, bloggosfären, taggningstjänster, PR, SEO m.m. så har jag varit där och nästan alltid bland de första svenskarna. Det enda viktiga som jag aldrig prioriterat är Youtube.

Därmed tycker jag nog att min erfarenhet här kan ha ett värde för mina läsare. Jag ger därför dessa här som kommentar i första hand till bloggpostningen på Mindpark.se. Inläggen på SVD.se behöver jag läsa om under veckan, följa upp avseende övrigt SvD publicerat kring detta, undersöka vad jag kan se av deras strategi för innehåll, integration mot övriga webben respektive hur deras plattformar ser för att slutligen fundera igenom det hela.

Kring de åsikter Mindpark.se framför kan jag säga att de är ganska vanliga i bloggosfären. Däremot vet jag att även andra som kontrollerar egen trafik som inte är liten och gör det som publicister vanligen kunnat konstatera samma sak som jag efter ha följt mina tips.

Avseende creative commons

Mindpark menar att det bästa är att göra allt sitt material creative commons. Därmed kan andra publicera det lagligt. Jag var helt säkert en av de första svenskar (troligen den första) som tittade på creative commons som en väg för att generera trafik (se bl.a. bloggbilder.wordpress.com som är ett av flera verktyg jag använde). Att göra allt creative commons menar jag är olämpligt:

1.1. Jag kan uppnå precis samma sak mycket billigare. D.v.s. genom just med denna metod via creative commons använda det mer begränsat t.ex. bilder.

1.2. Användning av text som är creative commons avseende länkvärde är lågt jämfört med sådant du tillförs mycket enklare t.ex. via reducerad RSS. Här avser jag med andra ord det övergående länkvärde som ges när du pingar. Betänk här att de flesta som importerar full RSS och återpublicerar uppvisar samma sak genom att de typiskt gör detta från massor av sajter.

1.3. Många som rekommenderar detta redovisar inte hur många unika besökare de själva har och hur deras idéer påverkat det. Jag har tappat trafik många gånger när folk stulit material. Numera har jag en metodik för att hantera det som hindrar problemet bl.a. via visst eget stödjande nätverk. Dublicering av innehåll är med andra ord inte riskfritt.

1.4. Folk som delar text material med creative commons kan utgå från att de riskerar att tappa trafik från Google. Det är ytterst enkelt att presentera länkar som uppfyller villkoren enligt creative commons på alla sätt jag sett uttryckt men som ändå inte kommer uppfattas av Google.

1.5. Vidare kommer inte ens "korrekta" länkar garantera att ditt material rankar före de som använt det. Detta gäller särskilt när materialet är färskt. Många typer av material är värdefullt just när det är färskt. Vidare uppkommer problem ofta när väldigt starka sajter återpublicerar. Det kan man bl.a. se för Sciencedaily.com som lätt regelmässigt rankar före de universitet (ofta mycket starka de också) som ursprungligen publicerade pressmeddelandet och som Sciencedaily.com länkar till.

1.6. Slutligen tappar man åtminstone sist jag tittade trafiken från Google Blog Search i de flesta fall D.v.s. den som tar ditt material efter dig och publicerar det senare har en god chans att komma före där genom att publiceringstid prioriteras avseende färskhet.

Full RSS

När det kommer till RSS hör man det ofta att det ska vara bäst att publicera hela sin RSS fritt och låta vem som helst publicera den. Media-bloggare påstår detta nästan uteslutande utan statistik eller information som sina experiment (eller ens information om vad de själva klarar för trafik totalt). Min erfarenhet och andra reflektioner kring detta efter att faktiskt experimenterat med kort och lång RSS är:

2.1. Google har nu uttalat att de inte utgår uteslutande från RSS utan faktiskt besöker sajten avseende Google Blog Search och övrigt som utnyttjat RSS. Att de gör så har jag förövrigt sett ett tag nu. Därmed förlorar man ingenting avseende Google på kort RSS. Jag ser detta som ett erkännande från dom att jag haft rätt om RSS hela vägen.

2.2. Jag kan inte visa reklam i RSS-strömmen utan att bryta mot att reklam ska vara separerad från redaktionellt innehåll. Vissa alternativ finns för att lösa detta men automatiserade lösningar är ännu omogna. Därmed tjänar jag inte pengar på RSS-läsarna när RSS är komplett.

2.3. De automatiserade reklamlösningar som finns för RSS fungerar bättre med kort RSS. Orsaken är troligen mer reklam per text-enhet.

2.4. Med en kort RSS ger jag de som vill följa sajten möjlighet att se vad som publiceras. Intresserar nyheten kan de besöka sajten. Då kan jag tjäna pengar på dem.

2.5. Om nyheten inte intresserar dem gör det mig det samma därför jag hade ändå inte tjänat pengar på dem om de läser hela i RSS (utan att hänge mig åt omoral med icke separerad reklam).

2.6. Hel RSS kan tilltala "nörd-delen" (jag menar ingenting negativt) av internet och visst de är länknings benägna vilket ger en del. Men mina viktiga sajter håller hög kvalitet och de får massor av spontana inlänkar från vanligt folks bloggar och de ger mycket mer än IT-bloggar som oavsett PR hör till vad som är minst värt i min värld.

2.7. De väldigt få som faktiskt använder RSS gör konceptet att man ska tillåta massor av sajter att publicera ditt material och ta besökare från sökmotorerna orimligt. Vad skulle du vinna på det? Tänk här på att sådana sajter växer enormt snabbt i antal undersidor och även om du får länkar tillbaka från dessa blir deras värde därför mycket lågt.

2.8. Våra stora tidningar precis som jag kan och har antar jag mätt hur kort respektive komplett RSS påverkar intäkter och trafik. Jag ser nackdel med lång RSS för högtrafikssajter (t.ex. min ) Stora tidningar som fortsätter med kort RSS har rimligen också tänkt och testat de också.

Avseende Flickr

Jag var nog en av de första som genomtänkt prospekterade Flickr för trafik. Mitt tänk var dock snarast att använda fotografernas bilder för att få bra illustrationer gratis. Detta gillar fotograferna och ofta har de också en fotoblogg. Där kan man då bli bloggad. Det ger kvalitetslänkar och riktig trafik. Jag tror att detta ger betydligt mer för de flesta än att publicera bilder på Flickr:

  • De flesta på Flickr är inte duktiga på att fotografera och ingen vill använda deras bilder.
  • Om dina bilder är bra kan det ta lång tid innan du får trafik till dom och du behöver lägga tid på det. Tid som går att använda till annat.

Är du duktig fotograf kan Flickr dock generera enorma mängder trafik när du blivit känd på sajten. Det är trots allt en världens största webbsajter.

Youtube

Jag delar den uppfattning som gavs.

API

Jag begriper inte vad Mindpark.se menar. Gissningsvis menar de att man ska ge möjlighet för andra sajter att få access till data m.m. via ett API. Åtminstone för nästan alla svenska sajter är jag helt övertygad om att det är bortkastad tid. För andra sajter att investera den tid som krävs för att använda detta måste värdet vara tydligt högt. Samtidigt innebär det just att det är API:er att frihet ges att kringgå länkar tillbaka och annan reklam som jag antar att Mindpark.se förväntar sig att detta ska ge. API:er har sin plats huvudsakligen för Dafaspar och dyligt där man betalar per transaktion.

Kring sådant tror jag mer på att göra färdiga widgets och gadgets. Se här gärna hur Google tänker och de möjligheter de givit: code.google.com. Därmed styr du utseendet och garanterar att reklamen för din sajt visas. Att ha en plan för långsiktig integration mot det jag kallar "the Google cloud" är viktigt.

Medias problem på nätet

Jag tror att stora problem är att de har väldigt höga kostnader per innehållskvalitet de producerar. Kostnaderna är också huvudsakligen onödiga.

1. Först har vi dyra IT-miljöer och IT-utveckling:

  • De har egna legacy-IT-system som dessutom är sämre än fri standard (t.ex. Drupal och Wordpress).
  • IT-miljön kostar i utveckling som inte skalar.
  • Samtidigt kan jag få nästan vilken funktion som helst kostnadsfritt via widgets.
  • Fria plattformar för publicering ger nu större möjlighet i funktion än vad de största svenska tidningarna har på sina webbsajter.

Jämför detta med de 200 kr / månad (det är alltså totalt och inte uteslutande IT) jag har i fasta kostnader för Nyfiken vital.

2. Ett till problem är att tidningarna inte bygger några vettiga verksamhetssystem för hur man återanvänder erfarenhet, kunskap och material effektivt. Varje skribent har sitt sätt att jobba. Därav blir det ytterst ineffektivt och man lär sig inte det sätt som är snabbast att göra något på.

Själv varje gång jag skriver något nytt definierar jag en metodik utifrån erfarenheten. D.v.s. allt som krävs från att inhämta nyhetstypen, kontextuell information, faktagranskning, bilder o.s.v. Nästa gång går mycket snabbt att skriva. Tidningsskribenterna lägger istället tid på en massa onödigt som inte påverkar värdet av innehållet på det sätt läsarna värderar det.

3. Det innehåll tidningarna producerar har värde inte under tillräcklig med tid i genomsnitt. Därmed minskar värdet det kan generera. Ta Nyfikenvital.org. Där har vi förutom nyhetspublicering om forskning uppslagssidor som plockar in den kunskap nyheterna dokumenterar. Uppslagssidorna har värde under en tid som inte är begränsad.

4. Jag tror något är fel i journalistutbildningen. Journalister inom fackpress kan ofta arbeta där många år men ändå aldrig motivera sig till att fördjupa sig i fackområdet. Tvärtom har de fått för sig att det är olämpligt att göra detta. Därmed blir de lättlurade av PR-konsulter, gör onödiga fel m.m. Inte minst tar det massor av tid för dom att producera vettigt innehåll. De blir för dyra.

Från Nyhet -> Uppslagsbok

Väldigt kortfattat ger jag här några stolpar hur jag ser på detta långsiktighet med vår uppslagsbok som exempel. Alltså att material ska ge värde under lång tid:

  • På Nyfiken vital bevakas forskning inom vissa avgränsade ämnen.
  • Varje ämne har en huvudsida.
  • Nyheterna länkar till denna och läsaren kan på huvudsidan hitta bakgrundsinformation, ordförklaringar, övriga nyheter om ämnet m.m.
  • Kunskapen i forskningsnyheterna som publiceras införs diskret på uppslagssidan som därmed håller sig aktuell.
  • Allt är strikt redaktionellt oberoende. Ingen kan köpa innehåll, länkar eller annat som inte tydligt är angivet vara reklam.

Forskningsnyheterna ger trafik från de läsare som söker just aktuella nyheter. Uppslagssidan ger det långsiktiga värdet.

Hur ansluter man till det sociala nätet?

Dagspressen är ju väldigt roade av införa en massa automatiska IT-lösningar som skapar länkar till ditt och datt runt nyheterna. Kring allt sådant måste man ju fråga sig vad värdet egentligen är för läsaren. Där har jag inget generellt svar. Jag kan dock säga hur jag valde att göra med Nyfiken vital:

  1. Länkar under läs mer är redaktionellt oberoende och utvalda för att fungera som referenser och ge fördjupad information som kompletterar med ett högt värde för läsaren.
  2. Bloggarna SEOTaktik.com, Nyhetsbloggen.com, Uppslagsbocker.org och www.nyfikenvital.net delar med sig av vår erfarenhet från www.nyfikenvital.org till bloggosfären och andra intresserade.
  3. Bloggar eller andra sajter som rekommenderas utan att direkt vara redaktionella men ändå relevanta ges gratis reklam i form av "Nyfiken vital rekommenderar".

1. Handlar om att ge läsaren länkar som de faktiskt har nytta av. Och inte länkar till bloggar som läggs till utan kontroll av en mjukvara varav många är spam-bloggar. 2. och 3. handlar om att ge tillbaka till bloggosfären och internet. Nyfiken vital får många länkrekommendationer därför att vi publicerar bra innehåll. Utan bloggosfären och övriga som rekommenderar oss kan man inte driva en nyhetstidning inom forskning eftersom det inte är ett lönsamt område. Någon reklambudget finns därför inte. Vårt tack är att ge kunskap tillbaka.

På detta kan man bygga vidare för enskilda artiklar och nyheter med värde genom sociala nätverk (t.ex. Pusha), e-posta och tipsa bloggar som är intresserade av området och dyligt.

Detta är ungefär vad jag tror ger något samtidigt som det inte blir oseriöst genom att skicka trafik till spamsajter och rekommendera läsaren icke-relevanta länkar.

Google vertikalt

Jag bedömer att Google står för 70% - 90% av den trafik som når en hemsida i Sverige. Därav är Google givetvis mycket viktiga. Vill jag läsa om X i en tidning vill jag läsa det bästa om X. Då krävs en sökmotor för att lista det som handlar om X hos alla tidningar. Att jag speciellt går in på säg DN eller SvD kommer inte bara bli allt mindre vanligt utan mindre vanligt i allt snabbare takt.

Betraktar vi Google vertikalt har vi bland annat som är viktigt (men inte alls uteslutande):

  • Webbsökning.
  • Bildsökning.
  • Bloggsökning.
  • Nyhetssökning.
  • Youtube.

Du vill vara representerad i så mycket av vertikalen som lönar sig d.v.s. du tar trafik från varje källa i denna som inte är för dyr.

Att låta andra publicera ditt textmaterial har vi konstaterat med exempel riskerar att dessa rankar före dig i webbsökningen. Då försvinner den trafiken för dig kanske helt. Avseende bildsökningen krävs kunskap för att du inte ska riskera att Flickr tar den trafiken också (samtidigt finns potential här). Låter du andra publicera dina nyheter riskerar du att de går före dig i bloggsökning liksom nyhetssökning. Youtube dominerar sökning efter filmklipp och därför är det troligen utan problem att publicera dublicerat där.

Inför man sådant här gäller det med andra ord att man verkligen tänker till och inte inför en massa bara för att det låter bra.

SEO-onpage är dåligt gjord både hos DN och SvD

Onpage hos de stora svenska morgontidningarna kan bäst beskrivas som framtagen för att undvika att få trafik från sökmotorerna. Man gör det onödigt svårt för dessa att lista ut vad nyheter och artiklar handlar om. När det kommer till kombinationssökningar d.v.s. att sökmotorerna klarar att tolka ut vad själva artiklarna och nyheterna i segment handlar om är det vanligen gjort på sådant sätt att antalet träffar med största sannolikhet ligger enormt under vad som är rimligt.

Samtidigt ser man ut att skapa kombinationsträffar som är irrelevanta genom underlig användning av marginaler och widgets. Detta försämrar i min erfarenhet förtroende hos sökmotorerna och är tror jag en av anledningarna till att morgontidningarna trots åldrade domäner med mycket inlänkar rankar så pass dåligt på Google.

Fler typiska problem både för SvD och DN inkluderade:

  • Inget vettigt stödjande system för att tagga och beskriva innehåller utanför själva textinnehållet respektive link-attribut.
  • Ingen användning av de link-attribut på sådant sätt som tillför värde d.v.s. inte alls med tag och title eller felaktigt.
  • Särskilt title när det används sker inte enligt W3C standard vilket är det sätt jag menar att Google följer d.v.s. för att beskriva vad målet handlar om.
  • Ingen användning av rel som tillför värde (däremot på flera sätt som inte ger något avseende detta).
  • Dublicering av innehåll enligt direkt dålig arkitektur är mycket vanligt och slösar bort länkkraft liksom kan tänkas trigga kvalitetsfilter.
  • Redaktionella bilder och text separeras dåligt från information om annan redaktionell text (här är DN sämre än SvD) liksom reklam.
  • Bilder används på ett sätt som gör det otroligt att bildsökning genererar just någon trafik alls.
  • De sprider iväg länkkraft till sådant där det ändå inte kommer ge någon trafik. Detta inkluderar dublicerade sidor.
  • Rubriker, strong m.m. används icke optimalt. Fokus kan sättas på innehåll som inte bara är icke-redaktionellt (d.v.s. inte nyhet eller artikel) utan aldrig kommer ge någon trafik.

Sådant här är ju så oerhört onödigt givet att det är så enormt lätt att lösa. Samtidigt klagar pressen över att det går dåligt och staten ger presstöd. Anmärkningsvärt...

Dålig ranking - Dålig sajtsökning

Föga förvånande givet dålig onpage-SEO är inte bara sökresultaten sådana att dessa tidningar ofta rankar dåligt. Dessutom ger site-sökning med Google direkt dåliga sökresultat som inte tillför besökaren något. Detta gäller förövrigt även tidningarnas lokala sökfunktioner som ger ännu sämre sökresultat. För t.ex. GI gav Sesam för SvD tämligen ointressasnta träffar högst upp i form av ett par korta inlägg från en "Paris-blogg" på vardera några rader som inte just var relevanta alls för GI:

  • http://blogg.svd.se/parisbloggen?id=10640
  • http://blogg.svd.se/parisbloggen?id=10623

Det enda i den första som berörde det var "'De hungriga åren'. Den handlar om GI." Vad andra inlägget säger kring GI är kanske bäst uttryckt som underligt:

"Hmm, skulle var intressant att se siffror på hur GI-trenden slagit i Frallan. Om den slagit alls? De verkar vara väldigt protektionistiska med sina bröd, eller jag menar, de kommunicerar en protektionism genom sina bröd? 10 baguetter = 10 härskartekniker? Eller? Freud?"
Från: http://blogg.svd.se/parisbloggen?id=10623
Datum: 2009-01-06

Det här är just ingen kritik av bloggen. Däremot visar det att sökfunktionen fungerar dåligt med SvD. Och det tror jag huvudsakligen beror på en dålig onpage-SEO.

Men mest anmärkningsvärd är sökresultaten man får DN med deras sökfunktion från Eniro:

Enligt denna finns inget alls på DN.se om GI (-__-) Det motbevisar Google utan problem och ger faktiskt ganska bra sökresultat: GI site:dn.se. Mest underligt här är att så vitt jag vet importerar Eniro sökresultaten från Google. Kanske en bugg hos DN eller Eniro? Hur som helst lär det hela tänkas skicka trafik från DN till Eniro. Det är ju trots allt vad som rekommenderas:

"Hittade du inte det du sökte? Sök vidare på Eniro.se"

Är buggen vanlig kan det nog bli en hel del besökare för Eniro. Hur missar man sådant här? Att besökare inte flyter ut är något man ska ha koll på och som inte kostar just någon tid alls.

En bättre sajtsökning

En lösning jag tycker är bra för sajtsökningar är Google Custom Search Engine. Visar man reklam (p.s.s. Adsense) är den dessutom kostnadsfri. Dessutom har den fantastiska möjligheter till inställningar och anpassningar.

Det är helt enkelt så vitt jag vet den ledande sökmotorn för sajtsökning som finns just nu.

Inget stödjande innehåll varken på SvD eller DN

Stödjande innehåll tillför värde för läsaren, hjälper sökmotorn och gör det lättare för skribenterna att utnyttja befintligt material för att öka värdet av nya artiklar och nyheter. Samtidigt ska innehållet i sig generera sökmotortrafik huvudsakligen via kombinationer. Konceptet är utvecklat av mig och mycket potent. Särskilt avancerat att införa är det emellertid inte.

Både SvD och DN hade ingenting samlat stödjande innehåll alls vad jag kunde se. Har man tänkt lite längre än hierarki för att ge läsarna utökade möjligheter dyker stödjande innehåll upp naturligt även om man inte tänker i termerna av mitt koncept. Däremot fanns lite små saker utspridda som enskilda skribenter verkar gjort oberoende (jfr vad jag skrev tidigare om avsaknad av samlade verksamhetssystem för hur man utvecklar innehållet kostnads- och tidseffektivt):

"Ett till problem är att tidningarna inte bygger några vettiga verksamhetssystem för hur man återanvänder erfarenhet, kunskap och material effektivt. Varje skribent har sitt sätt att jobba. Därav blir det ytterst ineffektivt och man lär sig inte det sätt som är snabbast att göra något på."

Trafiken man går miste bara när man beaktar utspridda små lösningar jfr om dessa befintliga samlats är minst sagt stor. Sådant de enkelt skulle kunna utveckla på några veckor handlar troligen om ganska många tusen besökare dagligen.

Har svenskt media en vettig arbetsmetodik alls för webbpublicering?

Det här är underligt. De lever i en egen liten värld. Istället för att faktiskt testa vad som fungerar och arbeta seriöst verkar de hamna i situationer där de bloggar lösa teorier mellan varandra. Påståenden kommer som ingen av dem prövat seriöst. Eller överhuvudtaget testat.

Varför jobbar man så? Det är ju direkt dumt och kan kosta mer än hälften av dom jobbet. Jag utgår från att minst en av morgontidningarna i Stockholm är borta efter krisen. Orsaken är kanske den samma som jag skrev tidigare om orsaken till varför många journalister skriver så ytligt och sakta:

"Jag tror något är fel i journalistutbildningen. Journalister inom fackpress kan ofta arbeta där många år men ändå aldrig motivera sig till att fördjupa sig i fackområdet. Tvärtom har de fått för sig att det är olämpligt att göra detta. Därmed blir de lättlurade av PR-konsulter, gör onödiga fel m.m. Inte minst tar det massor av tid för dom att producera vettigt innehåll. De blir för dyra."

De har fått för sig att det inte handlar om att förmedla kunskap utan att texten i sig har värde. De sitter och formulerar något klatchigt om hur man tycker att webben borde fungera man testar det inte först. Låter det bra tror man att det stämmer. Sedan läser de varandra och blir övertygade om att de har rätt. Faktiskt kontrollerar man inte ens hur vanligt förekommande RSS är bland deras läsare (^_^) Resultatet är givet. De bränner både läsare och pengar.

Givet sådana omständigheter borde vi alla få slippa höra tidningarnas ständiga gnäll om hur dåligt de går för dem. Särskilt som de får en massa allmosor av staten i form av presstöd. Trots allt handlar är det enorma förbättringar de kan få med en ytterst begränsad arbetsinsats om man skärper till sig. Sedan räcker det nog inte längre för dom alla. De är sent ute. Nu handlar det om vem som klarar att skärpa till sig först.

Synpunkter? Vad tror ni? Tycker ni jag är elak? Fast det här är bra tips. Den som lyssnar bäst och klarar av att gå vidare från det kan bli den tidning som klarar sig bäst på webben.