2009-01-27
Nu har jag genomfört en första testomgång av offentliga webbplatser. Listan över ingående webbplatser är hämtad från Riksdag & Departements tjänst Offentliga Sverige samt föteckningen över tidningar med presstöd från Presstödsnämnden (undantaget de som saknar webbplats med redaktionellt innehåll). Saknar du någon webbplats som bör ingå i testet så kontakta gärna mig.
Vad testas?
En skillnad från då Verva genomförde testet är att det nu är fler mätpunkter som kontrolleras. Merparten är från riktlinjer med prioritet 1 (test 1 till 9), men det finns även med några av prioritet 2 och 3. Vill du genomföra testerna på din egen webbplats finns instruktioner i förklaringen till respektive test.
detta är den första mätningen och det kan förekomma fel. Rapportera gärna eventuella avvikelser du stöter på.
Resultat
Sammanfattningsvis är det bara ett fåtal webbplatser som klarar testerna med prioritet 1 och endast tre webbplatser som klarar samtliga tester. Några av felen är för de flesta enkla att korrigera (t.ex. att webbplatsen skall kunna nås utan att skriva "www" framför adressen) och jag räknar med att många kommer att förbättrat sig kraftigt i nästa mätning. Förbättringar kommer att visas med en trendpil så arbetar du med att minska antalet fel på din webbplats så kommer det att synas mellan mätningarna.
Om man tittar på totala antalet fel istället för de enskilda testerna så är det glädjande att se att hela 90 kommuner har färre än 10 fel.
Visa hela resultatet från mätningen.
Synpunkter?
I den sista kolumnen i testresultatet är det tänkt att namnet på den organisation (t.ex. konsultbolag) som implementerat mallarna. Initialt tänkte jag redovisa vilket publiceringsverktyg som använts, men vid en stickprovskontroll visade det sig att samma publiceringsverktyg förekommer i både bra och dåliga testresultat. Därmed borde det vara mer relevant att veta vem som skapat mallar.
Vill du kommentera testet så gör gärna det i anslutning till detta inlägg.

Kommentarer
Jag skulle gärna se vilket publiceringsverktyg som används, ta inte bort den kolumnen. Intressant att även ha med versionsnummer. Vet inte hur det är med webbplatserna på listan men vissa företag struntar i att uppdatera exempelvis EPiserver pga priset och blir kvar med en gammal version som utvecklarna inte kan göra några 'moderna' lösningar på.
Det här med leverantör, mallar och publiceringssystem är lurigt.. Frågan är vad det säger egentligen. Och vad man bakar in i begreppen. I vissa fall har man ju en leverantör av prototypen och en annan som implementerar och driftsätter den. Sedan kan redaktörerna, avsiktligt eller ej, skapa både validerande och ickevaliderande innehåll nästan oberoende av CMS. Det är alltid en kombination av alla dessa delar - leverantörer och redaktörer - som avgör hur "grön" en sajt blir i ett sånt här test.
För att förtydliga: Vilken av leverantörerna Cloud Nine, Meridium, Getupdated, Citybreak, ImageVault, NetRelations, Oakwood Creative, MRM Starsky, Euroling SiteSeeker och VisitSweden själva ska man klandra för att Sveriges bästa sajt 2008 inte validerar till 100%? Det blir lätt lite snärjigt..
Anton, min tanke var att det bara skulle vara på de webbplatser som klarade samtliga tester (de i tabellen på sammanfattningssidan). Syftet var inte att "sätta dit" någon, utan snarare premiera de som verkar göra ett bra jobb. Men du har rätt, i många fall är det svårt att veta vem som gjort vad i ett projekt. Dock tror jag att kombinationen av verktyg och leverantör av uppmärkningskoden kan inspirera andra att försöka göra bra projekt. Samtliga leverantörer du räknar upp har väl inte varit med och skapat CSS och uppmärkningskod på startsidan på Visitsweden?
Peter: Ok, då är jag med. Nja, alla leverantörer är som du säger inte ansvariga för presentationskoden. Jag borde väl gallrat bland namnen lite där. Vad jag är ute efter är kanske bara att visa på problematiken med att man ibland bara levererar en del av vad som hanteras som en enda stor massa i validatorn - t ex kan en CMS-plugin orsaka valideringsfel i RSS-en som varken redaktören eller den som gjort prototypen förutsett. Men om alla sköter sitt jobb så ska de väl få synas med sitt namn, kan man ju tycka :) Min poäng är väl att äran är hyfsat kollektiv om allt är "grönt". I en drömvärld skulle man ju även ha en kolumn för de redaktörer som märkt upp innehållet bäst och en för CMS-tillverkaren som gett lagom mycket frihet åt alla inblandade parter. Hursomhelst är det skönt att se dessa tester leva vidare och att se de gröna rutorna ta över de röda, vilket jag utgår från att vi kommer märka i test #2! :)
Först får jag säga att det är roligt att testet lever vidare och vidareutvecklats. Kan hålla med både Anton och Peter i samtalet om leverantörer, men tycker nog det hade vart fint att dom som har gjort ett bra jobb ska få lite cred och kan inspirera andra till att göra ett ännu bättre arbete nästa gång. Även om listan i bland kanske kan bli lång. Men som ni har sagt innan så kan listan bli lång men någon gallring kan nog göras, kanske med hjälp av en ansvarig för webbplatsen/projektet (även om det kanske tar lite extra tid).
Sedan kan man ju argumentera för att verktyget i kombination med gränssnittsutvecklingen inte skall göra det möjligt att publicera sidor som inte validerar, innehåller bilder som saknar alt-attribut eller har felaktig rubrikstruktur. Men kanske är det fortfarande för komplicerat med dagens verktyg.
Katten: Man får fel om man missat att ha med alt-attributet. Det går inte maskinellt att avgöra om det skall vara text eller inte i det, så alt="" är godkänt. Har man dock inte med något alt-attribut på bilden överhuvudtaget får man ett fel. Flera bilder ger flera fel. Jag skall tydliggöra testbeskrivningen.
Vet inte om det är någon skillnad på att använda sig av ett mellanslag eller inte. Men det känns tryggast att inte göra det. Så att inte mellanslaget tolkas av någon. Någon som vet om ett mellanslags i alt-texten får någon betydelse?
Katten: Inga problem! Om alt-attributet finns med, oavsett innehåll, rapporteras inget fel i testet.
Hej alla
Super att det görs och all heder till Peter för nedlagt arbete...men... Finns det någon som har släppt tekniken och börjat kolla VAD webbplatserna innehåller istället? Visst, det är intressant (och självklart) att de ska valideras felfritt, men det känns lite tjatigt eftersom de flesta som jobbar med det vet att det till åtminstonde viss del handlar om teknik, och brist i de tekniska lösningarna, snarare än illvilja. Vilket även Peter insett eftersom han diskuterar om det ska sättas ut konsultnamn för mallansvaret. Vad kosnulterna lämnar ifrån sig säger väl fö inte hela sanningen helelr om någon klåfingrig redaktör är där med fingrarna. Avstå gärna det.
Det vore också intressant att försöka sig på att klassificera valideringsfelen och inte bara bunta ihop allt. Validerar med 187 fel (jag fick 190 på goteborg.se) varav 20 allvarliga är ju lite annorlunda än validerar 187 fel varav 100 allvarliga. Typ.
Jag skulle vara mycket, mycket intresserad av att någonstans vara med i ett samtal som fokuserar på innehållet snarare än bristerna i den tekniska lösningen. Ärligt talat, om webbplatsen validerar ok, men inte innehåller "någonting anvädnbart". Är det bra? Att hylla valideringsgodkända sidor, utan vettigt inenhåll?
Var finns sidorna som visar sammantällningar på vilka eTjänster som finns framme, och hur de används, och vad de kostade att bygga? Och hur väl de fungerar, vilken nytta de gjorde.
Var är alla goda ideer om hur vi ska ta det vidare? Till nästa steg.
Gnälligt? ja kanske. Antagligen, lite. ber om ursäkt för det. men ändå... Hör gärna av er om ni vill lars.samuelsson at miljo.goteborg.se :-)
Lars: Tack för din feedback. Testerna utgår från riktlinjerna i Vägledningen 24-timmarswebben. Många av dessa är tekniska till sin karaktär. Du har rätt i att det skiljer sig mycket i mellan t.ex. olika typer av valideringsfel. Jag övervägde först att valideringstestet skulle resultera i godkänt om man hade färre än 10 fel. Jag rådfrågade andra som arbetar med att bygga webbplatser de kom fram till att man inte "nästan" kan följa en standard. Det är ett binärt läge, antingen validerar man, eller också inte. Sedan kan man diskutera vikten av just det testet.
Beträffande tjänsteinnehåll förekommer du mig. Det är ett område som ligger vi sidan av detta test (som utgår från standardisering och i viss mån teknisk tillgänglighet) och kanske främst är intressant för kommuner. Jag har en skiss på utvärdering av kommunala webbplatser ur ett tjänsteperspektiv (dvs vilka tjänster man tillhandahåller). Det är dock betydligt jobbigare att samla in informationen eftersom det inte går att automatisera. Men jag återkommer i ärendet och tar tacksamt emot idéer.
Katten: Om du inkluderar ett mellanslag så kan vissa äldre webbläsare felaktigt visa en tom gul ruta (tooltip) då man för markören över bilden. Därför bör du undvika mellanslaget och helt enkelt inte ha någon text alls. Så rekommendationen är korrekt.
Katten: Angående tomma alt-texter så är det också så att om man inkluderar ett mellanslag kommer vissa skärmläsare att läsa upp det som "space" eller "mellanslag", vilket man förmodligen inte vill. Så det som står i vägledningen stämmer.
Lars: Detta med att bedöma innehållets vettighet är ju tyvärr lite som att med streckkodsläsare försöka avgöra om mjölken är färsk eller chipsen goda. Det går nog inte att automatisera helt enkelt.
Men om man får drömma, skulle man kunna väga in aktualitet genom att kolla på publiceringsdatum eller "se" innehållet i bilderna och jämföra dess relevans med texten? Hm, nej, jag tror nog att det blir svårt att avgöra aktualitet och relevans annat än att kvalitetssäkra innehållet manuellt.
Anton: Jag pratar inte om innehåll i den traditionella betydelsen, utan mer om vilken service man som medborgare kan få hjälp med.
Informationsinenhållet och dess uppdateringsdatum i all ära, men de verkliga vinsterna, både för medborgaren och kommunen/staten, uppstår först när vi fått lite bättre stuns på de automatiserade flödena även på insidan.
Automatisera den tror jag inte går, eftersom många komemr att vara låsta för de egna medborgarna/de som har något med kommunen att göra, men en samlingskatalog skulle vi kunna åstakomma gemensamt.
Peter: Tack för kommentaren, jag tror att jämförelsen är intressant för oss i kommunerna (man sneglar på varandra och blir inspirerad av andra), men i många fall ska information flyttas mellan olika organisationer och olika sorters system och då blir plötsligt också statens eförvaltning intressant. Om inte staten kan leverera sin del i en gemensam process så uppstår inte nyttan för kommunen att skapa den på sin nivå.
Möjligen komemr samarbeten i dessa avseenden ffa att manifestera sig först inom vård och omsorgsområdet där de statliga (regionala) respektive kommunala uppdragen går in i varandra.
Kommentera