Gennem flere år har Google haft en sætning i deres vejledning til, hvordan du nemmest skaber en søgemaskinevenlig hjemmeside, som godt nok er overset af flertallet, og som nu er væk. Indtil videre kun i den engelske version af retningslinjerne – men det er nok bare et spørgsmål om, at det ikke er oversat endnu. Det handler om dynamiske URL – altså adresser med dynamiske parametre som f.eks. “?” i
Google retningslinjer
Lad os lige starte med at genopfriske den omtalte sætning, som du – hvis du er programmør – naturligvis kender og har fulgt….ikke?
Overvej at oprette statiske kopier af dynamiske sider. Selvom Google-indekset indeholder dynamiske sider, udgør de en lille del af vores indeks. Hvis du har mistanke om, at dine dynamisk genererede sider (f.eks. webadresser, der indeholder spørgsmålstegn) medfører problemer for vores webcrawler, kan du oprette statiske kopier af disse sider. Hvis du opretter statiske kopier, skal du huske at føje dine dynamiske sider til filen robots.txt for at forhindre os i at behandle dem som duplikater.
Hele dette afsnit er nu fjernet fra Googles retningslinjer på engelsk – det observerede Brian Ussery i Atlanta i dag.
Vi har gennem lang tid efterhånden set, hvordan Google er blevet bedre og bedre til at crawle indhold, der er “puttet” bag diverse barrierer, som for blot et år siden var umulige for Google at gennemtrænge. Det er selvfølgelig herligt, men det stiller stadigt større krav til udviklerne af hjemmesider og – ikke mindst – til udviklere af CMS.
Det er jo, som tidligere dokumenteret, ikke ligefrem Google retningslinjer, der er frokostlæsning hos de danske CMS huse, så derfor snupper vi lige et lille uddrag fra de vejledninger, der gælder:
Opret ikke flere kopier af en side under forskellige webadresser. Mange websteder tilbyder tekstbaserede eller udskriftsvenlige versioner af sider, der indeholder det samme indhold som de tilsvarende sider med grafik. Hvis du vil sikre, at din foretrukne side inkluderes i vores søgeresultater, skal du spærre kopier for vores spiders ved brug af en robots.txt-fil. Du finder oplysninger om brug af en robots.txt-fil ved at referere til vores oplysninger om spærring af Googlebot.
Venlige URL – for øjet
At Google i henhold til deres retningslinjer nu ikke længere ser dynamiske URL som en hindring, ændrer ikke på det faktum, at relativt korte og beskrivende URL er at foretrække for øjets skyld. Det er stadig nemmere at afkode en adresse i Googles søgeresultat, der hedder “billige-kaffemeaskiner.dk/kaffemaskiner-med-kalkfilter” end “billige-kaffemaskiner.dk/category.asp?catalog_name=kaffemaskiner&category_name=Ceva&parent_category_name=stor&Expand=$2$$2$&ISOLanguage=DNK”. Du kan godt se forskellen, ikke? 😉
Altså: Google har tilsyneladende tunet den lille og flittige Googlebot endnu engang – til glæde og gavn for dynamisk opbyggede sites. Og til eftertanke for webudviklere, der ikke ved, at duplicate content ikke er noget, der kommer ud af en kopimaskine.
Rosenstand out!
Tsk tsk.. Der der vist ikke noget der hedder en kaffemeaskine? 🙂 Medmindre selvfølgelig at man optimere til stavefejl og stauefejl.
Men udover det, så er jeg helt enig i at pæne URL’er er at foretrække frem for URL’er med en masse parameter i, men det er bare ikke altid nemt at implementere… Desværre.
Kan du opføre dig ordentligt, knejt! Ellers kommer jeg over og “tsk – tsk’er” på din blog! He-he… Den har du ventet længe på, hva’? 🙂 For øvrigt hedder det parametre i flertal… (Got you!).
Næ – det er langt fra alle systemer, der kan håndtere det, men når det er muligt, er det godt.
Hej Thomas!
Tak for at bringe nyheden her til lands. Det er sgu godt set (eller change tracket) af Brian Ussery!
Følger du hans blog, eller fik du nys om ændringen ad anden vej?
/Kasper
Velbekomme! Jeg har feed fra http://www.seroundtable.com/ og der samles alt det spændende. En del af det i hvert fald…
Det var dælme et hurtigt svar! Tak for det – og feedet.
/Kasper
Den har jeg ventet umådelig længe på, og så lykkedes det mig alligevel og kikse… parameter eller parametre.. Det er da også kun dig der ser den slags små ubetydelige fejl 🙂
Hej, – det er positivt at se at Google får lukket flere og flere huller, som åbentlyst giver problemer for mange – bl.a. danske CMS-leverandører 😉 – selvom jeg nu synes at det er noget pinligt, hvis jeg var i deres små sommersko….
Men omvendt bekræfter det jo alt for godt at double content har været et stort issue – også for Google. Vil nu nok stadig fare med lempe og se på hvor godt Google rent faktisk gør det – det er jo ikke et stort kodeteknisk problem at overholde den simple regel om én side til én URL (nåja, det skulle så åbentbart lige være medmindre man er CMS’er)
Foreløbig ser det ganske lovende ud. Selv tidligere helt “håbløse URL” er i dag med i index. Men selv Google har begrænsninger – selvfølgelig.
Tjekkede lige et udviklingsdomæne hos et dansk CMS hus – godt 55.000 kundesider indekseret. Der er laaaang vej igen.
Så sent som i dag har jeg måttet aflevere en rapport til en virksomhed, der netop har betalt godt en kvart million for en ny hjemmeside, der er sprængfyldt med 302 redirects, duplicate content, fejl i tegnsæt og mere til. Men hvad… Så har den gamle jo lidt at lave 😉
Gad vide hvornår xx fatter vinket med vognstangen 🙂
Modsat kan man lave små 19 milliarder links til den samme side på deres system, så der skal vist mere end blot en lukning af deres demo domæne til… tsk tsk
Tjaaa.. Det er ikke godt at vide. Måske interesserer det dem ikke? Jeg har rettet din kommentar til xx – håber det er OK. Jeg har ikke nogen lyst til at hænge dem mere offentligt ud, end det allerede er gjort. Og jo – dit gæt var 100% korrekt.
Google har sådan set været ret venlig ved mig i flere måneder, selv om min tekstforfatter-side slutter med ?page_id=2.
Den sidste tid har jeg ligget rimeligt pænt i resultaterne – men ok, der er jo nok heller ikke helt så megen sværdfægteri omkring dét søgeord…
🙂
Tak for input …. vi arbejder en totalt remake af vores CMS System. Så hvis der er flere guldkorn må i hjertens gerne gøre mig opmærksom på dem … selvom jeg er ved at fornemme vi har styr på det meste efterhånden 🙂
CMS er ind imellem noget fanden har skabt – men det er med til at gøre nogen af os seo folk velhavende 🙂 , Dog er det mit indtryk at flere og flere af udviklerhusene har fået integreret en bedre styring af de enkelte url-er og directories – men der er stadig nogen der kan lære noget!
Mikkel – husk at tjekke din anden kommentar her. Et “guldkorn”: ALDRIG 302 redirect på noget som helst, der ikke er en midlertidig flytning af en URL. ALDRIG!
Jo såmænd, Karsten (Strategen). Men et eksempel: Den 29. august skal jeg undervise hele dagen for Huset Markedsføring for 15 virksomheder. De 9 af disse virksomheders hjemmesider er sprængfyldte med fejl, der er genereret af det CMS, de er bygget i. Og det er flere forskellige og “store og anerkendte” systemer.
Så jo: Der er arbejde nok i lang tid 🙂
Jeg har et lidt “modsat” seo-problem: Hvordan sub-optimerer jeg min hjemmeside… Jeg kunne godt tænke mig at kunne bede Google om IKKE at matche hvisse søgeord til min hjemmeside, givet visse betingelser. Jeg har en servicevirksomhed, hvor jeg kører ud til folk, og lever mest af organiske søgeresultater på Google. Men da jeg har rigeligt at lave lokalt (og ikke ønsker at ekspandere forretningen p.t.), kunne jeg godt tænke mig at bede Google om fx ikke at vise min hjemmeside på visse søgeord, eller hvis fx klient-IP adressen ikke er i mit lokalområde, lidt a’la hvad Google tilbyder med AdWords. Det ville være let for Google at respektere en sådan “subtimering” ved fx at scanne efter nogle google-specifikke HTML meta-tags. Men jeg har ikke kunnet finde noget som helst der indikerer, at Google har en sådan mulighed. Det ville også være relevant for butikker der kun handler i visse lande, og derfor ikke ønsker deres hjemmesider eksponeret udenfor disse.
Er der nogen der ved om dette findes, eller hvor/hvordan man foreslår det til Google?
Hej Morten
Det ville være smart, men den mulighed findes ganske enkelt ikke. Du må klare det ved at være tydelig i din kommunikation på sitet, så dine gæster kan se, at du kun agerer lokalt.
Hej Thomas
Fandt lige din spændende information. tak for det.
et tillægsspørgsmål – hvis man bruger en url parameter til at switche mellem forskellig visning af content eller forskellig content, kan man så havne ud i en situation hvor google ikke kan se det indhold der normalt vli blive vist på ex. side.aspx?Mode=1, hvor “Mode=1” bliver fanget i en template og
hvis Mode = 1 ==> vis item X,
eller
hvis Mode != 1 ==> vis item
Linket til siden indeholder selvfølgelig parametren.
Håber du kan svare
mvh
Rasmus
Hej Rasmus
Måske kan jeg svare – hvis jeg har forstået spørgsmålet korrekt. Hvis der er links i den genererede kildekode til de andre visninger, vil googlebot også finde dem. Men vær forsigtig med at skabe forskellige visninger af samme indhold – det vil blot generere duplicate content for dig.
Hej Tak,
Og tak for advarslen 🙂
Der ligger en url-parser bagved som emulerer at man bevæger sig ned i et varegruppehierarki, således at urlen f. eks skifter fra
/varegruppe1/undergruppe1.aspx?Mode=1
til
/varegruppe1/undergruppe1/undergruppe1.1.aspx?Mode=2
Så vidt jeg er orienteret vil Google opfatte de to urler som unikke.
Hvis man er snedig kan man bare skifte mode-værdien og så få de forskellige visninger, men det er ikke noget vi regner med at almindelige besøgende vil gøre, og der er ikke tale om hemmelige informationer 🙂
Så med dit svar in mente, så tør vi godt gå videre med den approach.
Tak
/Rasmus Thirslund