Panda Update… Du har sikkert hørt om den allerede? Den blev kaldt Farmer Update i begyndelsen, men det officielle navn, som Google har givet den, er altså Panda. Og det er jo deres system, så det kalder jeg den også. Vi er jo vant til at forbinde pandaer med sådan nogle hygge-nygge-pusse bamser selvom virkeligheden er, at de er nogle slemt aggressive bæster. Og jeg er ret sikker på, at den kære Panda Update fra Google minder en del om bamsebjørnen.
Hvad er Panda Update?
Panda Update er en opdatering af Googles algoritme, der har til formål at bortsortere sider med lav kvalitet fra deres indeks. Men hvem kan afgøre, hvad der er lav kvalitet? Det er jo ofte en subjektiv betragtning i den virkelige verden. Hos Google ser det ud til, at det afgøres via en vurdering af siders bounce rate – med overvejende sandsynlighed hentet via Analytics og Googles Toolbar.
Hvorfor hedder den Panda Update?
Biswanath Panda – det er navnet på en fyr i Google. Og han publicerede i 2009 en undersøgelse, som han har lavet sammen med andre i Google af, hvordan Google kunne bestemme kvaliteten af en given side baseret på denne sides bounce rate.
Har du lyst, kan du læse hele rapporten her (PDF)
Oprindelig blev undersøgelsen og forsøgene kørt i forhold til AdWords, men den nævner også, at disse resultater kan overføres til organiske resultater.
Kvaliteten for de enkelte sider påvirker hele sitet
I dag har Google så også meldt ud, at et site kan blive deranket generelt, hvis der er mange sider på det, der bedømmes som af lav kvalitet. Læs lige den sætning igen!
Det betyder sandsynligvis, at selvom du måtte have en hjemmeside / shop med masser af kvalitativt indhold og sider med lav bounce rate og høj konvertering, kan du stadig blive ramt af den fæle panda, hvis du samtidig har en stor del sider, som Google vælger at bedømme som ”lav kvalitet”.
Og hvad så? Jeg har skrevet en artikel med lidt konkrete her-og-nu tiltag på E-University i dag. Men jeg kan ikke slippe tanken om, at der kan være endnu en faktor i det her:
Duplicate Content igen – igen
Hvis et site har duplicate content (og det har alt, alt for mange), vil der være et stort antal af det sites sider i supplerende indeks. Og der er de, fordi Google har vurderet, at de er helt eller tæt på kopier af andre URLs på sitet – og som følge deraf er af lav kvalitet.
Disse sider er alle kendte af Google (i sagens natur), men da de er i supplerende indeks, får de ikke så mange gæster – og det er jo én af de parametre, der måles på i forhold til Panda Update.
Vi ser hele tiden sites, der er så befængte med duplicate content, at det er halvdelen (eller mere) af alle indekserede URLs, der ligger i supplerende indeks. Hvilken betydning mon det vil have, når Panda Update rulles ud i Danmark, og der foretages en vurdering med den tilkobling på algoritmen?
Her i USA er pandaen sluppet løs, og mange sites er ramte – lige fra lidt ramte til nærmest katastrofalt ramte. I nogle tilfælde sidder webmasterne bag de ramte sites tilbage med det store spørgsmål: Hvorfor?
Jeg har kigget på et enkelt af de ramte sites (og jeg kan desværre ikke sige hvilket, da ejeren har bedt mig om at holde det for mig selv), og det site kunne ikke med selv den ondeste vilje kaldes af lav kvalitet. Der var heller ikke udført nogen cowboytrick, overoptimering eller andet snask.
Duplicate Content
Der var faktisk kun ét problem med det site: Masser af duplicate content!
Det er alt for usikkert at konkludere på baggrund af det ene site, men det styrker da teorien om, at duplicate content kan være en faktor i forhold til kvalitetsvurderingen i Panda Update, ikke?
Nu er det jo ingen hemmelighed, at duplicate content i årevis har været et kæmpeproblem. Jeg ved godt, at der findes nogle, der siger, at det er et ikke eksisterende problem – jeg har en ret sikker formodning om, at det primært er folk, der ikke aner, hvad de skal stille op med det, der siger sådan. Jeg plejer at spørge dem (tvivlerne): ”Hvis duplicate content ikke var et problem, hvorfor har søgemaskinerne så brugt enorme ressourcer på Canonical URL tag, diverse tiltag i deres Webmaster Tools etc. samt nøje beskrevet i deres guidelines, hvor vigtigt det er at undgå?”. Jeg får aldrig noget svar.
Men hvad tror du? Kan duplicate content på et site være en ”udløsende faktor” i relation til Panda Update? Lad os diskutere det og finde ud af, om jeg bare er paranoid.
Rosenstand out!
Det lyder umiddelbart som nogle lidt løse vurderinger, de vil lave.
På et kursus, jeg var på i går, beskrev Jacob Kildebogaard eksempelvis, hvordan implementering af event tracking i Google Analytics nemt kan påvirke bounce rate, så den skævvrides til for lave tal. Hvis de tager tallene fra Analytics, så vil man med event tracking kunne komme uden om “fælden”. Jeg blev selv udsat for problemet på et tidspunkt, hvor jeg implementerede event tracking forkert og dermed fik en bounce rate på 0 ifølge Analytics. Så det vil næsten kræve, at Google har flere sæt værdier, så de har nogle interne tal og nogle andre tal, som brugerne får vist i Analytics.
På nogle typer websteder kan en høj bounce rate eksempelvis også betyde, at indholdet ramte helt i plet, og at brugerne ikke behøvede at rode mere rundt på webstedet for at finde det relevante svar. Så selvom de sikkert vil foretage en vægtning af forholdet mellem antal besøg på en side og sidens bounce rate, så kan deres vurdering meget nemt ramme helt skævt.
Det ville vel så også i princippet kunne være en fordel ikke at bruge Analytics, så Google ikke har tallene, og det kan vel næppe kaldes et kvalitetsstempel i Google øjne, hvis man undlader at bruge Analytics.
En direkte straf for duplicate content vil, som du er inde på, også ramme meget skævt. Det kan jo være ualmindeligt svært at undgå i en webbutik, hvis man har ensartede varer og bruger en løsning, der ikke giver mulighed for at anvende canonical-tag’en. Alternativet kan være at rable en masse tekst af sig på de enkelte produktsider, som ikke nødvendigvis gør siden mere brugervenlig, og siderne får dermed en væsentligt lavere kvalitet bedømt ud fra andre parametre.
Så med hensyn til duplicate content vil jeg mene, at en deranking af dublerede sider er helt fint, men det må ramme virkelig skævt, hvis det samtidig kan betyde væsentligt dårligere rankings for webstedet som helhed. Men mon ikke de så sætter en grænse for, at hvis XX % af indholdet er dubleret, så er det så skidt, at hele webstedet skal straffes.
Det bliver i hvert fald spændende at se, men umiddelbart kan man frygte, at det vil skade godt indhold mere end det vil forhindre “dårligt” indhold.
Tja – de har jo altså også tallene fra Google Toolbar, og det er jo nogle meget detaljerede data, alle med den installeret sender til Mountain View. Og jeg har ikke nævnt de andre faktorer som forbrugt tid på siden, som Google jo også kender fra de samme kilder. Jeg tror, at Google har taget højde for de ting, du nævner så godt, de kan lige nu.
Mht. duplicate content: Det er jo faktuelt, at alle sites med problemet bliver negativt påvirket af det – også pre-Panda. Min “bekymring” går blot på, om ikke det bliver endnu mere udtalt med Panda Update. Og ja – der er altid risiko for, at uskyldige ryger med i svinget.
Jeg skulle lige til at skrive, at det vel kun er et (stort) mindretal, der har Google Toolbar installeret, men det er nok rimelig naivt 🙂 – det er nok nærmere det modsatte, der er tilfældet. De har sikkert sneget den ind overalt.
Generelt virker det lidt som om, at Google i jagten på at udrydde dårlige resultater, og vel også samtidig forhindre spamming af søgeresultaterne, netop gør det umuligt for ikke-spammere at opnå placeringer i søgeresultaterne (okay, den vej er vi allerede et stykke nede ad, men det bliver da bestemt ikke bedre).
En ting er sikkert.. behold din hvide hat på, hvis du vil noget med SEO nu og i fremtiden. Its a war out there.
Heldigvis er jeg hvid som sne, og tænker kun på mine kunder, så jeg ryger bare længere og længere op for hver update.
Fred være med dem som er uskyldig dømt
Hmm. Hvis man kun har én side, så bliver man vel også ramt? Mange af mine sider består af én side, og det gør jo, at bounce raten automatisk stiger til 90-100 procent. For de besøgende har jo ikke andre valgmuligheder, end at forlade siden.
Er der så logik i at antage, at jeg skal dele mit indhold op på flere sider, for at løse bounce rate-problematikken?
Tja… Hvis vi skal forholde os til Googles indgangsvinkel, vil en “flad” side udelukkende med afilliate links og annoncer nok være at regne som et lavt kvalitetsresultat. Logikken vil sige, at du skal have flere sider. Men lad mig understrege, at Panda Update stadig er ny, og vi mangler flere data at forholde os til.
Der er en større overhaling af alle mine sider på vej alligevel, som bl.a. betyder flere sider, artikler m.m. Så er ikke overdrevet bekymret – men du har ret, vi må lige se tiden an.
Mht. til de flade sider med få sider, har jeg observeret at rigtig mange affiliate sites af den slags er forsvundet fra indekset i den seneste tid, så kun de sites der har mere end pristabeller og 3 undersider er på side 1 af de vigtige søgninger.
Selvom jeg har en lille håndfuld af den slags sider er det ikke noget jeg tuder over, for jeg har alligevel ikke tjent penge på den slags da de også kom frem i indekset. Kun de sites hvor der arbejdes meget seriøst med indholdet ser jeg også stabil indtjening på. Så jeg har ændret strategi fra kvantitet til kvalitet, og det er faktisk også det sjoveste at arbejde med.
Jeg vil iøvrigt give Thomas ret i at duplicate content formentlig får en større rolle, når Google officielt melder ud at lavkvalitet kan ramme sitet generelt, for det er jo lige hvad duplicate content er.
Det er værd at bemærke, at de amerikanske debatter om de Panda-ramte sider også har drejet sig ganske meget om “ads vs. content ratio”. Altså at sider med massive reklamer, der dominerer siden og meget små mængder indhold, i høj grad er blevet ramt.
Om det så skyldes at den slags sider har høj bouncerate, meget kort brugertid på siden etc. er en anden snak. I hvert fald er det værd at kaste et blik på sine sider og se, om de måske er lige reklametunge nok.
(Mht. at måle bouncerate m.m., så har Google flere våben i arsenalet end Toolbar og Analytics. De kan vel også analysere på, hvor lang tid der går, fra at jeg klikker på svend-bendts-spamsite.dk i et søgeresultat til jeg søger på Google igen eller klikker på et andet resultat i samme søgning efter at have trykket pil-tilbage).
Hej Frank
Jo – Google har mange parametre at måle på. Og de bruger dem!
Hvis bouncerate alene som parameter kan være udslagsgivende for denne “Panda update” kan jeg personligt godt se problemer med dette…
Risikere vi ikke at ende i “IKEA”-lignende tilstande hvor webmasters mfl. prøver at sortere i hvem der sender dem trafik, da trafik med høj bounce rate sender dem ned i søgeresultaterne ?
Nu er det selvfølgeligt godt at Google prøver at bortsortere dårlige lav-kvalitets sites men dette kan vel også ramme uskyldige så !?
Jeg mener… Man bestemmer jo ikke selv hvem der linker til ens site… og dette kan jo ubevidst bruges imod en. Et stort site kan jo tvinge et lille niche site i knæ ved at sende dem en stor mængde urelevant trafik der får deres relativt beskedne trafik til at til at eksplodere og dermed give dem en relativ høj bouncerate over en længere periode.
Og dette vil vel også kunne misbruges af ens konkurrenter da lav-kvalitets trafik (med ekstrem høj bouncerate)vel ikke koster det store… !?
Google har også ramt sites der ikke har duplikeret indhold, dette betyder, der er flere faktorer i deres nye algoritme, som kan være udslagsgivende.
Tidsfaktoren kan være en af dem, en anden kan være som Frank nævner annoncer fra forskellige udbydere, de har i en eller anden sammenhæng identifikationsstrenge, der er hurtigt identificerbare og hurtigt kan indsættes i et kvalitetssystem, således de kan fungere på tværs af mange domæner. Dette kombineret med algoritmen som består af en menneskelig faktor.
Husk! Google læser fint javascript, det har de gjort i snart mange år.
Tidsfaktoren og andre oplysninger kan de hente mange steder fra, men viser det sig, det er Google analytics, der bruges til denne øvelse, vil dette system hurtigt få problemer, hvis det kommer ud public. Personligt tror jeg ikke på de anvender Analytics, det vil være at skyde sig selv i foden.
Google er ikke blevet mere intelligent efter opdateringen.
Søgemaskinens vægtningsalgoritme har vi talt om tidligere, så det undlader jeg at kommentere på public.
Hvad jeg finder mest ærgerligt ved alle google’s (og andre søgemaskiners) udrulninger af nye updates som nu Pandaen, og tidligere tiltag mod dårligt indhold/kvalitet på nettet, er at det også rammer helt udskyldige små sites, med nogle virkelige ildsjæle og i mange tilfælde utrolig dygtige folk indenfor deres felt, men uden den fjerneste anelse om professionel SEO.
Disse mange tusinde (?) sites vil blive ramt af dette, uden tvivl, idet ingen af dem har forstand på duplicate content, nofollow mv. – og de har ingen anelse om at det rammer dem, og slutteligt har de heller ikke hverken tid eller penge til at gøre noget ved det, skulle de blive gjort opmærksomme på det.
Jeg frygter generelt en forringelse af søgemaskinernes resultater, til fremover kun at være virksomheder eller personer over en vis standard indenfor SEO-viden, der kan producere (læs: har økonomien til at gennemføre) sites og information som agerer rigtigt i forhold til robotterne algoritmer på søgeresultaterne. Dette vil resultere i at nogle få % vil være markedsledende og kunne udstyre omverdenen med den information de ønsker, ganske enkelt fordi de har tiden, magten og ikke mindst økonomien til at konstruere deres sites så google-venlige som mulige.
Jeg er faktisk tæt på at brække mig over det!! Men er det kun mig??
Og dermed spejler søgemaskinerne blot, som resten af verden fungerer. F. eks. har JP også større publikum end Hadsund Ugeavis 😉
Jeg kan sagtens følge dig, men hvis bare alle CMS var korrekt bygget, ville alle også ‘stå lige’. Så måske er galden mere rigtigt at rette mod dem, der leverer dårlige platforme?
Hej Thomas
Helt korrekt – og netop denne udvikling bekymrer mig?!
Jeg har været med til at lave en del PR igennem tiden, og blandt andet skulle vi have lavet noget omtale for et lokalt foretagende ude på Amager, et virkelig nobelt projekt med ægte ildsjæle og et rigtig unikt projekt.
Vi gik målrettet efter at få skabt noget omtale om dem i Sundbyerne og andre små lokale medier i området, hvilket til sidst (og helt planlagt i øvrigt) bragte historien op igennem mediestrømmen og til sidst mundede ud i et 14 minutters indslag på TV2.
Dét google gør her, er jo netop at eliminere de “små lokale medier” med den unikke jounalistik, den unikke historie, og overlader fuldstændig platformen til de store toneangivende “medier”, der allerede i dag har fyret 2/3 af deres journalistiske stab og udelukkende fører kopi-journalistik med dårlige oversættelser kørt igennem google translate fra udenlandske nyhedsbureauer 😉
Omskrevet, det er endnu engang mastodonterne der vinder, og de små der taber. Jeg synes det er ærgerligt, især set i lyset af at der findes utrolig meget unik information ude omkring på nettet, leveret på plug-and-play platforme (wordpress mv.) af folk som brænder for noget unikt og ikke har en fløjtende forstand på SEO.
Men det komplette overblik over effekten af Panda update kan jo umiddelbart være lidt svært at overskue.
Hej Mads
Jeg tror god jeg kan følge dig. Men er det ikke lidt en pseudoproblematik? Forskellen på de såkaldte ildsjæle og så de store hvide hvaler, er jo netop, at de ikke kæmper om de samme hits.
Dem der primært vil blive ramt af det her er jo alle affiliate-folkene. Det er naturligvis ærgeligt for dem. Men som almindelig bruger af internettet synes jeg ærligt talt det kun er en fordel. Jeg er sådan set ved at være godt og grundigt træt af at flere og flere søgninger bliver domineret af mere eller mindre ens affiliate-sites. F.eks. skulle jeg for nyligt finde mig en ny leverandør af forskellige hostingløsninger. I den forbindelse var en af de søgninger jeg foretog mig denne “bedste webhotel”. Naiv som jeg var håbede jeg naturligvis, at finde nogle objektive tests. Istedet fandt jeg, blandt de ti første (organiske) hits, fem affiliate-sites, tre debat-fora (den yngste tråd var et lille år gammel og den ældste over nu år gammel) og to hostingudbyderes virksomheds-sites. Affiliate-sites kan naturligvis være ganske lødige og det kan virksomheders egne sites naturligvis også være. Men mellem os kan vi vel hurtigt blive enige om at ihvertfald 70% af de organiske hits jeg fik, nærmere var resultatet af at de respektive ejere har sat sig ned, sagt “mit primære mål er at ranke højt på den og den søgning” og så har arbejdet målrettet efter dette. End de var resultatet af de syv sites reelt havde bedre informationer omkring hvilket webhotel er det bedste, end alle deres “konkurrenter”.
Jeg droppede naturligvis hurtigt Google-approach’en og ringede til en god ven, der ved en masse om den slags.
Det jeg vil frem til er at hvis det er virkeligt specifikke ting, som “hvornår blev Descartes født” eller “hvilket farve-gen er dominerende i krydsavling af rødpelsede tamrotter med hvidpelsede tamrotter?”, så er Google kongen! Resultaterne sidder lige i skabet. Men hvis jeg skal søge mere generelt og særligt hvis jeg skal søge information om et populært produkt, der i øvrigt markedsføres via forskellige affiliate-kampagner, så stinker Google mildest talt. Hvilket er et problem af to ret væsentlige grunde.
Først og fremmest udgør den sidste type informationssøgning ikke alene en stor del af Googles trafik, det udgør også en rigtigt betydelig del af deres indtægter. Dernæst er forbrugeren altså heller ikke dummere, end at mange faktisk efterhånden har luret den med affiliate-sites (det er bl.a. derfor affiliates bruger så meget krudt på at cloak’e affiliate-links) og derfor søger mere over mod de klassiske sociale informationsdelinger og især de sociale medier (læs: Googles største konkurrenter).
Det jeg bare ville sige var at jeg sådan set synes Googles nye update virker som en rigtigt positiv ting. Som interesseret i at tjene penge og med viden nok om e-markedsføring til at kunne tjene ok på affiliate, synes jeg naturligvis det er noget hø. Men som menneske og almindelig bruger synes jeg bestemt det er lovende.
Kære Thomas & I andre!
Tak for en spændende, nuanceret diskussion. Google har tidligere været meget klare i spyttet angående, hvorvidt Google Analytics-data blev anvendt i forbindelse med at beregne serps. Der var vandtætte skoder imellem, har det lydt,.
Thomas, hvad bygger du din formodning om, at G nu bruger GA-tal i algoritermen?
Idéen om at gøre at inddrage bounce rate, ATOS og besøgsdybde gi’r selvfølgelig go’ mening, men det er dæleme også et farligt approach ift. opfattelsen af virksomhedens måde at drive business på.
Måske man kunne forestille sig, at der er et ekstra anonymiserende/abstraktionslag i mellem. Altså at tallene bruges til at udvikle kvalitetsformler af generisk karaktér, der så efterfølgend appliceres på virkelige sites?
Alt godt,
Kasper
Der er mange tilfælde, hvor Google siger ét og gør noget andet. Og lad mig understrege, at det er en formodning (mistanke) og ikke en viden, at data fra Analytics benyttes også til rankinganalyser. Til gengæld er det faktuelt, at data fra toolbaren bruges.
Og ja – generiske data fra Analytics bruges helt sikkert til mange sjove ting. Det accepterer man jo også som bruger af Analytics, at de gør.
Jeg tvivler på Google anvender analytics data til nogen som helst form for algoritme – eller beregningsmodel til søgemaskinens vægtningsanalyse i den nye opdatering.
Google analytics og deres privacy er under pres i flere lande. I EU vil der med det kommende cookiedirektiv sættes en stopper for flere af de ting analytics måler på, hvilket betyder der er spotlight på netop analytics! Se bare hvad der sker i Tyskland på denne front.
At anvende et analyseværktøj, der stilles til rådighed som værende neutralt for webstedsejere, hvor data fra andre trafikkilder, såsom Bing, Yahoo, og andre websites indgår – her vil Google have et forklaringsproblem, hvis de udnyttede den mulighed de har for at kigge sine søgemaskinekonkurrenter efter i kortene mv. derudover at anvende tredjeparts adfærd på et tilfældigt website til kvalitetsforbedring af deres søgemaskine, vil virke forkert, specielt når brugerne ikke ved hvilke data, der er indsamlet og hvorledes de anvendes efterfølgende.
På de websites vi på nuværende tidspunkt har testes på det amerikanske marked, er der ingen helt klar logik i Panda opdateringen, men vi arbejder med logfilsanalyser af flere websites på markedet i øjeblikket, normalt vil der altid være sammenhæng imellem IP adresser på tværs af domæner og forskellige tiltag. Når givne IP adresser har besøgt et website og der efterfølgende sker op eller nedgradering af det pågældende website, så vil mønstret normalt kunne aflæses på andre websites, der også er berørt af problemet, her vil typisk figurere samme IP adresser og samme sekvenser.
Google toolbar bruges til registrering af data, her har brugeren givet tilladelse til der indsamles data, det er der ingen tvivl om.
He-he 🙂
Lad mig citere fra Googles TOS for Analytics:
6. INFORMATION RIGHTS AND PUBLICITY . Google and its wholly owned subsidiaries may retain and use, subject to the terms of its Privacy Policy (located at http://www.google.com/privacy.html , or such other URL as Google may provide from time to time), information collected in Your use of the Service.
Men altså – jeg er slet ikke til konspirationsteorier. Jeg nævner blot en mulighed…
Tak for et spændende indlæg! Jeg skal ikke gøre mig klog på den dybere indsigt ud i tekniske og snørklede spørgsmål for jeg ved ikke meget om det, men jeg er blevet noget klogere af at læse her i forhold til at jeg selv er forholdsvis nystartet blogger som er i fuld gang med at lære om SEO, duplicate content og kvalitet i bloggens indhold. Jeg læser med stor interesse her og bliver endnu engang bekræftet i, at man skal holde nallerne fra at kopiere, men selv producere unikke tekster selvom det kan være det lange seje træk i at opnå en god placering på Google.
Jeg vil med interesse læse mere om den store skrækkelige panda såfremt der kommer flere guldkorn…:-)
Hej Thomas.
Ja så sker der noget i det lille kongerige ;o)
Jeg har netop registreret at én af mine kunder, Bolius er blevet ramt af Pandaen…
Og det primære problem med bolius.dk er duplicate content!
Bolius CMS har en defekt, som launcher unikke URL’er til samme side og det resulterer i duplicate content… Og se sker det her: http://www.youtube.com/watch?v=X21mJh6j9i4
Vi arbejder på at få det fikset og jeg skal nok vende tilbage med en update.
Hvis vores ‘fix’ virker, så er der yderligere support til din tese…
I’ll be back!
SørenJ :o)
Kan det tænkes at Google samler data gennem Google Chrome? Det er da efterhånden en ret populære browser. Jeg ved dog ikke om de må det, er ikke den store nørd i at læse det med småt :/
Hej Tobias
Nej – det kan ikke blot tænkes. De samler data ind, og det er helt sikkert. De fortæller det også i deres EULA.