På Stanford University 1995 påbörjar Larry Page ett projekt som heter ”BackRub”. I det projektet vill Page på ett smart sätt se vilka sidor som är sammanlänkade och på det sättet rangordna sidorna, ju mer länkar sidorna har desto bättre bör dom vara. Han har en vän som heter Sergey Brin som snart ska ansluta sig till projektet. Page har byggt något som han kallar för en ”web-crawler”, ett slags program som är ute på internet och samlar information om bl.a. vilka sidor som är sammanlänkade.

För att kunna behandla informationen som webcrawlern samlar in utvecklar dom en algoritm som kan bedöma och värdera vilka sidor som dom kallar för PageRank. Dom inser att en sökmotor som bygger på PageRank skulle ge ett mycket bättre sökresultat än de redan existerande sökmotorerna, som på den tiden bara rankade sidor på hur många gånger söktermen stod med på sidorna. PageRank bedömde istället med hjälp av statistik hur bra innehållet på sidan var.

Dom var övertygade att om en viss sida hade många andra sidor som länkade till den måste den sidan vara relevant och bra för en användare som söker efter en viss sökfras. Det var grunden till hela Googles sökmotor. Deras crawlers tittar idag på närmare 200 olika parametrar när den rankar en sida. För att få en hög ranking på sin site måste man jobba flitigt med både innehållet och sättet sidan är kodad på.

Det finns sätt att bygga sidor som Google gillar mer än andra och det gäller att känna till dom för att jobba med SEO på rätt sätt. Ibland kan man komma en bit med små justeringar, men inte hela vägen. Vill man växa som företag är det bäst om man bygger webbsidan från grunden, med dessa parametrar i åtanke. Ta hjälp av en byrå för att bygga sidan på det sätt som Google gillar. Det kan var knivigt att få till sidan på rätt sätt. Anlita en byrå som vet vad dom gör, det är väl investerade pengar i det långa loppet.

 

Läs mer om: Resultatbaserad SEO

Läs mer om: Vår SEO-utbildning

Läs mer om: Gratis SEO analys