Toggle navigation
EN
(0)
Nettleseren din må oppgraderes. Du har Internet Explorer version {%ieversion%}. Gå til
www.microsoft.com
for å laste ned siste versjon av Internet Explorer.
SEO blogg
Internett, WWW, og SEO - en kort historie
Dette er første artikkel i en serie av artikler innenfor
søkemotoroptimalisering
.
I denne artikkelen vil jeg gi en kort innføring i historien bak faget og utrykket "
søkemotoroptimalisering
". Denne artikkelen har følgende hovedpunkter:
Litt om begrepet "Søkemotoroptimalisering"
Internett og World Wide Web
Søkemotorer
Søkemotoroptimalisering
Litt om begrepet "Søkemotoroptimalisering"
Ordet "søkemotoroptimalisering" kommer fra det engelske uttrykket "
Search Engine Optimization
", ofte forkortet SEO.
Ordet
søkemotoroptimalisering
blir benyttet når vi snakker om å få en bedre "score" i søkemotorer som Google, Bing osv. Ordet omfatter faktisk en rekke forskjellige aktiviteter eller prosesser - og bør deles inn i optimalisering for organiske søk og optimalisering av betalte søk, dvs. annonser på Google og andre søkemotorer. Betalte søk blir også ofte referert til som søkemotormarkedsføring, for å skille det fra organisk optimalisering av søkemotorer.
For å oppnå best mulig resultat for ditt nettsted, så bør man som regel utføre søkemotoroptimalisering for både organisk søk og betalt søk. Organisk søk er gratis og betalt søk er - vel ikke gratis. Her betaler du pr. klikk, dvs. når noen klikker inn på nettsiden din.
Internett og World Wide Web
Internett og World Wide Web benyttes ofte som synonymer i folks dagligtale. Også folk i databransjen benytter ofte begrepene om hverandre. Det er dog store forskjeller mellom Internett og World Wide Web (forkortet WWW).
Historien til Internett
går langt tilbake og refererer til et fysisk nettverk - en sammenslutning av ledninger eller radiokommunikasjon som muliggjør datakommunikasjon. Kommunikasjon mellom maskiner har eksistert i lang tid - telegraf, teleksmaskiner og telefon er å betrakte som eksempler på slik kommunikasjon. Kommunikasjonen var dog begrenset til ende-til-ende kommunikasjon. Tidlige datamaskiner benyttet samme teknologi ved å ha sentrale servere med tilknyttede terminaler. Over tid ble datakommunikasjon utvidet med teknologier for pakke-svitsjet nettverk - en teknologi som sender datapakker over et nettverk hvor hver datapakke har en adresse. Nettverket er her ikke et enkelt ende-til-ende nettverk, men en sammenkobling av en masse ledninger (eller radiokommunikasjon). Disse tidlige teknologiene for pakke-svitsjing var kalt ARPANET, Telnet, X.25 med flere. Teknologien for pakke-svitsjing førte til utvikling av teknologier for "internetting", hvor flere fysiske nett ble koblet sammen til et stort nett. En slik utvikling krevde standardisering av protokoller, "språket" eller reglene som benyttes ved kommunikasjon mellom maskiner, som igjen førte til utviklingen av Internet Protocol eller IP. For å få en slik protokoll til å fungere trengte man også en kontrollmetode for transport av datapakker - og Transport Control Protocol eller TCP var navnet som ble benyttet. Disse protokollene ble implementert basert på standardene i 1982 - og verden fikk en ny teknologi kalt TCP/IP protokollene som er "språket" som benyttes når datamaskiner kommuniserer på Internett.
World Wide Web, eller WWW
, er en teknologi som ble ferdig utviklet av Tim Berners-Lee i 1990 mens han jobbet på forskningssenteret CERN i Sveits. World Wide Web var navnet som ble valgt av Berners-Lee på den teknologien som han da hadde utviklet. Teknologien ble utviklet som en respons til behovet forskere og ansatte ved CERN og andre forskingsinstitusjoner hadde for å dele data - på tvers av datamaskintyper eller nettverk. Det geniale i teknologien var muligheten for å lenke opp artikler og krysslenke informasjon. For å få et slikt konsept til å fungere måtte Tim Berners-Lee utvikle en rekke protokoller og annen programvare - som vi i dag referererer til som World Wide Web. Dette omfattet HyperText Transfer Protocol (HTTP), HyperText Markup Language (HTML), den første nettleseren (Web Browser) som også var en editor slik at man kunne lage nettsider, HTTP server software (programvare som går på tjeneren og tolker HTTP protokollen), web server, og en web browser. Dette var litt av en samling programvare - og med disse verktøyene ble det langt enklere å overbevise omverden om nytten av teknologien. Tim Berners-Lee publiserte teknologien på en nyhetsgruppe i august 1991, og dette ble starten på en eksplosjonsartet vekst i teknologiske nyheter som vi fortsatt kun har sett starten på.
Det virkelige gjennombruddet til WWW blir ofte vurdert til å være utviklingen av nettleseren (web browser) Mosaic i 1993. Denne ble utviklet i et prosjekt som ble ledet av Marc Andreessen ved National Center for Supercomputing Applications (NCSA) på University of Illinois at Urbana-Champaign (UIUC). Noen år senere startet Andreessen og James H. Clark, tidligere adm.dir. for Silicon Graphics, firmaet Mosaic Communications Corporation - senere kalt Netscape.
Søkemotorer
Historien til søkemotorer går så langt tilbake som World Wide Web. Den første "søkemotoren" ble ble utviklet het "Archie" og denne inneholdt kataloglister over alle offentlige tilgjengelige FTP (File Transfer Protocol) nettsteder.
Senere teknologier basert på World Wide Web teknologien benyttet en katalogstruktur med frivillig registrering fra nettstedeiere. Disse ble ofte manuelt vedlikeholdt. I 1993 kom et produkt som benyttet en "web robot" som ble brukt til å generere en indeks som ble kalt Wandex. Full-tekst søkemotorer basert på "web robot" teknologier kom deretter, av de mere kjente var Lycos som ble lansert i 1994. I rask rekkefølge ble nå en rekke søkemotorer lansert - Magellan, Excite, Infoseek, Inktomi, Northern Light og AltaVista (min favoritt lenge :) Yahoo! kom også ut i denne perioden, men var lenge kun en katalogtjeneste - oversikt over web sider uten mulighet til å søke i fritekst på alt innholdet i web-sider.
Google ble veldig populær fra år 2000 og senere. Google søkemotor ble utviklet av Sergey Brin og Larry Page i 1997. Googles populæritet var basert på at søkemotoren ga bedre søkeresultater basert på en teknologi som heter PageRank, oppkalt etter en av Google grunnleggerne Larry Page. Google har i dag en masse søkeprodukter - fritekst, bildesøk, kart (Google Maps), oversettingsverktøy for en rekke språk, osv. I tillegg har Google et antall produkter for å støtte oppunder søkemotoren så som verktøy for analyse av besøkende på nettet, svartider, måleverktøy for annonser, osv.
Av Googles største konkurrenter er Yahoo! og Bing fra Microsoft. Bing ble lansert i 1998 og ble da kalt MSN Search. I starten benyttet Bing søk fra Inktomi, men i 2004 satset selskapet på å utvikle egen søketeknologi.
Søkemotoroptimalisering
Bruken av søkemotorer vokste raskt i popularitet. Selv om teknologien i en tidlig fase ikke var på langt nær så avanserte som vi ser i dagens søkemotorer, så var dette likevel viktige verktøy for å få ut informasjon som ofte var relevant. Med veksten i søkemotorer, så begynte også folk å interessere seg for hvordan man kunne få en bedre plassering i søkene - optimalisering av nettsider. Fra slutten av 1990 tallet begynte det å komme rapporter på hvordan søkemotorer benyttet algoritmer og hvordan forskjellige søkemotorer rangerte søkeresultater. Informasjonen ble studert, og ikke lenge etter dukket det opp firmaer som tilbød tjenester innen søkemotoroptimalisering.
PageRank - Google sin teknologi for å gi nettsider en "score" er i utgangspunktet basert på en analyse av hvem som har lenker til hvem. Google forsøker å finne ut hvilke nettsteder som er å betrakte som en "autoritet" innen fagområdet, eller hvilket nettsted som har mest relevans i forhold til spesifikke nøkkelord. Måten dette gjøres på er blant annet ved å analysere lenker - jo flere lenker til et nettsted jo bedre (nesten så enkelt i tidlige år). Men best av alt var det hvis lenkene til ditt nettsted kom fra et nettsted som allerede var etablert som en "autoritet" innenfor det aktuelle fagområdet. Tenk deg en blogger som forsøker å etablere seg som en skribent av lokale nyheter i en norsk by. Et slikt nettsted har ved oppstarten ingen "autoritet" - og ingen andre nettsteder har lenker til denne bloggen. Tenk deg så at bloggeren klarer å skrive en artikkel som blir gjengitt på nettstedet til den største lokale avisen, som av Google naturlig nok betraktes som en "autoritet" innen lokale nyheter for denne byen. En slik lenke - fra den største lokale avisen til din blogg - vil bidra til en god økning i din "PageRank", og med mange slike lenker så vil Google til slutt konkludere med at din blogg sannsynligvis er en "autoritet" innen lokale nyheter fra denne byen. (Som en kuriositet, så var det PageRank teknologien som var hovedgrunnen til Googles raske suksess og etterhver fullstendige dominans blant søkemotor-selskaper)
PageRank teknologien gjorde at tidlige SEO "eksperter" utviklet programmer som genererte tusenvis a lenker for nettsteder i løpet av sekunder. Slike teknikker kalles i dag "link spamming", i motsetning til etisk lenkebygging hvor man søker å utveksle lenker basert på relevans og gjensidig nytteverdi. Google og andre søkemotorer har i dag mange avanserte teknologier som søker å fange opp "link spamming" - og veldig ofte med stort hell hvorpå disse nettstedene blir svartelistet av Google. Dessverre er det fortsatt enkelte såkalte "SEO eksperter" som fortsatt benytter disse teknikkene og andre uetiske teknikker for å "lure" søkemotorene til å tro at det aktuelle nettstedet er en "autoritet". Heldigvis har søkemotoroptimalisering som fagområde vokst og omfatter i dag en rekke teknikker i tillegg til etisk lenkebygging. Disse teknikkene vil jeg snakke mer om i senere artikler - så følg med på disse sidene utover.
André Vold
Toggle navigation
Forsiden
Digital design
Netthandel
Om Lumino
Oversettelse
Referanser
SEO
SEO blogg
Tech blogg
Webdesign blogg
Personvern
Søkeresultater
×