Kövessen minket a Facebookon!

Hogyan változott a keresés és a SEO, és mire számíthatnak a hirdetők a weben a jövőben

32 év, az már bizony történelem. Honnan indult, és hol tart most a web és a keresés.  


A kezdetek


A web eredetileg nem arra lett kitalálva, hogy azt tegye, amit most elvárunk tőle. Ráadásul az elvárásaink folyton csak nőnek. Berners-Lee úgy tervezte és fejlesztette ki a webet, hogy alkalmas legyen a világ egyetemein és intézeteiben dolgozó tudósok közötti automatizált információmegosztásra.


Skálázási nehézségek


Ez igen releváns azokkal a skálázási nehézségekkel kapcsolatban, amelyekkel a keresőmotorok megpróbálnak tartalmat gyűjteni az indexelés és a naprakészség érdekében, miközben igyekeznek új tartalmat is felfedezni és indexelni.


A Google és a teljes web


A mítosz, hogy a Google hozzáfér a teljes webhez, azóta él, hogy a Google elindult. Pedig micsoda tévedés. 1998 óta a 25 millió egyedi URL-ről feltornázta magát mára 50 billióra, ami valóban rengeteg, de közel sem a teljes világháló tartalma. A „mély weben” például hihetetlen mennyiségű tartalom található, melyhez a keresőrobotok nem férnek hozzá.


Keresés a Google előtt és most


Sokan talán meglepődnek, de SEO már létezett a Google előtt is. Az első webes keresőmotor egyetlen 486-os gépen futott, 800 MB lemezterülettel, 128 MB memóriával és egyetlen keresőrobottal, mely összesen 6000 weboldal adatait tárolta.

A cikk írásakor a Google 3000 darab Linuxot futtató számítógépre támaszkodik, több mint 90 terabájt lemezterülettel, és naponta 30 géppel bővítik a szerverfarmjukat, hogy lépést tudjanak tartani a fejlődéssel.


Udvariasság


Mivel a feltérképezőrobotok sokkal nagyobb sebességgel és mélységgel töltik le az adatokat, mint az emberek, bénító hatást gyakorolhatnak (sokszor meg is teszik) egyes webhelyek teljesítményére. A kiszolgálók összeomolhatnak, ha lépést akarnak tartani a gyors kérésekkel.

Minél gyorsabban térképezi fel a keresőmotor a webhelyeket, annál frissebb lesz a tartalom. De tegyük fel, hogy a Google hozna egy döntést. Olyan naprakészen osztaná meg a híreket, hogy mindennap feltérképezné a New York Times teljes webhelyét, így a robot valószínűleg elhasználná a teljes sávszélességet. Következmény: senki nem tudná elolvasni a lapot. Szerencsére ma már létezik az úgynevezett „udvariasság”, és elérhető a Google Search Console is, mellyel lehetőség van a webhelyek feltérképezési sebességének és gyakoriságának módosítására.

Andrej Kolobov kutató létrehozott egy algoritmust a sávszélesség, az udvariasság és a fontosság egyensúlyban tartására – talán ez megoldást jelenthet a kezdetektől fennálló problémák kiküszöbölésére.

Segítségre lenne szükséged vállalkozóként a social media jelenlétedben? Ez esetben vedd fel velünk a kapcsolatot!

Forrás: searchengineland.com


Szubjektív Média