Egy a Google Webmaster Centralon olvasható bejegyzés a Google egy újabb – ezidáig nem használt – indexelési eljárásáról számol be.
Weboldalak bejárása során, a Googlebot, az oldalon található HTML formok beviteli paraméterein, queryket küld a formon keresztül, számára nem látható oldalak felderítése – esetleges beindexelése – céljából.
A Googlebot a query paramétereket a formhoz és az oldalhoz kapcsolódó kifejezések alapján választja.
A bejegyzésben leszögezik, hogy az új gyakorlat egyelőre csak a weboldalak egy kis töredékét érinti majd.
Mellékszálként megemlítik, hogy ez egy olyan változtatás, mint amit az elmúlt időben a flash és javascript tartalmak “értelmezéseinek” a céljából is tettek. (kevésbé keresőbarát hátrányának a mérséklése..)
Röviden összefoglalva, 2008-ban is még létezik tengernyi olyan weboldal amelynek az elkészítése során nem merült fel a fejlesztőkben, hogy az oldalból teljesen eltérő szintű tartalmat láthat egy keresőrobot, mint a felhasználó. (az egyre több Google robot meg egyre gyorsabban futja a köröket százméteren úgy látszik, hogy még ilyen mókákra is jút energiája alkalmasint.)
4 hozzászólás
Nemhogy az legyen a vége, hogy a Google kommentspammel.
Aki bénán írja meg a formjait, annál simán el tudom ezt képzelni.
Azt még lehet tudni, hogy csak a GET-formok érdeklik, és mivel még nem láttam getes kommentel?s formot, vagy akár bejelentkez?t, ezzel nem hiszem, hogy gond lesz.
Azt hiszem ez nem is annyira meglep? a Google részéről. Lassan már nem igazán marad sok olyan lehetőség, amivel több információhoz juthat. Így hát ahoz próbál hozzáférni, amihez tud :) Kiváncsi vagyok a következő lépésre, Silverlight kiértékelés? Talán a képelemzés után hangelemzéssel is próbálkozni fog? Ez utóbbit viszont kétlem, nagy értelme (még) nincs.
Jó lenne egy follow up ebben a témában; szerintem jó ideje ez volt/lehetett volna a G legnagyobb előrelépése a (mélyweb) keresésben :)