Google proti Terminatorju
Pred dobrimi 20 leti je bil zasnovan standard za protokol, ki lastnikom spletnih strani omogoča, da njihove strani izključijo pri indeksiranju svetovnega spleta, kot to na primer počne spletni iskalnik Google dan za dnem. Tu dejansko gre za protokol za izključevanje spletnih pajkov (ang. The Robots Exclusion Protocol), s katerim upravljavci spletnih strani preko datotek »robots.txt« jasno povedo, katere mape in datoteke naj pajki prezrejo v procesu indeksiranja. Če teh datotek ni v sklopu spletne strani, pajki sklepajo, da zanje ni nobenih posebnih navodil oziroma omejitev.
Pri podjetju Google so 20 letnico protokola za izključevanje spletnih pajkov obeležili na svojevrsten način, saj so za ta namen za upravljavce spletnih strani pripravili svojevrstno datoteko imenovano »killer-robots.txt«. V njo so Googlovi inženirji vključili oznake robotov iz filmskih uspešnic Terminator, in sicer »User-Agent: T-1000« in »User-Agent: T-800«. Pri tem so spletnim pajkom dali še jasno »vedeti«, daj naj pri indeksiranju svetovnega spleta izključijo mape oziroma spletne strani poimenovane »+LarryPage« in »+SergeyBrin«, in sicer z ukaznima vrsticama »Disallow: /+LarryPage« in »Disallow: /+SergeyBrin«. Googlova datoteka »killer-robots.txt« je dosegljiva na spletni povezavi bit.ly/killer—robots.
Prijavi napako v članku