Článek
Jazykové modely (LLM, zde zjednodušeně označované jako AI) mají sice zatím relativně nízký podíl na trhu vyhledávání informací, ale ohromně rostou a už nyní představují problém pro velkou část webů. Ponechme zde stranou diskuzi k autorským právům. O tom, zda mají autoři obsahu na webech nárok na podíl ze zisků firem provozujících AI modely, které tento obsah syntetizují a předávají dál svým uživatelům, se nyní vášnivě debatuje.
Jedním z dalších velkých problémů, provázejících tuto revoluční technologickou vlnu, je AI vyhledávání nebo takzvaný „AI scraping“ a přetěžování webů roboty od tvůrců jazykových modelů.
Poradci a poplatky. Kdo nakonec vydělává?
Zveme na natáčení podcastu Ve vatě: Komu věřit s penězi
Lesk a bída finančního poradenství. Jsou provizní poradci ve střetu zájmů? A jak je to s poplatky, na kolik vás takový poradce vlastně vyjde a vyplatí se nakonec?
Obsazení slibuje třaskavou debatu. Hosty speciálu tentokrát budou Petr Borkovec (Partners), investiční bloger a nový expert podcastu Ve vatě Lukáš Nádvorník a nezávislá finanční poradkyně Michala Janatová.
Těšíme se na vás, vaše dotazy o setkání po natáčení! Vstupenky jsou ke koupi zde.

Od dotazování k odpovídání
V přímém přenosu docela možná sledujeme konec vyhledávání informací na internetu, tak jak jsme na něj byli dosud zvyklí. Uživatelé dosud ve velké míře pro vyhledávání na internetu používají „dotazovací jazyk“, takže když hledají dovolenou v Egyptě, zadají do Googlu nebo Seznamu dotaz typu „dovolená Egypt“, pak proklikávají jednotlivé stránky a nastavují si parametry podle své potřeby.
Největší silou AI je komunikace v přirozeném jazyce a jeho překlad do úkonů, které pak jazykový model provede. Dříve či později začne uživatel být úspěšný s dotazy typu „Najdi mi dovolenou v Egyptě pro mou rodinu pro první týden v červenci“. AI pak vytáhne z paměti, co ví o uživateli, co ví obecně o dovolených v Egyptě, a v budoucnu člověku dovolenou možná i objedná na webu u jeho oblíbeného prodejce. Špičkový uživatelský prožitek? Pro provozovatele webů se z toho může stát noční můra.
Lavina AI scrapování
Scrapování je stahování informací z webů. Dělá se pomocí automatizovaných softwarových agentů („botů“). Scrapování na trh uvedl Google už před mnoha desítkami let. Scrapování od AI samo o sobě problémem není. Weby chtějí návštěvnost, takže za každou návštěvu robotů od Googlu nebo AI systémů mohou být rády. Jenže v poslední době se AI roboti utrhávají ze řetězů. U jednoho z našich klientů jsme naměřili přes 120 tisíc dotazů od jednoho bota během pár dní. To u menšího e-shopu dříve obnášelo celou návštěvnost za několik měsíců.
Další příklad bláznění robotů? Za sedm dní jsme u úspěšného českého e-shopu nasbírali čtyři miliony dotazů z USA, z čehož 90 % tvořil AI indexer od společnosti Meta, který je aktuálně nejvíce řádícím robotem. Provozovatele to samozřejmě stojí peníze a web se stává dýchavičným. Pro běžného uživatele to znamená, že web se může načítat pomaleji nebo úplně spadnout – třeba zrovna ve chvíli, kdy chce dokončit objednávku.
Co je špatně na scrapování stránek od AI robotů?
Provoz webů stojí peníze, vyšší návštěvnost webů stojí více peněz. AI boti tedy mohou provoz webů silně prodražit. Nebo jinak – mohou způsobit silné zpomalení nebo vyloženě nedostupnost webu, což může provozovatelům způsobit obrovské ztráty. Na webech vidíme až násobné zrychlení odezvy serveru po zablokování masivního scrapování pomocí AI, které se děje v posledních měsících.
Pomalejší odezva serveru způsobená řáděním robotů pak způsobuje horší uživatelský prožitek. Stránky se načítají déle, nákupní košík se zadrhne a uživatel to vzdá. Přesně tak se webům ztrácejí zákazníci – a s nimi i tržby. Z toho pak vždy vyplývá negativní dopad na byznys provozovatele, tedy počet objednávek, hodnocení v rámci algoritmů Googlu a dohledatelnost. Pomalý web firmám zpomalí byznys.
Pustit boty na web, nebo nepustit? To je otázka za všechny peníze. Nepustit důležité roboty od AI na web by většinou vedlo ke ztrátě viditelnosti ve vyhledávačích nebo AI nástrojích typu ChatGPT nebo Gemini. Pustit si na web všechny roboty je zase velmi riskantní, protože firmě mohou zpomalit nebo úplně odrovnat web. Možnou cestou je limitovat počet dotazů od botů za určité období a blokovat jen ty neposlušné. Firmy a značky by měly tomuto tématu věnovat pozornost a volit ideálně cestu chytrého monitoringu dostupnosti, rychlosti, provozu botů a limitování zlobivých a neužitečných robotů.
Jediná cesta? Adaptace
Toto je nový svět, ve kterém majitelé webů žijí a žít budou. AI bude běžnou součástí internetu. Trošku divoký západ. Pohodlný pro uživatele, od majitelů webů vyžadující investice navíc. AI z webu nezmizí. Stejně jako se kdysi musely weby naučit optimalizovat pro mobily, dnes se musí naučit žít s umělou inteligencí. Úkolem provozovatelů webů je chránit se a zároveň zůstat dostupní. Budoucnost patří webům, které jsou rychlé, bezpečné a připravené pro nové způsoby vyhledávání. Kdo to zvládne včas, ten neztratí rychlost ani zákazníky.















