26
mars
Les crawlers d’intelligence artificielle : un nouveau défi pour la stabilité des infrastructures web ?
Les évolutions technologiques dans le domaine du web attirent une attention de plus en plus accrue, notamment avec l’émergence des crawlers d’intelligence artificielle. Ces agents automatisés, bien différents des traditionnels robots d’indexation, envahissent le web et représentent maintenant un volume de trafic considérable. En effet, ces nouveaux crawlers, comme GPTBot d’OpenAI ou Claude d’Anthropic, génèrent près de 28% des requêtes habituellement attribuées à des robots comme Googlebot. Cette évolution rapide soulève des inquiétudes quant à la stabilité des infrastructures web, car ces crawlers préfèrent collecter un large éventail de contenus,