De los motores de búsqueda a los asistentes inteligentes

Un estudio masivo muestra cómo se redistribuye el acceso automatizado a los sitios web

0
20

La actividad de los bots en la web atraviesa un momento de redefinición. Un análisis reciente elaborado por Hostinger, basado en 66.7 mil millones de solicitudes automatizadas registradas en más de cinco millones de sitios, muestra cómo el ecosistema del rastreo está cambiando a medida que los asistentes impulsados por inteligencia artificial se integran en los hábitos de búsqueda de los usuarios. El estudio, que compara tres periodos entre junio y noviembre de 2025, revela un desplazamiento progresivo: mientras los rastreadores tradicionales mantienen un volumen estable, los bots asociados a asistentes conversacionales amplían su presencia y acceden a un número creciente de páginas, incluso cuando generan menos solicitudes que en meses anteriores.

El informe confirma que una parte significativa del tráfico global procede de sistemas automatizados, una tendencia que coincide con mediciones de plataformas como Cloudflare Radar, que sitúan el tráfico de bots en torno a un tercio del total. Sin embargo, el interés no reside únicamente en la magnitud, sino en la distribución del acceso. Los bots vinculados a motores de búsqueda clásicos, como Googlebot o Bingbot, continúan desempeñando su función de indexación con un alcance amplio y relativamente estable. Google, de hecho, incrementó su presencia durante el periodo analizado, lo que sugiere un esfuerzo por mantener la cobertura en un entorno donde la competencia por la visibilidad se diversifica.

En paralelo, los rastreadores diseñados para entrenar modelos de IA enfrentan un escenario más restrictivo. Bots como GPTBot de OpenAI o ExternalAgent de Meta experimentaron descensos pronunciados en su capacidad de acceso debido a bloqueos explícitos implementados por administradores de sitios. El caso de GPTBot es especialmente ilustrativo: pasó de estar presente en la mayoría de los sitios a aparecer solo en una fracción de ellos. La excepción notable es google-other, un rastreador utilizado por Google para proyectos de investigación y experimentación interna, cuyo alcance continúa creciendo. Este comportamiento refleja una tensión creciente entre la necesidad de recopilar datos para entrenar modelos y la preocupación de los propietarios de sitios por el uso que se hace de su contenido.

El panorama se vuelve más dinámico cuando se observan los bots asociados a asistentes y motores de búsqueda basados en IA. Rastreadores que alimentan sistemas como ChatGPT, Siri, TikTok Search o Petal Search muestran un aumento sostenido en el número de sitios a los que acceden. Esta expansión coincide con un cambio en los hábitos de los usuarios, que recurren cada vez más a interfaces conversacionales para obtener información. La transición no implica necesariamente un reemplazo de los motores de búsqueda tradicionales, pero sí una convivencia en la que ambos modelos compiten por convertirse en la puerta de entrada a la información.

El estudio también señala que los bots dedicados a SEO, marketing y monitoreo reducen su presencia, en parte porque muchos administradores limitan su actividad para preservar el rendimiento del servidor. Herramientas como Ahrefs o Semrush siguen siendo relevantes para quienes dependen del posicionamiento orgánico, pero su rastreo se vuelve más selectivo. En el ámbito de las redes sociales y la mensajería, los bots que generan vistas previas o verifican enlaces mantienen un comportamiento estable, aunque algunos muestran ligeras caídas.

Este escenario se desarrolla en un momento en que la industria experimenta con nuevos mecanismos de control. La aparición de archivos como llms.txt o iniciativas como Web2Agent busca ofrecer a los administradores una forma más precisa de definir qué contenido puede ser utilizado por asistentes de IA y en qué condiciones. La tendencia apunta hacia un modelo híbrido en el que los sitios permiten el acceso a bots que generan visibilidad o tráfico, mientras restringen a aquellos que recopilan datos para entrenamiento sin ofrecer un beneficio directo.

Para los propietarios de sitios web, el análisis plantea decisiones estratégicas. La creciente relevancia de los asistentes de IA como canal de descubrimiento obliga a considerar su papel en la visibilidad digital. Al mismo tiempo, la protección del contenido y la gestión del rendimiento del servidor siguen siendo prioridades. La forma en que cada sitio equilibre estos factores influirá en su presencia en un ecosistema donde la indexación ya no depende únicamente de los motores de búsqueda tradicionales.

El estudio de Hostinger ofrece una fotografía detallada de esta transición y sugiere que la web se encamina hacia un entorno en el que múltiples tipos de bots, con funciones y objetivos distintos, convivirán en la capa de descubrimiento. La evolución de este equilibrio determinará cómo se organiza la visibilidad en los próximos años y qué papel desempeñarán los asistentes de IA en la navegación cotidiana.

Fuente: estudio de Hostinger | Editado por CDOL

Custom Text
Artículo anteriorSamsung redefine el entretenimiento deportivo con inteligencia artificial
Artículo siguienteAMD refuerza su posición en el mercado de aceleradores con un contrato de gran volumen con Meta