Amazon

Amazon intensifica bloqueo contra bots de IA externos en su plataforma

Compartir
Compartir

Amazon ha reforzado su código web para restringir el acceso de agentes de inteligencia artificial ajenos, una medida destacada por The Information el 30 de julio. El cambio en el archivo robots.txt incluye instrucciones específicas para impedir el rastreo de agentes de Google, así como de bots desarrollados por firmas como Perplexity, Anthropic y OpenAI.

Como resultado de esta actualización, chatbots como ChatGPT Agent y Google Gemini no pueden operar en Amazon, generando errores 503 al intentar acceder a productos desde su plataforma.

Analistas consideran esta estrategia una acción extrema dentro del comercio electrónico. Según esta perspectiva, Amazon busca mantener un ecosistema cerrado, donde su propia tecnología dirija la experiencia de compra en lugar de depender de agentes externos.

En comparación, Shopify también ha implementado reglas firmes en su robots.txt, prohibiendo scraping automatizado o agentes que completen compras sin revisión humana. Sin embargo, permite integraciones legítimas mediante su Checkout Kit para desarrolladores aprobados.

Por su parte, Walmart adopta un enfoque más abierto y está lanzando sus propios “super agentes” de IA para clientes, empleados, proveedores y desarrolladores, buscando interoperabilidad con agentes externos a través de protocolos compartidos como el Model Context Protocol (MCP).

Compartir
Artículos Relacionados
Amazon

Netflix convierte la publicidad en una herramienta de compra: así integra los datos de Amazon

La plataforma de streaming da un paso más en su estrategia publicitaria...

Amazon

Prime Day podría celebrarse antes de lo habitual este año

Amazon estaría planteándose cambiar la fecha de su conocido evento de rebajas...

AmazonMarketplaces

Diez mujeres que impulsan el ecosistema de marketplaces en España con motivo del 8M

Con motivo del Día Internacional de la Mujer, celebrado cada 8 de...