Amazon ha reforzado su código web para restringir el acceso de agentes de inteligencia artificial ajenos, una medida destacada por The Information el 30 de julio. El cambio en el archivo robots.txt incluye instrucciones específicas para impedir el rastreo de agentes de Google, así como de bots desarrollados por firmas como Perplexity, Anthropic y OpenAI.
Como resultado de esta actualización, chatbots como ChatGPT Agent y Google Gemini no pueden operar en Amazon, generando errores 503 al intentar acceder a productos desde su plataforma.
Analistas consideran esta estrategia una acción extrema dentro del comercio electrónico. Según esta perspectiva, Amazon busca mantener un ecosistema cerrado, donde su propia tecnología dirija la experiencia de compra en lugar de depender de agentes externos.
En comparación, Shopify también ha implementado reglas firmes en su robots.txt, prohibiendo scraping automatizado o agentes que completen compras sin revisión humana. Sin embargo, permite integraciones legítimas mediante su Checkout Kit para desarrolladores aprobados.
Por su parte, Walmart adopta un enfoque más abierto y está lanzando sus propios “super agentes” de IA para clientes, empleados, proveedores y desarrolladores, buscando interoperabilidad con agentes externos a través de protocolos compartidos como el Model Context Protocol (MCP).