, { "@type": "BreadcrumbList", "@id": "https://www.gend.co/blog/openai-ai-agent-link-safety/#breadcrumb", "itemListElement": [ { "@type": "ListItem", "position": 1, "name": "Home", "item": "https://www.gend.co/" }, { "@type": "ListItem", "position": 2, "name": "Blog", "item": "https://www.gend.co/blog" }, { "@type": "ListItem", "position": 3, "name": "Seguridad de enlaces de agentes de IA - Cómo OpenAI bloquea las filtraciones de datos de URL", "item": "https://www.gend.co/blog/openai-ai-agent-link-safety" } ] } ] }

Seguridad de enlaces de agentes de IA - Cómo OpenAI bloquea las filtraciones de datos de URL

Seguridad de enlaces de agentes de IA - Cómo OpenAI bloquea las filtraciones de datos de URL

OpenAI

29 ene 2026

En un entorno de oficina moderno, cuatro profesionales se reúnen alrededor de una mesa mientras uno sostiene una tableta que muestra una advertencia sobre un "Enlace No Verificado", destacando la importancia de la seguridad cibernética y la protección de enlaces por agentes de inteligencia artificial.

¿No sabes por dónde empezar con la IA?Evalúa preparación, riesgos y prioridades en menos de una hora.

¿No sabes por dónde empezar con la IA?Evalúa preparación, riesgos y prioridades en menos de una hora.

➔ Descarga nuestro paquete gratuito de preparación para IA

La actualización de seguridad de enlaces de OpenAI evita que los agentes recuperen automáticamente URLs no verificadas que podrían ocultar datos privados en cadenas de consulta. Los agentes solo recuperan enlaces si ya existen en la web pública (según un índice de rastreador independiente); de lo contrario, los usuarios ven una advertencia y pueden elegir si desean proceder.

El riesgo específico: las URLs pueden exfiltrar datos

Cuando un agente carga un enlace, la URL completa (incluidos los parámetros de consulta) se envía al destino y a menudo se registra. Los atacantes pueden inducir a un agente a incluir contexto sensible—como un correo electrónico o título de documento—en esa URL, creando una fuga silenciosa (incluso a través de redirecciones, imágenes o previsualizaciones).

Por qué las listas de permitidos no son suficientes

La inclusión en lista de «sitios de confianza» falla cuando esos sitios redireccionan o integran contenido de terceros; además, crea fricciones que los usuarios aprenden a ignorar. OpenAI apunta al propio URL: ¿esta dirección exacta ya es pública?

El control: solo recuperar automáticamente URLs públicas

OpenAI utiliza un índice web independiente (separado de las conversaciones de usuario) para verificar si un URL es conocido públicamente.

  • Coincidencia encontrada: el agente puede cargar automáticamente.

  • No hay coincidencia: el agente evita la carga automática; los usuarios pueden ver una advertencia y elegir proceder o solicitar alternativas.

Lo que verán los usuarios

Para enlaces no verificados, ChatGPT puede mostrar un cuadro de diálogo “Verifique que este enlace sea seguro”: “no verificado”, “puede incluir información de su conversación” y opciones para copiar o abrir de todos modos. Esto hace visible la “fuga silenciosa” y mantiene al humano en control.

Qué cubre—y qué no cubre—esto

Esta defensa se centra en la exfiltración basada en URLs. No garantiza la confiabilidad de la página ni elimina todos los riesgos de inyección de comandos, por lo que OpenAI lo complementa con mitigaciones a nivel de modelo, controles de producto, monitoreo y equipo de seguridad como parte de un enfoque de defensa en profundidad.

Implicaciones para desarrolladores y equipos de seguridad

  • Reducir fugas silenciosas: Adopte una política similar de “solo recuperar automáticamente URLs públicas” en agentes personalizados e instrumente advertencias para enlaces no verificados.

  • Fortalecer contra inyecciones: Combine la seguridad de enlaces con mitigaciones contra inyecciones de comandos y patrones de uso guiado de herramientas en Agent Builder/AgentKit.

  • Equilibrar UX y seguridad: Mantenga a los usuarios informados sin bloquear la navegación legítima; use intervención humana para acciones de alto riesgo.

  • Evolucione sus salvaguardias: Trate la seguridad del agente como un programa continuo—agregue controles a medida que observe nuevos intentos de evasión.

En resumen: La seguridad de enlaces no reemplaza otros controles, pero elimina un camino común y sutil para la fuga de contexto—y establece un fuerte estándar para la navegación del agente.

FAQ

P1. ¿Qué es la exfiltración de datos basada en URLs en agentes?
Cuando un agente carga un enlace que incorpora contexto privado en la cadena de consulta de la URL, esos datos pueden ser registrados por el destino—filtrando información silenciosamente.

P2. ¿Cómo funciona la seguridad de enlaces de OpenAI?
Los agentes solo recuperan automáticamente URLs previamente observadas en la web pública por un rastreador independiente. Los enlaces no verificados activan una advertencia para el usuario antes de abrir.

P3. ¿Detiene esto la inyección de comandos?
Reduce un resultado de inyección de comandos (recuperación forzada de URL con secretos), pero persisten riesgos más amplios de inyección que se mitigan mediante salvaguardias a nivel de modelo y producto.

P4. ¿Qué deberían copiar los desarrolladores de esto?
Implemente verificación de URLs públicas, advertencias explícitas y aprobación humana para acciones riesgosas; combine con las mejores prácticas de seguridad establecidas y HITL.

P5. ¿Está disponible esto en ChatGPT hoy?
OpenAI describe esto como una salvaguarda implementada para las experiencias ChatGPT/agentes y señala que seguirá evolucionando a medida que los atacantes se adapten.

La actualización de seguridad de enlaces de OpenAI evita que los agentes recuperen automáticamente URLs no verificadas que podrían ocultar datos privados en cadenas de consulta. Los agentes solo recuperan enlaces si ya existen en la web pública (según un índice de rastreador independiente); de lo contrario, los usuarios ven una advertencia y pueden elegir si desean proceder.

El riesgo específico: las URLs pueden exfiltrar datos

Cuando un agente carga un enlace, la URL completa (incluidos los parámetros de consulta) se envía al destino y a menudo se registra. Los atacantes pueden inducir a un agente a incluir contexto sensible—como un correo electrónico o título de documento—en esa URL, creando una fuga silenciosa (incluso a través de redirecciones, imágenes o previsualizaciones).

Por qué las listas de permitidos no son suficientes

La inclusión en lista de «sitios de confianza» falla cuando esos sitios redireccionan o integran contenido de terceros; además, crea fricciones que los usuarios aprenden a ignorar. OpenAI apunta al propio URL: ¿esta dirección exacta ya es pública?

El control: solo recuperar automáticamente URLs públicas

OpenAI utiliza un índice web independiente (separado de las conversaciones de usuario) para verificar si un URL es conocido públicamente.

  • Coincidencia encontrada: el agente puede cargar automáticamente.

  • No hay coincidencia: el agente evita la carga automática; los usuarios pueden ver una advertencia y elegir proceder o solicitar alternativas.

Lo que verán los usuarios

Para enlaces no verificados, ChatGPT puede mostrar un cuadro de diálogo “Verifique que este enlace sea seguro”: “no verificado”, “puede incluir información de su conversación” y opciones para copiar o abrir de todos modos. Esto hace visible la “fuga silenciosa” y mantiene al humano en control.

Qué cubre—y qué no cubre—esto

Esta defensa se centra en la exfiltración basada en URLs. No garantiza la confiabilidad de la página ni elimina todos los riesgos de inyección de comandos, por lo que OpenAI lo complementa con mitigaciones a nivel de modelo, controles de producto, monitoreo y equipo de seguridad como parte de un enfoque de defensa en profundidad.

Implicaciones para desarrolladores y equipos de seguridad

  • Reducir fugas silenciosas: Adopte una política similar de “solo recuperar automáticamente URLs públicas” en agentes personalizados e instrumente advertencias para enlaces no verificados.

  • Fortalecer contra inyecciones: Combine la seguridad de enlaces con mitigaciones contra inyecciones de comandos y patrones de uso guiado de herramientas en Agent Builder/AgentKit.

  • Equilibrar UX y seguridad: Mantenga a los usuarios informados sin bloquear la navegación legítima; use intervención humana para acciones de alto riesgo.

  • Evolucione sus salvaguardias: Trate la seguridad del agente como un programa continuo—agregue controles a medida que observe nuevos intentos de evasión.

En resumen: La seguridad de enlaces no reemplaza otros controles, pero elimina un camino común y sutil para la fuga de contexto—y establece un fuerte estándar para la navegación del agente.

FAQ

P1. ¿Qué es la exfiltración de datos basada en URLs en agentes?
Cuando un agente carga un enlace que incorpora contexto privado en la cadena de consulta de la URL, esos datos pueden ser registrados por el destino—filtrando información silenciosamente.

P2. ¿Cómo funciona la seguridad de enlaces de OpenAI?
Los agentes solo recuperan automáticamente URLs previamente observadas en la web pública por un rastreador independiente. Los enlaces no verificados activan una advertencia para el usuario antes de abrir.

P3. ¿Detiene esto la inyección de comandos?
Reduce un resultado de inyección de comandos (recuperación forzada de URL con secretos), pero persisten riesgos más amplios de inyección que se mitigan mediante salvaguardias a nivel de modelo y producto.

P4. ¿Qué deberían copiar los desarrolladores de esto?
Implemente verificación de URLs públicas, advertencias explícitas y aprobación humana para acciones riesgosas; combine con las mejores prácticas de seguridad establecidas y HITL.

P5. ¿Está disponible esto en ChatGPT hoy?
OpenAI describe esto como una salvaguarda implementada para las experiencias ChatGPT/agentes y señala que seguirá evolucionando a medida que los atacantes se adapten.

Recibe noticias y consejos sobre IA cada semana en tu bandeja de entrada

Al suscribirte, das tu consentimiento para que Generation Digital almacene y procese tus datos de acuerdo con nuestra política de privacidad. Puedes leer la política completa en gend.co/privacy.

Generación
Digital

Oficina en Reino Unido

Generation Digital Ltd
33 Queen St,
Londres
EC4R 1AP
Reino Unido

Oficina en Canadá

Generation Digital Americas Inc
181 Bay St., Suite 1800
Toronto, ON, M5J 2T9
Canadá

Oficina en EE. UU.

Generation Digital Américas Inc
77 Sands St,
Brooklyn, NY 11201,
Estados Unidos

Oficina de la UE

Software Generación Digital
Edificio Elgee
Dundalk
A91 X2R3
Irlanda

Oficina en Medio Oriente

6994 Alsharq 3890,
An Narjis,
Riad 13343,
Arabia Saudita

UK Fast Growth Index UBS Logo
Financial Times FT 1000 Logo
Febe Growth 100 Logo (Background Removed)

Número de la empresa: 256 9431 77 | Derechos de autor 2026 | Términos y Condiciones | Política de Privacidad

Generación
Digital

Oficina en Reino Unido

Generation Digital Ltd
33 Queen St,
Londres
EC4R 1AP
Reino Unido

Oficina en Canadá

Generation Digital Americas Inc
181 Bay St., Suite 1800
Toronto, ON, M5J 2T9
Canadá

Oficina en EE. UU.

Generation Digital Américas Inc
77 Sands St,
Brooklyn, NY 11201,
Estados Unidos

Oficina de la UE

Software Generación Digital
Edificio Elgee
Dundalk
A91 X2R3
Irlanda

Oficina en Medio Oriente

6994 Alsharq 3890,
An Narjis,
Riad 13343,
Arabia Saudita

UK Fast Growth Index UBS Logo
Financial Times FT 1000 Logo
Febe Growth 100 Logo (Background Removed)


Número de Empresa: 256 9431 77
Términos y Condiciones
Política de Privacidad
Derechos de Autor 2026