Filosofía de Sora Feed: Cómo Funcionan el Ranking, los Controles y la Seguridad

OpenAI

Cuatro personas están reunidas en una oficina moderna con grandes ventanas, participando en una presentación que muestra una pantalla digital con una escena submarina. Una persona señala mientras las otras sonríen atentamente, representando un entorno de trabajo colaborativo.

¿No sabes por dónde empezar con la IA?Evalúa preparación, riesgos y prioridades en menos de una hora.

➔ Descarga nuestro paquete gratuito de preparación para IA

El feed de Sora está diseñado para inspirar la creación, no para maximizar el desplazamiento. Prioriza la creatividad y las conexiones, permite a los usuarios controlar el feed y ofrece controles para cuentas de adolescentes. La personalización puede usar la actividad de Sora, el historial opcional de ChatGPT y señales de interacción. Capas de seguridad bloquean contenido dañino al generarse, filtran feeds y añaden revisión humana.

Sora de OpenAI combina la generación de video poderosa con un feed social. En lugar de perseguir horas de visualización, la empresa dice que el feed está sintonizado para despertar la creatividad y ayudar a las personas a conectar. Esto es lo que significa en la práctica, y lo que las organizaciones deben hacer para implementar o interactuar con Sora de manera responsable.

Los cuatro principios, traducidos para líderes

  1. Optimizar para la creatividad, no para el desplazamiento pasivo.
    La clasificación favorece la creación original, la participación y la remezcla sobre el consumo sin fin. Para marcas y educadores, esto implica que las campañas y tareas deben invitar a crear (por ejemplo, desafíos de remezcla) en lugar de solo obtener vistas.

  2. Poner a los usuarios en control.
    El feed se envía con clasificación ajustable—las personas pueden indicarle al algoritmo qué quieren ver. Los padres pueden desactivar la personalización y controlar el desplazamiento continuo para cuentas de adolescentes. Construya su proceso de incorporación y comunicación para destacar estos controles.

  3. Priorizar la conexión.
    El contenido conectado (entre personas que se conocen o que optan por interacciones como Cameos) es favorecido sobre publicaciones globales no conectadas. Diseñe experiencias interactivas—prompts de co-creación, flujos seguros de Cameo y mecánicas de responder con una remezcla.

  4. Balancear seguridad y libertad.
    Sora combina bloqueos proactivos al momento de la generación con filtrado de feed y revisión humana. Su política interna debería reflejar esto: prevenir generaciones riesgosas desde el principio, filtrar lo que es elegible para distribución, y mantener un camino claro para reportar y retirar contenido.

Cómo funciona la personalización

Sora puede considerar:

  • Tu actividad en Sora: publicaciones, seguidores, likes/comentarios, remezclas y ubicación aproximada (por ejemplo, ciudad) basada en IP.

  • Historial opcional de ChatGPT: puede ser desactivado en los controles de datos de Sora.

  • Señales de interacción: vistas, likes, comentarios, “ver menos de esto”, remezclas.

  • Señales del autor: cantidad de seguidores del creador y compromiso pasado.

  • Señales de seguridad: elegibilidad frente a políticas y reglas de distribución.

Lo que esto significa para las organizaciones

  • Esperar que los feeds reflejen participación más que vista pasiva.

  • Enseñar a los usuarios cómo ajustar los controles de datos (especialmente desactivar el historial de ChatGPT si se desea).

  • Usar la orientación “ver menos” en sus materiales de ciudadanía digital para que los adolescentes puedan ajustar su experiencia.

Modelo de seguridad (proactivo + reactivo)

  • Barreras al momento de la creación: Prompts o resultados inseguros son bloqueados dentro de Sora antes de que exista una publicación.

  • Filtrado de distribución: Contenido que no es apropiado para la edad o que viola políticas se filtra de feeds, galerías y superficies de personajes secundarios; las cuentas de adolescentes tienen configuraciones predeterminadas más estrictas.

  • Revisión y reporte humano: Los usuarios pueden reportar contenido; los equipos de moderación revisan proactivamente la actividad para detectar casos límite.

  • Principio de balance: Demasiados bloqueos reducen la creatividad; muy pocos socavan la confianza. El enfoque busca tanto seguridad como espacio para crear.

Ejemplos de contenido no elegible para el feed

Contenido sexual gráfico, violencia gráfica, propaganda extremista, odio, autolesión y contenido de alimentación desordenada, conductas de dieta/ejercicio poco saludables, vergüenza basada en la apariencia, bullying, desafíos peligrosos, contenido que glorifica la depresión, productos restringidos por edad, enganche de participación, semejanza no consensuada de personas vivas, usos no permitidos de figuras públicas fallecidas, e infracción potencial de propiedad intelectual.

Guías prácticas

Para escuelas y programas juveniles

  • Activo los valores predeterminados para adolescentes; muestra a los padres cómo desactivar la personalización y el desplazamiento continuo.

  • Construye una cultura de “co-crear, no copiar” con desafíos de remezcla que den crédito a los prompts originales.

  • Incluye una breve explicación sobre inyección de prompts y estafas al navegar o importar prompts de otros.

Para marcas y agencias

  • Planifica campañas remezclables: proporciona prompts base, personajes seguros y flujos de consentimiento claros para Cameos.

  • Tratar la semejanza sintética con cuidado: obtener consentimiento por escrito para cualquier semejanza de personas reales; registrar aprobaciones.

  • Establecer revisión de propiedad intelectual antes de publicar; entrenar a los equipos para identificar elementos posiblemente protegidos por derechos de autor en los prompts.

Para el sector público y organizaciones benéficas

  • Usar clasificación ajustable para resaltar iniciativas locales y co-creación.

  • Publica una política de moderación transparente y tiempos de respuesta para retiro de contenido.

  • Proveer orientación fácil de “ver menos de esto” en comunicaciones comunitarias.

Lista de verificación de gobernanza y cumplimiento (listo para UK)

  • Diseño apropiado para la edad: Predeterminados para adolescentes; orientaciones de control parental en paquetes de incorporación.

  • Controles de datos: Documentar cómo se maneja el historial opcional de chat y cómo los usuarios pueden desactivarlo.

  • Protección de datos y privacidad: Si el personal publica desde cuentas de trabajo, asegurarse de que no haya datos personales/sensibles incrustados en prompts, leyendas o recursos.

  • Consentimiento y semejanza: No usar la semejanza de un individuo vivo sin consentimiento explícito; cuidado especial para menores y figuras públicas fallecidas.

  • Diligencia de propiedad intelectual: Mantener una lista de verificación para nombres, logotipos, personajes y música protegidos por derechos de autor.

  • Operaciones de moderación: Canales claros de reporte, SLA y escalamiento al soporte de la plataforma donde sea aplicable.

Medición: cómo se ve el “buen”

  • Tasa de creación (remezclas/publicaciones por usuario activo) > vistas.

  • Participación segura (reportes por 1,000 vistas en tendencia descendente).

  • Uso de controles (porcentaje de usuarios que ajustaron la configuración del feed).

  • Tiempo de retirada para contenido violativo.

Preguntas comunes

  • ¿Es Sora un feed social típico? No—la clasificación busca creatividad y conexión sobre horas de visualización.

  • ¿Los padres pueden limitarlo? Sí—los controles parentales pueden desactivar la personalización y el desplazamiento continuo para adolescentes.

  • ¿Qué potencia la personalización? Actividad en Sora, historial opcional de ChatGPT, interacción, señales del autor y de seguridad.

  • ¿Cómo se garantiza la seguridad? Bloqueos al generar, filtrado de feed para edad/política, además de revisión humana y reportes.

Preguntas frecuentes

¿Qué señales utiliza el feed de Sora?
Sora puede usar actividad en la aplicación, historial opcional de ChatGPT, métricas de interacción y del autor, además de señales de seguridad, para predecir contenido que te gustará y querrás remezclar.

¿Pueden los adolescentes usar Sora de manera segura?
Las cuentas de adolescentes tienen configuraciones predeterminadas más estrictas; los padres pueden desactivar la personalización y el desplazamiento continuo. Enseñe a los adolescentes a usar “ver menos de esto” y las funciones de reporte.

¿Qué tipos de contenido no están permitidos en el feed?
Contenido que involucra sexo/violencia gráfica, odio/extremismo, autolesión o alimentación desordenada, bullying, desafíos peligrosos, productos restringidos por edad, enganche de participación, semejanza no consensuada de personas vivas, usos no permitidos de figuras públicas fallecidas, o posible infracción de propiedad intelectual.

¿Sora optimiza para horas de visualización?
No—el objetivo declarado es inspirar creación y conexión, no tiempo de permanencia.

Recibe noticias y consejos sobre IA cada semana en tu bandeja de entrada

Al suscribirte, das tu consentimiento para que Generation Digital almacene y procese tus datos de acuerdo con nuestra política de privacidad. Puedes leer la política completa en gend.co/privacy.

Generación
Digital

Oficina en Reino Unido

Generation Digital Ltd
33 Queen St,
Londres
EC4R 1AP
Reino Unido

Oficina en Canadá

Generation Digital Americas Inc
181 Bay St., Suite 1800
Toronto, ON, M5J 2T9
Canadá

Oficina en EE. UU.

Generation Digital Américas Inc
77 Sands St,
Brooklyn, NY 11201,
Estados Unidos

Oficina de la UE

Software Generación Digital
Edificio Elgee
Dundalk
A91 X2R3
Irlanda

Oficina en Medio Oriente

6994 Alsharq 3890,
An Narjis,
Riad 13343,
Arabia Saudita

UK Fast Growth Index UBS Logo
Financial Times FT 1000 Logo
Febe Growth 100 Logo (Background Removed)

Número de la empresa: 256 9431 77 | Derechos de autor 2026 | Términos y Condiciones | Política de Privacidad