Durante años, la edad en internet fue un dato que se declaraba y se olvidaba. Pero en un ecosistema digital cada vez más consciente de los riesgos para los menores, esa información empieza a jugar un papel activo. OpenAI acaba de dar un paso clave: su asistente conversacional ahora puede ajustar automáticamente lo que muestra según estime la edad del usuario, incluso sin que este lo indique explícitamente. La medida ya comenzó a desplegarse y abre un nuevo capítulo en cómo interactuamos con la IA.

Cuando la IA intenta adivinar cuántos años tienes
OpenAI comenzó a trabajar en este sistema el año pasado, con un objetivo claro: proteger a los usuarios menores de 18 años sin exigirles que pasen por procesos constantes de verificación. La herramienta no se basa en un solo dato, sino en un conjunto de señales que el modelo analiza para estimar si una cuenta pertenece a un adolescente o a un adulto.
Entre esos indicadores se incluyen la antigüedad de la cuenta, los horarios habituales de uso, los patrones de interacción a lo largo del tiempo y la edad declarada al registrarse. No se trata de una confirmación directa, sino de una predicción que permite ajustar la experiencia de forma automática, sin interrumpir la conversación.
Este sistema ya empezó a implementarse de manera gradual, primero en ciertos mercados y perfiles de usuario. En regiones como la Unión Europea, el despliegue se hará en las próximas semanas para cumplir con requisitos regulatorios específicos.
La clave está en cómo se usa esa predicción. Si el modelo estima que una cuenta pertenece a un menor, se activan automáticamente protecciones adicionales. No es una versión distinta de ChatGPT, sino una experiencia adaptada que filtra determinados contenidos y modifica el tipo de respuestas que puede ofrecer.
OpenAI aclara que este enfoque también busca evitar el efecto contrario: tratar a adultos como si fueran menores. Por eso, el sistema está diseñado para refinarse con el tiempo, identificando qué señales son más fiables y ajustando el modelo en función de su rendimiento real.

Qué cambia cuando el sistema cree que eres menor de edad
Cuando la predicción indica que el usuario es menor de 18 años, ChatGPT reduce la exposición a contenidos considerados sensibles. Esto incluye, por ejemplo, violencia gráfica, desafíos virales que puedan incentivar conductas peligrosas, juegos de rol de carácter sexual o romántico, representaciones de autolesión y contenidos que promuevan estándares corporales extremos o dietas poco saludables.
La idea no es censurar el acceso al conocimiento, sino adaptar el tono, el alcance y el enfoque de las respuestas a una audiencia más joven. En lugar de bloquear por completo ciertos temas, el sistema prioriza explicaciones seguras, educativas y orientadas al bienestar.
Este enfoque se apoya, según OpenAI, en recomendaciones de expertos y en literatura académica sobre desarrollo infantil y adolescente. La empresa sostiene que estas medidas no son arbitrarias, sino el resultado de investigaciones sobre cómo los menores interactúan con la tecnología y qué tipo de contenidos pueden afectarles de forma negativa.
Al mismo tiempo, OpenAI subraya que los adultos seguirán teniendo acceso completo a las capacidades de la herramienta, siempre dentro de los límites de seguridad ya establecidos. En otras palabras, la predicción de edad no está pensada para restringir a todos, sino para personalizar la experiencia según el perfil estimado.
Este modelo plantea un cambio interesante: por primera vez, un sistema conversacional a gran escala no solo responde a lo que se le pide, sino que adapta su comportamiento en función de quién cree que está del otro lado.
Qué pasa si el sistema se equivoca
Ningún modelo de predicción es infalible, y OpenAI lo reconoce. Si un usuario adulto es clasificado por error como menor, tiene la posibilidad de confirmar su edad mediante un proceso de verificación con selfie, accesible desde los ajustes de la cuenta.
Este mecanismo busca equilibrar dos objetivos que suelen entrar en tensión: proteger a los menores sin imponer fricciones excesivas a los adultos. En lugar de exigir documentos o verificaciones constantes, el sistema actúa solo cuando la predicción lo considera necesario y permite corregir el error de forma directa.
La empresa también explica que este despliegue servirá para mejorar el modelo con el tiempo. Al observar qué indicadores funcionan mejor y cuáles generan más falsos positivos o negativos, OpenAI podrá ajustar sus algoritmos y afinar la precisión de la predicción.
Más allá del aspecto técnico, este movimiento refleja una tendencia más amplia en la industria: la IA ya no solo debe ser útil, sino también responsable. Y eso implica reconocer que no todos los usuarios son iguales ni tienen las mismas necesidades, riesgos o niveles de madurez.
En ese sentido, la predicción de edad en ChatGPT no es solo una función nueva, sino una señal de hacia dónde se dirige el diseño de las plataformas conversacionales: experiencias más personalizadas, más conscientes del contexto humano y, sobre todo, más atentas a quién está realmente detrás de cada mensaje.
🖥️ ¿Te apasiona la tecnología? En nuestro canal de YouTube analizamos gadgets, novedades tech y mucho más.
▶ Suscribirme
Carolina Couselo cubre cine, series y anime en Oasis Nerd. Cinéfila apasionada, sus reseñas se destacan por una mirada crítica que va más allá de los títulos obvios — siempre en busca de esa película o serie que todavía no encontró su audiencia. Si hay un underdog en las pantallas, Carolina probablemente ya lo vio.






Deja tu comentario