La seguridad infantil en el entorno digital se ha convertido en una de las preocupaciones más urgentes de la era tecnológica. En medio de críticas y casos trágicos que pusieron en entredicho la responsabilidad de los desarrolladores, OpenAI presentó un plan que combina herramientas parentales con modelos de razonamiento avanzados. La medida no solo apunta a reforzar la protección, sino también a reconstruir la confianza en el uso de ChatGPT.

Un cambio motivado por la controversia
Los últimos meses han estado marcados por incidentes que sacudieron la percepción pública sobre la seguridad de los menores en plataformas de inteligencia artificial. El caso más comentado fue el de Adam Raine, un adolescente que buscó apoyo en ChatGPT en un momento de crisis emocional y terminó quitándose la vida tras recibir respuestas inadecuadas. Su familia presentó una demanda por homicidio culposo, alegando que la herramienta contribuyó a agravar la situación.
Un segundo episodio, reportado por The Wall Street Journal, involucró a Stein-Erik Soelberg, quien alimentó pensamientos paranoides con la IA y terminó protagonizando un asesinato-suicidio. Estos hechos impulsaron un intenso debate sobre hasta qué punto los desarrolladores deben anticipar los riesgos asociados al uso de chatbots y qué responsabilidades deben asumir.
La compañía respondió anunciando un plan de 120 días con medidas diseñadas para reforzar la prevención, incorporando la experiencia de médicos, psicólogos y especialistas en bienestar digital.
Modelos más preparados para situaciones críticas
Entre las novedades más destacadas se encuentra la decisión de canalizar conversaciones delicadas hacia modelos de razonamiento más sofisticados, como GPT-5 y la gama o3. Estos sistemas tienen la capacidad de analizar el contexto con mayor profundidad y son menos propensos a validar respuestas dañinas de manera automática.
OpenAI explicó que un enrutador en tiempo real se encargará de detectar cuándo una interacción presenta signos de angustia aguda o riesgo potencial. En esos casos, la conversación será transferida de inmediato a modelos avanzados, que podrán ofrecer respuestas más útiles, responsables y seguras para el usuario.
El objetivo es superar una de las principales debilidades de los chatbots basados en predicción de palabras: la tendencia a seguir ciegamente el discurso del usuario sin cuestionar sus implicaciones, incluso cuando se trata de situaciones de alto riesgo.

Herramientas parentales para un mayor control
Además de los ajustes técnicos, OpenAI lanzará controles parentales que permitirán a los adultos responsables vincular su cuenta con la de sus hijos adolescentes mediante una invitación por correo electrónico. Estos controles establecerán reglas predeterminadas de interacción según la edad del menor, ofreciendo un marco más seguro desde el inicio.
Los padres podrán limitar funciones como la memoria y el historial de conversaciones, reduciendo así riesgos como la dependencia emocional o el refuerzo de patrones de pensamiento nocivos. Una de las funciones más comentadas es la posibilidad de recibir alertas en tiempo real si el sistema detecta signos de angustia grave, lo que facilitaría una intervención temprana.
Por otra parte, se reforzará el uso del Modo de Estudio, diseñado para fomentar el pensamiento crítico de los estudiantes y evitar que la IA entregue trabajos completos sin supervisión. Aunque aún no se ha confirmado si será posible establecer límites temporales en el uso, OpenAI reconoció que los recordatorios actuales resultan insuficientes para usuarios en crisis.
Con estas medidas, la compañía no solo busca proteger a los más jóvenes, sino también establecer un nuevo estándar en la industria tecnológica: uno en el que la prevención y la responsabilidad ocupen un papel central en la evolución de la inteligencia artificial.
🖥️ ¿Te apasiona la tecnología? En nuestro canal de YouTube analizamos gadgets, novedades tech y mucho más.
▶ Suscribirme
Carolina Couselo cubre cine, series y anime en Oasis Nerd. Cinéfila apasionada, sus reseñas se destacan por una mirada crítica que va más allá de los títulos obvios — siempre en busca de esa película o serie que todavía no encontró su audiencia. Si hay un underdog en las pantallas, Carolina probablemente ya lo vio.






Deja tu comentario