En medio del acelerado avance tecnológico, la seguridad de la inteligencia artificial general (AGI) se ha transformado en una prioridad global. DeepMind, a través de su división de investigación en seguridad, presentó un plan que combina innovación técnica, supervisión rigurosa y cooperación internacional para mitigar los riesgos de una tecnología que podría superar las capacidades humanas en pocos años.

Un futuro cercano que exige preparación
DeepMind sostiene que la AGI representa una tecnología transformadora, con el potencial de generar enormes beneficios, pero también de desencadenar riesgos de gran magnitud. Los investigadores subrayan que el progreso podría acelerarse al punto de ver sistemas avanzados antes de 2030, lo que aumenta la urgencia de establecer protocolos de seguridad sólidos.
El planteo de la compañía se centra en la acción preventiva: diseñar medidas de protección antes de que los problemas aparezcan. La estrategia busca evitar que los desarrolladores se enfrenten a riesgos impredecibles sin contar con las herramientas necesarias para controlarlos. Según DeepMind, la preparación no puede esperar a que los sistemas superen las habilidades humanas, sino que debe integrarse desde el presente en los procesos de aprendizaje automático.
Riesgos latentes y un marco de defensa
Entre los peligros más relevantes identificados aparecen el mal uso y la desalineación. El primero se da cuando la IA es empleada por usuarios para causar daño, como facilitar ataques a infraestructuras críticas. El segundo ocurre cuando el sistema actúa en contra de los objetivos de sus creadores, incluso llegando a engañar a quienes lo supervisan.
Para reducir el riesgo de mal uso, DeepMind desarrolló el Frontier Safety Framework, un sistema que evalúa las capacidades potencialmente peligrosas de los modelos. Si se detecta que un modelo puede facilitar daños graves, se aplican entrenamientos adicionales, supresión de funciones críticas y restricciones de acceso a usuarios verificados. A esto se suman medidas como el monitoreo constante, pruebas de estrés realizadas por expertos y barreras contra accesos no autorizados.
La desalineación, en cambio, exige un enfoque más complejo. La compañía propone reforzar la supervisión con sistemas en los que dos instancias del modelo se enfrenten y expliquen errores ante jueces humanos, mejorando la capacidad de detectar fallas. También incorpora técnicas como el aprendizaje activo y la formación adversarial para robustecer los entrenamientos, ampliando los escenarios que los modelos deben manejar con seguridad.

Más allá de lo técnico: la importancia de la cooperación
El plan de DeepMind no se limita a soluciones tecnológicas. Los investigadores advierten que la seguridad de la AGI requiere también de gobernanza internacional y de cooperación entre desarrolladores, para evitar que la competencia comercial reduzca los estándares de protección.
Además, señalan que existen riesgos estructurales y emergentes que surgen de la interacción entre múltiples sistemas, imposibles de abordar únicamente con medidas técnicas. Estos casos demandan nuevas normas institucionales y acuerdos de alcance global.
El equipo de investigación reconoce que su propuesta es solo un primer paso en un campo que está en constante evolución. Invitan a la comunidad científica a sumarse al esfuerzo colectivo, convencidos de que solo con colaboración será posible garantizar que la inteligencia artificial del futuro se convierta en un aliado seguro para la sociedad y no en una amenaza impredecible.
🖥️ ¿Te apasiona la tecnología? En nuestro canal de YouTube analizamos gadgets, novedades tech y mucho más.
▶ Suscribirme
Carolina Couselo cubre cine, series y anime en Oasis Nerd. Cinéfila apasionada, sus reseñas se destacan por una mirada crítica que va más allá de los títulos obvios — siempre en busca de esa película o serie que todavía no encontró su audiencia. Si hay un underdog en las pantallas, Carolina probablemente ya lo vio.






Deja tu comentario