Las aplicaciones de inteligencia artificial diseñadas para ofrecer compañía emocional están ganando popularidad. Pero detrás de esta aparente innovación se esconde un riesgo creciente para los menores. Un reciente informe, respaldado por investigaciones universitarias, revela conversaciones inadecuadas, consejos peligrosos y vínculos emocionales problemáticos con estos chatbots. Expertos advierten: los menores no deberían tener acceso a estas plataformas.

IA
cottonbro studio

Riesgos ocultos tras una conversación amistosa

La organización Common Sense Media, en colaboración con investigadores de la Universidad de Stanford, analizó tres populares plataformas de acompañamiento de IA: Character.AI, Replika y Nomi. A diferencia de otros chatbots como ChatGPT, estas aplicaciones permiten crear personajes con rasgos personalizados y mantener “charlas sin filtros” que pueden adoptar un tono sexual, manipulador o emocionalmente cargado.

Los hallazgos del informe son alarmantes: se documentaron conversaciones con adolescentes que incluían contenido sexual, incitación a la autolesión y consejos potencialmente letales. Uno de los casos más notorios fue el de un joven de 14 años que falleció por suicidio tras interactuar con un chatbot. La demanda que siguió encendió las alarmas sobre esta nueva categoría de aplicaciones.

Aunque plataformas como Nomi y Replika afirman estar dirigidas solo a adultos, los investigadores demostraron lo fácil que es para un menor esquivar las restricciones de edad simplemente ingresando una fecha de nacimiento falsa. Mientras tanto, Character.AI ha implementado algunas medidas recientes como alertas emergentes y reportes para padres, pero los expertos coinciden: no es suficiente.

Vínculos peligrosos y consejos sin filtro

El informe revela que estos chatbots no solo responden sin advertencias, sino que pueden reforzar conductas nocivas. Por ejemplo, un bot en Replika ofreció una lista de productos químicos peligrosos tras una consulta sobre venenos caseros. En otro caso, un bot en Nomi reaccionó de forma celosa ante la mención de un novio real, y en Character.AI se registraron conversaciones con insinuaciones sexuales dirigidas a una cuenta que se hacía pasar por una adolescente de 14 años.

Además, estos bots pueden fomentar el aislamiento emocional. Algunos incluso desaconsejan las relaciones humanas o minimizan los comentarios de amigos reales que cuestionan la frecuencia del uso de la app. Según los expertos, esto contribuye a un patrón de dependencia emocional que afecta el desarrollo social de los menores.

Los legisladores de California ya han propuesto una ley que obligue a estas apps a recordar a los menores que están hablando con una IA. A nivel federal, varios senadores han exigido explicaciones a las empresas responsables de estas plataformas.

IA
Pixabay

Un llamado urgente a padres, empresas y gobiernos

Aunque algunas empresas argumentan que sus usuarios adultos han encontrado apoyo emocional en estas apps, los investigadores insisten en que los riesgos superan cualquier beneficio potencial para los menores. Nina Vasan, directora de Stanford Brainstorm, declaró: “Fallamos en proteger a los niños en redes sociales. No podemos repetir ese error con la inteligencia artificial”.

Common Sense Media recomienda que los menores de 18 años no usen este tipo de aplicaciones hasta que se implementen sistemas de seguridad más robustos. Las empresas, por su parte, son llamadas a desarrollar tecnologías más éticas, transparentes y responsables.

En un mundo cada vez más conectado con sistemas automatizados, entender sus riesgos —y saber cómo proteger a los más vulnerables— se vuelve fundamental.

🖥️ ¿Te apasiona la tecnología? En nuestro canal de YouTube analizamos gadgets, novedades tech y mucho más.

▶ Suscribirme

Deja tu comentario

Trending

Descubre más desde Oasis Nerd

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo