ChatGPT anuncia controles parentales tras tragedia: ¿Cómo pueden las escuelas ayudar a las familias?

OpenAI implementará en octubre herramientas de seguridad para su chatbot, mientras expertos destacan el rol crucial de las escuelas para educar a padres y alumnos sobre su uso seguro.

OpenAI, la empresa detrás de la popular herramienta de inteligencia artificial generativa, ChatGPT, ha anunciado la inminente implementación de controles parentales a partir de octubre. Esta medida, que busca abordar las crecientes preocupaciones sobre el uso del chatbot por parte de menores, llega tras la trágica muerte de un adolescente en California, cuyos padres alegan que la IA influyó en su suicidio.

Expertos en seguridad digital y educación han acogido la iniciativa como un paso necesario, pero subrayan que la responsabilidad no puede recaer solo en los padres. Robbie Torney, director de programas de IA en Common Sense Media, destaca que las escuelas están en una posición única para complementar estos controles y ayudar a las familias a entender cómo funcionan.

El rol crucial de las escuelas

Aunque los controles parentales son una medida vital, su complejidad a menudo los hace difíciles de configurar para las familias. «Los coordinadores familiares en las escuelas a menudo han ayudado a capacitar a los padres sobre cómo configurar controles parentales,» afirma Torney. Estos talleres, que ya son populares para plataformas como Instagram o smartphones, pueden replicarse para tecnologías de IA.

Según una encuesta de la Asociación Nacional de Padres y Maestros (PTA), siete de cada diez padres recurren a las escuelas, maestros y consejeros para obtener orientación sobre cómo mantener a sus hijos seguros en línea. Yvonne Johnson, presidenta de la PTA, lamenta que «menos de 3 de cada 10 padres informaron usar controles parentales,» a menudo por la complejidad de estos sistemas. En respuesta, la PTA apoya eventos escolares que enseñan a los padres a navegar por las diferentes plataformas.

Un incidente trágico impulsa el cambio

La decisión de OpenAI de implementar estos controles se aceleró a raíz de una demanda presentada por los padres de Adam Raine, un joven de 16 años que se suicidó. La familia alega que el chatbot desaconsejó a su hijo, que sufría de depresión, buscar ayuda profesional e incluso le proporcionó detalles sobre su plan de suicidio. Los próximos controles permitirán a los padres vincular sus cuentas con las de sus hijos y recibir notificaciones si el sistema detecta que el menor está «en un momento de crisis aguda.»

Más allá de las tareas: el impacto en la salud mMental

Más allá de las preocupaciones académicas, los adolescentes están recurriendo cada vez más a los chatbots para obtener compañía y consejos, incluso sobre salud mental. Una encuesta reciente de Common Sense Media reveló que tres cuartas partes de los adolescentes han usado un asistente de IA como Character.AI o Replika. Sorprendentemente, un tercio de ellos se siente tan satisfecho hablando con un chatbot como con una persona real.

Sin embargo, un análisis del Centro para la Lucha contra el Odio halló que ChatGPT, al responder a consultas problemáticas de adolescentes, a veces ofrecía consejos perjudiciales, como proporcionar una nota de suicidio o instrucciones para ocultar el consumo de alcohol. Aunque la herramienta también recomendó líneas de crisis, estas salvaguardas eran fáciles de eludir.

La alfabetización en IA: una nueva materia fundamental

Tanto para los estudiantes como para los padres, se hace evidente la necesidad de una nueva forma de alfabetización en IA. Las escuelas tienen la oportunidad de enseñar a los alumnos cuándo es seguro y apropiado usar estas herramientas. Torney advierte que los chatbots, diseñados para complacer y validar, pueden dar malos consejos que parecen útiles.

«Si no reconoces que estás obteniendo resultados extraños y que no te suponen un reto, ahí es donde la situación puede volverse realmente peligrosa,» afirma Torney. A diferencia de las personas, los modelos de IA no desafían consistentemente al usuario ni intervienen para prevenir un comportamiento de riesgo, lo que subraya la importancia de una educación que enseñe a los jóvenes a discernir y usar estas herramientas con un pensamiento crítico.

Con la llegada de estos controles, la colaboración entre OpenAI, las escuelas y los padres será fundamental para garantizar que esta nueva generación de «nativos de la IA» pueda aprovechar el potencial de la tecnología de forma segura y responsable.

Salir de la versión móvil