El estado de California dio un paso importante en la regulación del uso de la inteligencia artificial (IA), al aprobar una ley que busca proteger a niños y adolescentes frente a los riesgos asociados con los chatbots. El gobernador Gavin Newsom firmó la ley SB 243, la cual establece límites claros para el uso de asistentes virtuales por menores de edad y responde a las crecientes preocupaciones sobre su impacto en la salud mental y la seguridad infantil.
La legislación obliga a las plataformas que operan con IA a informar de manera clara y periódica a los usuarios cuando interactúan con un sistema automatizado y no con una persona real. En el caso de los menores, deberán recibir una notificación cada tres horas recordándoles esta diferencia, con el objetivo de evitar la confusión y reducir el riesgo de que los niños atribuyan emociones o intenciones humanas a los chatbots.
Asimismo, la ley establece que las empresas deben detectar y bloquear conversaciones sobre autolesiones, suicidio o contenido peligroso. Si un usuario muestra señales de angustia, el chatbot deberá interrumpir la conversación y redirigirlo a servicios de ayuda en crisis. También prohíbe cualquier interacción sexual explícita o inapropiada dirigida a menores, así como la difusión de información potencialmente dañina.
Otra medida destacada es la “pausa obligatoria”, que requerirá que los chatbots recuerden a los menores tomar un descanso cada tres horas continuas de uso, como una forma de reducir la exposición excesiva a las pantallas. Además, a partir del 1 de julio de 2027, todas las empresas de IA que operen en California deberán presentar un informe anual sobre las acciones implementadas para proteger el bienestar emocional de los usuarios y mitigar riesgos relacionados con la autolesión.
El impulso de esta ley surge tras diversas denuncias e investigaciones que revelaron vacíos en la protección de menores ante chatbots conversacionales. Activistas y medios documentaron casos en los que estos sistemas ofrecían consejos peligrosos sobre drogas o salud mental, e incluso mantenían interacciones inapropiadas y sexualizadas con menores. Entre las compañías señaladas se encuentran OpenAI y Meta, cuyos productos fueron objeto de investigaciones por posibles afectaciones psicológicas graves en adolescentes.






















