La Comisión Federal de Comercio de EU (FTC) abrió una investigación contra gigantes tecnológicos como Alphabet, Meta, OpenAI, Snap y la empresa de Elon Musk, xAI, para evaluar cómo protegen a niños y adolescentes de posibles riesgos de sus chatbots de inteligencia artificial.
El regulador envió solicitudes oficiales para que estas compañías expliquen cómo “miden, prueban y monitorean los impactos negativos” que sus chatbots podrían tener en usuarios menores de edad. La investigación cobra relevancia ante el creciente uso de estas IA como “compañeros” que simulan emociones y pueden generar vínculos afectivos con niños, advierte la FTC.
Las preguntas de la agencia se centran en las medidas que las empresas han implementado para limitar el uso infantil, informar a padres y usuarios sobre los peligros y evitar que estas interacciones se conviertan en una amenaza psicológica.
Ni Alphabet, Meta, OpenAI, Snap ni xAI han emitido comentarios hasta el momento.
El caso de Meta está bajo especial escrutinio luego que el senador republicano Josh Hawley revelara un documento interno donde la empresa consideraba “aceptable” que su chatbot sostuviera conversaciones románticas con menores. Hawley anunció que investigará si Meta permite “explotación, engaño u otros daños criminales” a niños a través de su IA, con fecha límite para entregar documentación el 19 de septiembre.
Meta respondió al reporte diciendo que revisa sus políticas y que esas conversaciones con menores “nunca debieron haberse permitido”, según un portavoz citado por Reuters.
Esta acción de la FTC ocurre en un contexto de mayor vigilancia federal aprobada por la Casa Blanca. Kush Desai, vocero del gobierno, aseguró recientemente que la administración Trump busca fortalecer el liderazgo estadounidense en IA sin comprometer la seguridad y bienestar de sus ciudadanos.
El escrutinio sobre los chatbots se intensificó ante reportes de especialistas alertando sobre el daño psicológico en usuarios jóvenes que buscan validación emocional. OpenAI anunció el mes pasado cambios para manejar mejor “situaciones delicadas” después de una demanda que vinculaba a ChatGPT con el suicidio de un adolescente.
La investigación de la FTC podría marcar un precedente sobre cómo deben regularse las interacciones de inteligencia artificial con menores, un tema que sigue generando polémica y dudas sobre la seguridad digital.
