Y en Chile, bien gracias
La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) abrió una investigación sobre siete compañías tecnológicas que operan chatbots con inteligencia artificial generativa, ante el creciente uso de estas herramientas como supuestos “compañeros virtuales”. El regulador busca determinar qué medidas están adoptando estas firmas para evaluar riesgos, proteger a niños y adolescentes, y cumplir con la ley de privacidad infantil.
Las órdenes fueron enviadas a Alphabet, Character Technologies, Instagram, Meta, OpenAI, Snap y X.AI, todas compañías que han lanzado o están desplegando productos capaces de simular conversaciones humanas y generar vínculos emocionales con usuarios. La preocupación central de la FTC es que estas plataformas puedan inducir a menores a confiar en “amigos digitales” sin dimensionar los riesgos asociados al uso intensivo de estas tecnologías.
“Proteger a los niños en línea es una prioridad para esta administración”, declaró el presidente de la FTC, Andrew N. Ferguson, quien agregó que la investigación apunta a equilibrar la innovación tecnológica con resguardos efectivos para los grupos más vulnerables.
La indagatoria, amparada en la autoridad de la sección 6(b) de la FTC, no persigue de momento un fin sancionatorio, sino que busca levantar información clave sobre prácticas corporativas. Entre los puntos que interesan al organismo están: cómo se monetiza la interacción de los usuarios, cómo se procesan y almacenan los datos de las conversaciones, qué protocolos se usan para crear personajes, y de qué manera se mide y mitiga el impacto negativo antes y después del despliegue.
Para dimensionar el alcance de la medida, vale la comparación: en Chile, las funciones que concentra la FTC están repartidas entre varias instituciones. El Sernac ve la protección de los consumidores, pero con facultades acotadas; la FNE investiga prácticas anticompetitivas, mientras que el TDLC es el que resuelve esas disputas. En Estados Unidos, la FTC combina todos esos roles en un solo organismo, con capacidad de investigar, sancionar y exigir cambios a las empresas, lo que la convierte en un regulador mucho más influyente y con mayores atribuciones que cualquiera de sus pares chilenos.
El regulador también exigió claridad sobre si las empresas informan de forma adecuada a los padres acerca de las características de sus productos, los riesgos potenciales y el manejo de datos, así como el grado de cumplimiento de restricciones de edad y normas internas.
La medida se da en un contexto de fuerte presión política y social en torno al uso de la inteligencia artificial, especialmente cuando se vincula al bienestar de niños y adolescentes. Para la FTC, el caso servirá como termómetro para evaluar hasta qué punto la industria tecnológica está priorizando la seguridad de los menores o privilegiando modelos de negocio basados en la captura de datos y la maximización del tiempo de uso.
En Chile, la discusión sobre los riesgos de la inteligencia artificial para niños y adolescentes está lejos de alcanzar el nivel que ya se observa en Estados Unidos. Ni el Sernac, ni el Ministerio de Ciencia, ni otras agencias con competencias regulatorias han impulsado investigaciones o marcos de control sobre aplicaciones que funcionan como “compañeros virtuales”.
Hoy, plataformas de este tipo circulan libremente entre adolescentes sin filtros claros de edad, sin advertencias suficientes sobre sus riesgos y sin mecanismos efectivos de fiscalización.
El vacío es evidente: mientras la FTC obliga a gigantes tecnológicos a transparentar cómo diseñan, prueban y moderan sus chatbots, en Chile la conversación pública apenas comienza y el Estado sigue reaccionando con lentitud ante fenómenos que ya impactan a las familias. Esta brecha regulatoria deja a los usuarios –particularmente a los más jóvenes– en una situación de vulnerabilidad frente a empresas que operan sin mayores contrapesos en el mercado local.
