

Jairo Mendoza.
La inteligencia artificial se ha incorporado rápidamente en todos los ámbitos de la vida cotidiana: la educación, el trabajo, la comunicación y el entretenimiento.
Los recientes hechos ocurridos en la Secundaria Técnica 1 de Zacatecas, donde se difundió material digital con contenido sexual falso generado mediante inteligencia artificial (IA), exponen una problemática de fondo que trasciende a una sola institución. Este caso, que ha derivado en protestas que paralizaron la movilidad de la ciudad, cierre de instalaciones y una investigación por violación a la intimidad sexual, pone sobre la mesa la urgencia de legislar con claridad sobre el uso y los límites de la IA en México.
La inteligencia artificial se ha incorporado rápidamente en todos los ámbitos de la vida cotidiana: la educación, el trabajo, la comunicación y el entretenimiento. Sin embargo, su desarrollo ha superado la capacidad regulatoria de las instituciones. Herramientas que antes eran de uso exclusivo de especialistas ahora están al alcance de cualquier persona con acceso a internet. Esto ha generado un escenario de vulnerabilidad, especialmente para los menores de edad, cuyas imágenes y datos pueden ser manipulados sin su consentimiento.
Si bien México cuenta con leyes que sancionan delitos contra la intimidad, el avance tecnológico demanda marcos normativos específicos que reconozcan la existencia de contenidos sintéticos (imágenes, audios o videos generados mediante IA) y las consecuencias jurídicas derivadas de su uso indebido. Otros países ya han iniciado este proceso: la Unión Europea discute el “AI Act”, que establece obligaciones de transparencia y responsabilidad; y Estados Unidos analiza iniciativas similares enfocadas en la protección de datos y la identificación de contenidos alterados.
En nuestro país, específicamente en Zacatecas, el vacío normativo deja desprotegidas a las víctimas y sin claridad a las autoridades encargadas de sancionar. Urge que el Congreso y las instituciones reguladores impulsen una agenda integral que contemple tres ejes fundamentales: la tipificación de los delitos digitales vinculados con la IA, la protección de los derechos de imagen y privacidad, y la creación de mecanismos de supervisión y rendición de cuentas para las plataformas tecnológicas.
Paralelamente, la educación digital debe convertirse en política pública prioritaria. La prevención y el uso responsable de la tecnología son la primera línea de defensa frente a los riesgos del entorno digital.
El desarrollo tecnológico no debe detenerse, pero tampoco puede avanzar sin normas que garanticen la seguridad, la dignidad y los derechos de las personas. El caso en nuestro estado no es solo una alerta local, sino una señal nacional de que la inteligencia artificial requiere un marco ético y legal que acompañe su crecimiento.