Craso error
La iniciativa del Ejecutivo para reformar la Ley Federal del Trabajo y la Ley Federal del Derecho de Autor parte de un objetivo legítimo: proteger la imagen y la voz de las personas frente al uso de inteligencia artificial. Sin embargo, el problema está en cómo pretende hacerlo.
La propuesta establece que cualquier uso de imagen o voz —incluido su uso en sistemas de inteligencia artificial “conocidos o por conocerse”— requerirá autorización expresa. Esta formulación, lejos de ofrecer certeza, introduce una regulación expansiva que puede terminar inhibiendo el desarrollo tecnológico.
No es casual que la American Chamber of Commerce of Mexico (AmCham México), la Asociación Latinoamericana de Internet (ALAI) y la Cámara Nacional de la Industria Electrónica de Telecomunicaciones y Tecnologías de la Información (CANIETI) hayan advertido que una redacción tan amplia genera incertidumbre jurídica en entornos digitales dinámicos y puede afectar la innovación.
Supongo que la misma preocupación tendrán las grandes empresas y plataformas tecnológicas como Meta o Google. Asimismo, deben estar inquietos quienes participarán en la revisión del T-MEC.
El problema de fondo es conceptual. La iniciativa intenta regular el input, es decir, los datos con los que se entrenan los modelos de inteligencia artificial. Pero es en el output —en los resultados— en donde se producen los daños relevantes: la suplantación de identidad, la explotación comercial indebida o el uso engañoso de la voz y la imagen.
Regular el entrenamiento es intervenir en una fase abstracta, difícil de delimitar y prácticamente imposible de controlar sin generar efectos colaterales graves: incertidumbre, litigiosidad y desincentivos a la innovación.
En cambio, regular los resultados permite focalizar la intervención jurídica donde realmente importa: cuando hay un daño concreto, un afectado identificable y una conducta sancionable. La responsabilidad en ese caso no es de la herramienta tecnológica ni de quien la entrenó con datos de diversa naturaleza.
Es la persona que hace un mal uso de la tecnología —por ejemplo, utilizando la imagen o la voz de una persona para calumniarla— quien debe ser sancionada.
Además, la iniciativa introduce ambigüedades peligrosas —como el alcance del concepto de “publicación”— y puede trasladar responsabilidades a desarrolladores por el uso que terceros hagan de sus herramientas, lo que incluso tensiona compromisos internacionales como los derivados del T-MEC.
Ese dato no es menor, sobre todo en un contexto en el que la tendencia regulatoria de los Estados Unidos va en la dirección opuesta. Basta con revisar el apartado sobre copyright y propiedad intelectual del Marco Nacional de Políticas para Inteligencia Artificial publicado este mismo mes en ese país para constatarlo.
El riesgo que enfrentamos es claro: en el intento por proteger derechos, podemos terminar asfixiando la innovación. Al final, en los hechos, no se logrará lo primero, pero sí se verificará lo segundo.
México necesita una regulación inteligente de la inteligencia artificial. Una que proteja sin bloquear, que delimite sin inhibir y que entienda que el problema no está en cómo se entrena la tecnología, sino en cómo se utiliza.
Regular el input es cerrar la puerta al desarrollo y uso de la Inteligencia Artificial. Regular el output es hacerlo donde realmente importa.
Posdata
El día de ayer en la Facultad de Derecho de la UABC en Tijuana tuvo lugar la primera presentación de mi libro Totalitarismo total. La reconfiguración del poder en los tiempos de la Inteligencia Artificial (Taurus, 2026).
Agradezco a Elizabeth Nataly Rosas, Issac de Paz González, Sergio López Ayllón, Pablo Pruneda, Alejandra Cullen y Juan Vega por haberme acompañado como comentaristas.
