NegociosPrincipal

Inteligencia Artificial, un riesgo en México por falta de regulación

En varios países existen múltiples reformas legales que cuidan la exposición de información facial o biométrica, el uso de datos, cuidado de los derechos, entre otros factores.

Redacción / Agencia. México., 27 de mayo de 2025.-La falta de reformas legales, poca apertura a una educación digital y la brecha socioeconómica y pública, son factores que a decir de los expertos en psicología e incluso de las propias empresas que nutren la Inteligencia Artificial (IA), podrían significar un riesgo de gran dimensión para las y los mexicanos con el uso de esta herramienta.

Si bien en la actualidad pareciera que el término de Inteligencia Artificial es algo más que novedoso, la realidad es que desde 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales al mundo, siendo este, el inicio de todo lo que hoy tenemos al alcance de la mano.

No obstante, los saltos que en la actualidad la IA ha dado con la creación de imágenes, desarrollo de avatares e incluso simulaciones cercanas a un razonamiento humano, han puesto en tela de juicio, si nuestra sociedad está preparada o no para tantas posibilidades.

En la Unión Europea, Estados Unidos, Japón, China, Canadá, Corea del Sur y Australia, existen múltiples reformas legales que principalmente cuidan la exposición de información facial o biométrica, transparencia en el uso de datos, cuidado de los derechos y muchos más elementos fundamentales; sin embargo, en México, las pláticas sobre los riesgos apenas están sobre la mesa.

El Senado de México, analiza propuestas de reformas para la protección y regulación de la IA en sectores públicos para la protección de datos privados, mientras que el Consejo Nacional de Ciencia y Tecnología y la Secretaría de Infraestructura, Comunicaciones y Transportes (SICT), planean estrategias nacionales de Inteligencia Artificial para su uso ético, inclusivo y con apego a la ciberseguridad; entre otros sectores como el privado o el propio INE que buscan la no creación de campañas de desinformación o violencia a través de esta herramienta.

Pero esto no es un secreto para nadie, mucho menos para la misma IA, pues luego de nutrir la aplicación de ChatGPT de datos periodísticos, se le solicitó responder, sobre los riesgos que representa su uso en México.

“Sobre los riesgos en México, te señalare los más relevantes: La desinformación y manipulación, mismos que se podrían potencializar en un país tan polarizado en política y violencia constante. Suplantación de identidad y fraudes, soy una herramienta que fácilmente podría imitar voces o mensajes para engañar a las personas. Desplazamiento laboral, sin garantizar que mis conocimientos sean los más idóneos. Y el uso autoritario, con antecedentes de espionaje como el caso Pegasus, la IA podría potencializar prácticas de riesgo para la sociedad si no se regula con firmeza”, respondió la herramienta.

Es decir, la propia IA y seguramente sus desarrolladores, saben del potencial que tiene y también, del riesgo que conlleva, pero más allá de una auto regulación, esperarán hasta que la ley de cada país asiente las bases de un futuro digital apegado a normativas y estándares éticos.

Justamente, Ivonne Estela Martínez Hernández, docente de psicología de la Universidad Popular Autónoma del Estado de Puebla (UPAEP), expresa que si bien, la IA puede convertirse en un aliado importante de la educación y desarrollo de profesionistas; en la actualidad, existen riesgos bastantes delicados por analizar, haciendo referencia incluso, a un caso de suicidio adolescente en Orlando, Florida, por el enamoramiento de un joven con un avatar desarrollado con Inteligencia Artificial.

“Esas situaciones son las que hay que conocer, analizar, prevenir también como sociedad, tener en cuenta que la vida real es esta y no está dentro de una pantalla”.

Señaló que tanto ella como otros especialistas imparten cursos a docentes para hacer de la IA una herramienta de aprendizaje e investigación que potencialice a las nuevas generaciones.

Fuente: Milenio

Botón volver arriba