Inteligencia Artificial y voces falsas: ¿Podemos distinguir lo real de lo falso?
La IA genera audios falsos que distorsionan la realidad y manipulan la opinión pública.
12 Jun, 2025 10:11
La Inteligencia Artificial (IA) avanza rápidamente, pero su capacidad para imitar voces humanas plantea riesgos graves. Recientemente, audios falsos generados por IA circularon en redes sociales, distrayendo la atención de denuncias reales de corrupción en México. Estos contenidos, difíciles de detectar, pueden dañar reputaciones y desinformar a la sociedad. Expertos como Sigman y Bilinkis advierten que la IA, aunque sofisticada, tiene rasgos ingenuos que la hacen vulnerable pero también peligrosamente persuasiva. La viralización de estos audios falsos demuestra cómo la tecnología puede ser usada para manipular la percepción pública. En casos como el de César Duarte, exgobernador de Chihuahua,
la discusión se desvió hacia contenidos falsos, perjudicando a figuras ajenas al escándalo. Esto refleja un problema mayor: la corrupción se protege con desinformación. La falta de regulación en IA permite que estas herramientas sean usadas con fines malintencionados, dificultando la lucha por la transparencia. Urge legislar para minimizar estos riesgos. México necesita leyes como la Ley Telecom para regular la IA y evitar su uso fraudulento. Mientras tanto, la sociedad debe desarrollar mayor criterio para identificar contenidos falsos y no replicar información sin verificar. La tecnología no es mala, pero su mal uso puede tener consecuencias devastadoras.