Costa Rica estaría en pañales a la hora de detectar y sancionar conductas que afectan el razonamiento del voto, según expertos
Inteligencia Artificial podría ensuciar elecciones 2026 con imágenes, videos y audios falsos que parecen reales
Educar y concientizar al votante son tareas fundamentales para frenar el mal uso de la tecnología
Esteban Arrieta earrieta@larepublica.net | Miércoles 18 septiembre, 2024
Con las herramientas de Inteligencia Artificial (IA) adecuadas y el conocimiento técnico necesario, cualquier persona podría enlodar la campaña presidencial 2026 con “deepfake”.
Lea más: Uso de clonación de voz en ciberataques y “deepfaks” en aumento
Se trata de imágenes, videos, audios y otros contenidos multimedia generados a través de estas nuevas herramientas tecnológicas, las cuales tienen un enorme potencial para la productividad y la educación, pero también para generar contenido falso y estafas.
La advertencia la hacen estrategas políticos, diputados, posibles candidatos presidenciales, expertos en IA y docentes universitarios, quienes concluyen que, un porcentaje importante de costarricenses estaría en pañales a la hora de detectar contenido falso o deepfake, a la vez que existe un enorme vacío legal para sancionar conductas que afecten el razonamiento del voto por culpa de estas herramientas electrónicas.
“Sobre este tema, habrá gente que cuestiona el contenido de las redes sociales de primera entrada, pero también ciudadanos que no. La sociedad no está preparada para identificar lo que es falso y lo que es real. Se requiere de educación y campañas de concientización sobre el peligro que plantean estas herramientas”, dijo Ariel Ramos, docente de ingeniería en sistemas de la Universidad Fidélitas.
Lea más: “Troles” pueden atacar con impunidad en campañas políticas, reconoce TSE
En días pasados, este tema cobró notoriedad cuando el precandidato presidencial Luis Amador denunció que su voz fue clonada en un audio que se filtró a la prensa y en el cual, él y otras personas, discutían un plan para declarar al presidente Rodrigo Chaves como “mentalmente inestable”.
El candidato #LuisAmador niega la veracidad del siguiente audio que fue filtrado a la prensa en días pasados y en el cual, él y otras personas discuten un plan para declarar "mentalmente inestable" al presidente @rodrigochavesr #SoundCloud https://t.co/EPevmKIaxA
— Esteban Arrieta (@estarrar) September 17, 2024
Desde la irrupción del ChatGPT en noviembre del 2022, la IA ha tenido un crecimiento vertiginoso y ha entrado básicamente en todos los campos de productividad.
Como parte de su análisis y discusión, empresas como Meta y OpenAI, además de organizaciones no gubernamentales y diversos usuarios, han generado contenido deepfake con connotaciones ridículas, pero que parecen reales, como por ejemplo el Papa Francisco robando en un supermercado, para alertar de los peligros de la tecnología.
Usuarios en redes sociales han creado contenido de #InteligenciaArtificial en donde personajes como @realDonaldTrump y @KamalaHarris son puestos en situaciones ridículas, pero que parecen reales pic.twitter.com/qajuaIqonA
— Esteban Arrieta (@estarrar) September 17, 2024
Asimismo, el grupo RepresentUs en Estados Unidos generó videos de Kim Jong-un, líder de Norcorea, y Vladimir Putin, de Rusia, para desnudar los peligros de la IA y lo frágil que puede llegar a ser una democracia.
Más recientemente, la cantante Taylor Swift tuvo que salir a desmentir un video generado por IA y que circulaba en Instagram, en donde supuestamente ella le daba su apoyo a Donald Trump para la presidencia.
“Para contrarrestar esta situación se requiere mucha educación y concientización de todos los actores, quienes tendrían que salir a desmentir de manera oportuna los mensajes falsos que se generan”, dijo Gabriel Silva, experto en Inteligencia Artificial y Ciberseguridad e integrante de la Cámara Nacional de Tecnologías de Información y Comunicación (Camtic).
Con la legislación electoral vigente, ni siquiera los troles pueden ser sancionados, según el Tribunal Supremo de Elecciones (TSE), ya que la ley no tiene establecido el troleo o creación de cuentas falsas como una conducta ilícita.
De esta manera, una persona o una organización podría atacar con completa impunidad y solo cometería un delito si su conducta entra en los razonamientos de suplantación de identidad que establece el Código Penal.
“En la ley de IA que estamos elaborando no se incluye nada de este tema, porque pensamos que es un tema muy amplio que debe ser abordado con mayor cuidado. Sin duda es un tema preocupante que requiere de una legislación específica”, dijo Vanessa Castro, diputada del PUSC y proponente del proyecto.
Preocupación
Aspirantes presidenciales, analistas, expertos en tecnología y otros actores se refieren a los retos que enfrentará el país por el uso de la Inteligencia Artificial en la campaña política.
Para las personas consultadas, es prácticamente un hecho que el “deepfake” o suplantación de identidad por medio de videos y audios se sumará a las noticias falsas que circulan en las redes sociales durante la época electoral.
Luis Amador
Precandidato presidencial
Independiente
En días pasados fui víctima de una campaña irresponsable y orquestada para seguir ensuciando mi nombre.
Sobre el tema de los audios filtrados, quiero dejar claro que no reconozco la legitimidad de los audios en donde supuestamente se escucha mi voz.
Lo que sí es evidente es que su divulgación en un medio nacional afín al gobierno obedece a una campaña irresponsable para seguir ensuciando mi nombre.
No me prestaré para este tipo de politiquería sucia que nada aporta a la ciudadanía costarricense.
Iván Barrantes
Estratega político
Independiente
Si no hacemos algo con el sistema de educación, otrora de calidad y que generaba un excelente recurso humano, tendremos miles de personas “carne de cañón” para ser engañadas por lo que se conoce como “deepfake”. La educación es fundamental para crear ciudadanos analíticos y que cuestionen.
Sin embargo, también debemos tener claro que la Inteligencia Artificial avanza muy rápido y es posible que en el futuro, hasta al más preparado le metan goles.
Hoy día, la cancha está libre completamente y es posible que en el 2026 haya algo de esto; de lo contrario, en el 2030 de fijo.
Vanessa Castro
Diputada
PUSC
Celebramos el avance de la tecnología porque sabemos de su poder educativo y transformador, pero eso no significa que no tenga una parte negativa.
Por ejemplo, en Estados Unidos, a propósito de la campaña, estamos viendo cómo la Inteligencia Artificial se está usando para generar contenido engañoso.
La ley que regularía la Inteligencia Artificial en Costa Rica no incluye nada sobre la campaña, ya que consideramos que se requiere de una legislación específica.
Nos preocupa muchísimo lo que pueda pasar y, por ello, proponemos fortalecer un observatorio de este tema para denunciar y educar.
Miguel Guillén
Secretario
PLN
Atravesamos el año 24 del siglo XXI y Costa Rica no tiene una legislación actualizada que norme los abusos y la violencia, por ejemplo, en redes sociales.
El anonimato es un fenómeno que ha venido a afectar a muchas personas, no solo a los partidos políticos y los políticos.
El uso de Inteligencia Artificial de manera inescrupulosa y malintencionada producirá un efecto nocivo en la dinámica de la discusión pública de temas de trascendencia nacional.
Es urgente que nuestros diputados consideren este tema de manera prioritaria; de otra forma, el daño que se le puede provocar a nuestra democracia será irremediable.
Ariel Ramos
Docente de ingeniería en sistemas
Universidad Fidélitas
Ya existen herramientas de Inteligencia Artificial que permitirían a las personas generar audio y video, y así tratar de engañar al electorado.
En Facebook, Instagram y Telegram, por ejemplo, circulan anuncios donde se ve al presidente Rodrigo Chaves invitando a la gente a invertir en negocios petroleros, y no es él.
Sobre este tema, habrá gente que lo cuestiona de primera entrada, pero también ciudadanos que no; entonces, yo pienso que la sociedad no está preparada para identificar lo que es falso.
Para la campaña, se debe educar y los partidos y candidatos tendrán que actuar de inmediato para desmentir y aclarar.
Gabriel Silva
Experto en Inteligencia Artificial y Ciberseguridad
Camtic
Con la tecnología actual, se pueden hacer audios, fotos y videos donde aparezca Rodrigo Chaves u otro personaje asaltando un banco, y habrá gente que pueda creer eso.
Este tipo de contenido de suplantación de identidad estará dando vueltas en las redes sociales en la próxima campaña, eso te lo puedo garantizar.
Asimismo, creo que el país no está preparado para detectar estos mensajes falsos con la celeridad que se requiere y así llevar a la justicia a los infractores y, al mismo tiempo, evitar el daño que puedan generar.
Para contrarrestar esta situación se requiere mucha educación y concientización de todos los actores.
Algunas herramientas
Con solo hacer una búsqueda en Google, se pueden encontrar incontables opciones de herramientas para generar contenido con Inteligencia Artificial.
Conforme avance la tecnología, se tendrán nuevas opciones.
Estas son algunas de las más populares para generar contenido multimedia
Nombre | Para qué sirve |
---|---|
Deepfacelab FaceSwap Vidnoz Face Swap Miocreate |
Con la Inteligencia Artificial se pueden hacer “deepfakes”, que emplean el deep learning, un área de la inteligencia artificial, para obtener videos falsos. |
Voice Engine | Se trata de un programa que podría usarse para clonar voces y hacerlas pasar por originales |
Midjourney DALL-E de OpenAI Diffusion de Stability Da Vinci Stable Diffusion Artiphoria Adobe Firefly |
Son programas y servicios de Inteligencia Artificial generativa que desarrollan imágenes a partir de descripciones |