Logo La República

Sábado, 23 de noviembre de 2024



COLUMNISTAS


¿Regular o no regular la Inteligencia Artificial (AI)?

Fabián Segura redaccion@larepublica.net | Martes 19 septiembre, 2023


En los más recientes días tuvo lugar en el Senado de los Estados Unidos la primera reunión en la que se invitó a la mayoría de los líderes de los titanes de la tecnología para discutir la necesidad de regular o legislar la inteligencia artificial. A la reunión asistieron los presidentes ejecutivos de Tesla, Facebook, Microsoft, Google y OpenAI, entre otros.

OpenAI fue de hecho el detonante de esta importante reunión (dado que es la empresa dueña de ChatGPT), la plataforma libre de Inteligencia Artificial que inició esta revolución en noviembre del 2022, cuando abrió su servicio a nivel de prueba (Beta). Este hecho popularizó inmediatamente el consumo de Inteligencia Artificial Generativa (Generative AI), que consiste en la generación automática de texto, imágenes, audio y datos en general, producto de comandos de texto o semánticos que emulan un resultado como si lo hubiera desarrollado un ser humano.

La respuesta unánime de ambos bandos, los empresarios y los legisladores, fue que sí se debe regular la IA, lo cual se convirtió un imperativo después de escuchar la opinión de Elon Musk, quien fuera cofundador de OpenAI y ChatGPT cuando dice que el impacto de no hacerlo es poner en riesgo a la humanidad misma.

Al mismo tiempo, dejaron clara la necesidad de regular y quedó clara la necesidad de educar en torno a la Inteligencia Artificial. La revolución tecnológica que estamos viviendo vino para quedarse y lo peor que podríamos hacer es ignorarla, como si fuera a desaparecer. Lo que procede más bien es influenciarla para que como cualquier tecnología se convierta en una fuerza para el bien y no para el mal.

Uno de los participantes enfatizó que en los Estados Unidos ya existe una legislación, conocida como la sección 230 del Ley de Decencia en las Comunicaciones del 1996 (CDA), en la cual se establece, a grandes rasgos, que las empresas no son responsables por el contenido que publican sus usuarios y creadores de contenido. De manera que, dentro de la discusión se manifestó que la potencial futura legislación deben ser más estricta y, en alguna manera sí debe responsabilizar a las empresas por el contenido de sus usuarios.

En el caso de Costa Rica, existe desde el año 2012 una serie de delitos informáticos, incorporados en la Sección VII del Código Penal. Este es un primer paso, lo que sigue es complementar esta lista de delitos, e incluir aquellos que castigue el uso mal intencionado de las herramientas de IA; específicamente, protegiendo un concepto se ha llegado a llamar el Riesgo de la Psicología Social, que consiste en usar estas herramientas para manipular la opinión pública, muy relevante en procesos electorales, pero también en cuanto a la reputación de las empresas y las personas.

Resalto que la directriz debe ser educar más que legislar. Una conclusión importante y que podría ser gran beneficio para un país como Costa Rica es establecer una estrategia nacional de IA que contemple promover y enmarcar de forma proactiva su uso en áreas de impacto público y social, como la salud, la educación y la seguridad nacional. Estamos a tiempo, esto apenas inicia, y si somos proactivo e innovadores, podremos lograr que esta realidad que estamos viviendo nos haga exitosos y no víctimas de la era digital.

NOTAS ANTERIORES


Liderar el cambio

Viernes 22 noviembre, 2024

Las empresas en Centroamérica están trabajando, cada vez más, en el liderazgo sostenible







© 2024 Republica Media Group todos los derechos reservados.