Skip to content
La Tercera

Ética e inteligencia artificial


Foto de Gabriela Arriagada
Profesora Instituto de Éticas Aplicadas y de IMC
La acelerada integración de la inteligencia artificial en diversos sectores plantea interrogantes cruciales sobre moral, privacidad y responsabilidad. ¿Está preparado Chile para abordar los dilemas éticos que acompañan esta revolución tecnológica? ¿Se puede regular y supervisar una tecnología que evoluciona tan rápidamente?

En un mundo donde la inteligencia artificial (IA) está cada vez más presente, los desafíos éticos que esta tecnología implica son ineludibles. La capacidad de la IA para analizar grandes cantidades de datos y tomar decisiones autónomas, tiene el potencial de transformar industrias y mejorar vidas, a decir de los expertos. No obstante, esta misma capacidad también trae consigo riesgos que no pueden ser ignorados. ¿Cómo se protege la privacidad en un entorno dominado digitalmente? ¿Cómo se evita que la integridad de niños, niñas y adolescentes no se vea afectada por el uso indebido de esta tecnología? ¿De qué manera se garantiza que los algoritmos sean justos y no perpetúen sesgos?

Según el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación, Chile ostenta hoy el primer lugar en Latinoamérica en capacidades para desarrollar inteligencia artificial. Uno de los elementos clave para ello fue haber publicado su primera Política Nacional de IA en 2021, de modo que fenómenos como Chat GPT y la IA generativa no tomaron al país por sorpresa. Además, detallan desde esa cartera, hoy se cuenta con una segunda versión actualizada de la Política Nacional de IA, con foco en los aspectos éticos y de gobernanza, mediante un proceso que recogió los resultados de la metodología RAM de la Unesco.

Gabriela Arriagada, académica UC e investigadora del Centro Nacional de Inteligencia Artificial (Cenia) y autora del libro Los sesgos del algoritmo, explica que para empezar a conversar sobre ética e IA, lo primero es entender por qué esta tecnología no puede regularse en sí misma. “Es una tecnología abierta, de rápido desarrollo, en constante cambio y además tiene muchas especificaciones, por lo tanto, tratar de regular la tecnología en sí misma es casi contraproducente”, señala. Lo que sí se puede regular, dice ella, son sus impactos, sus riegos y su manejo, es decir, el rol que cumplen los seres humanos en el desarrollo de la IA.

El enfoque que plantea esta investigadora se alinea con prácticas internacionales como las de Estados Unidos y la Unión Europea, que apuntan a regular los procesos de diseño y creación de la IA, así como las políticas públicas asociadas, para limitar usos inaceptables y proteger el impacto social negativo.

Uno de los principales desafíos en la implementación de la IA es la falta de educación, tanto tecnológica como ética. Arriagada indica que en Chile hay una falta profunda y transversal de contenidos curriculares en educación básica, media y universitaria sobre esos temas. “Identificamos una falta transversal no solo de contenidos, sino también de la articulación de la ética dentro de carreras que son estratégicas para el desarrollo del país”, comenta. (...)


Comparte esta publicación

import_contacts Medio
La Tercera
event Fecha
local_offer Temas

Leer nota completa launch