Los algoritmos éticos
La inteligencia artificial ofrece oportunidades para el sector financiero, pero su implementación no está exenta de riesgos.
Los sesgos algorítmicos, las amenazas a la privacidad, el uso malicioso de tecnologías generativas y la obsolescencia de los modelos, representan desafíos que las entidades bancarias deben abordar con rigor y anticipación.
La inteligencia artificial aprende de los datos con los que se entrena, y esos datos reflejan decisiones y patrones históricos.
Si el pasado contiene desigualdades, los algoritmos pueden perpetuarlas de manera inadvertida. Esto puede resultar en productos y decisiones que reproduzcan estereotipos dañinos, incluso cuando no exista una intención discriminatoria.
Un ejemplo ilustra este riesgo con claridad. Un modelo de score crediticio que se base en el nivel de ingresos y la estabilidad laboral podría sesgar implícitamente el sistema en contra de otorgar préstamos a mujeres, dado que históricamente los hombres han percibido mayores ingresos. El algoritmo no discrimina de manera explícita, pero el resultado es inequitativo.
La solución requiere hacer transparentes las variables que operan de manera oculta. La imparcialidad de género, por ejemplo, puede lograrse al introducir una variable que identifique el sexo y exigir que el modelo no produzca resultados sesgados en función de ella.
Esa transparencia se refiere a la capacidad de entender y explicar cómo los algoritmos toman decisiones.
En el contexto bancario, donde las decisiones automatizadas pueden afectar el acceso al crédito, la aprobación de productos y la detección de actividades sospechosas, esta transparencia resulta fundamental, así como recordar que la inteligencia artificial es una ayuda para las decisiones, que no remplaza el juicio humano ni la responsabilidad institucional.
Antes de implementar o para mantener un sistema de inteligencia artificial, las entidades pueden aplicar un marco de evaluación que examine qué tipo de decisiones está tomando el sistema y si son decisiones puramente técnicas o si afectan derechos y oportunidades de las personas.
También debe analizarse cuál es el resultado de esas decisiones, si implican consecuencias positivas y beneficiosas o si representan algún tipo de daño potencial. Finalmente, es necesario determinar la posibilidad de falsos positivos y falsos negativos, y evaluar las consecuencias de cada tipo de error.
La premisa es clara: la tecnología debe trabajar de acuerdo con nuestros principios y valores, y la ética debe guiar cada decisión.
Espacio pagado
Quienes habitamos la Comunidad Ojalá sabemos que somos diferentes y nos alegra serlo.
Nuestros contenidos son útiles para comprender y mejorar la vida cotidiana. Están libres de publicidad. Los anima la curiosidad, el rigor y los financia la gente.
Únete. Participa. Haz un donativo.