Seleccionar página

¿Tendrán los algoritmos de IA personalidad propia?

por | 19 Mar 2024 | Data & AI

A medida que la IA se vuelve más poderosa, surgen muchas reflexiones sobre su diseño y construcción. Prueba de ello es la aprobación definitiva por el Parlamento Europeo de la nueva Ley que regulará la Inteligencia Artificial. Una ley histórica y pionera cuyo objetivo es limitar los posibles “peligros” de esta tecnología y defender los derechos fundamentales de las personas, sin perjudicar la innovación.

Y a mí, llamadme loca, pero desde hace tiempo no paro de preguntarme ¿tienen los algoritmos personalidad? ¿son un poco como las personas?

Como punto de partida, os propongo simplificar mucho la cuestión y entender, por un lado, que la IA es una tecnología con unas capacidades y funcionalidades específicas, que gestiona información de entrada utilizando reglas que generan información de salida. Y, por otro, que una persona nace en un cuerpo con unas capacidades y funcionalidades concretas, recibe información en un contexto de educación y cultura que se articula a través de reglas, y actúa en consecuencia.

Y entonces… ¿podríamos atribuirles personalidad a los algoritmos de IA? No hablo de conciencia, ni de identidad, sino sólo de si manifiestan una forma de actuar específica, basada en un aprendizaje condicionado por sus capacidades, información y reglas de contexto, como las personas. Cada algoritmo es diferente, ha sido creado por personas con nombre, apellidos y criterio propio, en un contexto determinado, para un fin concreto.

Pensar que los algoritmos tienen personalidad me parece interesante y útil, porque ese paralelismo me conduce a intentar comprender qué hay detrás de cada proceso que utiliza IA. ¿Quién y para qué ha sido creado? ¿Qué le han enseñado y cómo? un poco en plan, pero ¿tú quién eres y qué intenciones tienes?

Por ejemplo, un algoritmo que decide si te dan un crédito, tiene una personalidad basada en la información y criterios de negocio que definieron su creación, de tal manera que, dependiendo del banco, podríamos intuir si nos lo darían o no, al igual que sabríamos si nos prestaría dinero nuestro amigo Juan o si quizá sería mejor pedírselo a la prima Antonia.

Se habla mucho de los sesgos en los algoritmos y, por supuesto, es un gran tema, pero erradicarlos no sólo no es posible, sino que, en muchos casos, tampoco parece necesario. Un sesgo de género en un algoritmo de optimización de rutas logísticas probablemente no tendría ningún impacto, puesto que, seguramente, el género ni siquiera entre como variable relevante en la toma de decisión. Del mismo modo que si quiero resolver una cuestión técnica sobre física y le pregunto a un experto en ese tema, si tiene o no sesgo de género, no afectaría a la validez de la respuesta.

Todos los días nos relacionamos con personas con sesgos, y bueno, para bien o para mal, es lo que es y aprendemos a gestionarlo, mejor o peor. Y en este sentido parece obvio que hay que gestionar, e incluso regular, algunos aspectos de la creación de los algoritmos para que respondan a los principios de explicabilidad, equidad, privacidad, seguridad, responsabilidad, bienestar social y control humano. Ahora bien, yo no dejo de pensar que lo realmente interesante aquí está en capacitar a las personas, tanto para crearlos, como para relacionarse con ellos. En ambos casos, regulación y capacitación, se están realizando muchos cambios y avances. Entre otros, la nueva Ley de Inteligencia Artificial con la que abro la reflexión, o la incorporación de la ética en las organizaciones, contratando filósofos, sociólogos, etc. y demandándose, cada vez, más perfiles ‘humanistas’; por no hablar de las discusiones en relación con la transformación de la educación para adaptarse a la nueva realidad.

En este contexto de cambio de la relación entre máquinas y personas, ¿no os parece clave que las personas deberíamos entender cómo funciona la IA?

Porque, ¿cómo relacionarse con algo sin poder percibir lo que le caracteriza?

Hay nuevas técnicas como el Design Thinking, Experiencia de Cliente, UX/UI, que, de alguna manera, están ayudando a acercar la tecnología a las personas, haciéndola más fácil y accesible. A falta de conocimiento, tiene sentido buscar maneras de acercar los «gaps» (nuestras lagunas) creando códigos que cualifiquen a los algoritmos de forma sencilla, como poner caras a los robots que reflejen la personalidad de sus algoritmos, diseñar CVs del algoritmo como tenemos las personas o códigos visuales como los de los electrodomésticos o los de Creative Commons. Lo que sea con tal de que nos ayude, según nuestros criterios de referencia, a entender y relacionarnos con las máquinas.

Entre tanto, en esta jungla de grandes oportunidades y grandes riesgos, no queda otra que fomentar la curiosidad, querer informarse, formarse y, sobre todo, cuestionarse ¿tú quién eres y qué intenciones tienes? Necesitamos hacernos con el control a título individual, responsabilizarnos y decidir si usar o no un servicio con IA, aprender a usarlo, conocer sus sesgos, y si nos imponen su uso y no estamos de acuerdo, levantar la mano y hacer algo al respecto.

Sin duda, vamos avanzando en todos los frentes, a toda velocidad, gestionándolos como si fuesen los platillos de un malabarista. Ética, educación, facilidad de comprensión y uso de la tecnología, son recursos que nos deben proporcionar a todos mejores estructuras y herramientas de pensamiento para que, en conjunto, decidamos lo que nos parece bien, mal o regular, definiendo las reglas de creación y uso de la tecnología desde una nueva mirada.

————————————————————————

Este artículo ha sido publicado en la Newsletter de Marzo de España Mejor: https://esmejor.eu/newsletter-marzo/

 

Lorena Mori

Lorena Mori

Lorena Mori es Directora de Ventas y Desarrollo de Negocio de BeDataScience by Panel. Puedes contactar con ella por correo, o visitar su perfil en Linkedin.

Déjanos tu comentario

0 comentarios

Enviar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Share This