¿Por qué hay que ser prudentes y qué podemos hacer para protegernos de sus efectos más nocivos? Los expertos de la UOC advierten de que el manejo ético de los datos es fundamental para que la IA esté al servicio de la sociedad.

Las famosas cookies y los algoritmos que las rastrean dominan, cada vez más, nuestras vidas. El comportamiento que tenemos en internet hace que las grandes corporaciones tengan un retrato más afinado de cada usuario. La pregunta es: ¿por qué hay que ser prudentes con los algoritmos y qué podemos hacer para protegernos de sus efectos más nocivos? Un usuario visita una tienda en línea y, en la siguiente entrada a otra página web, los artículos que ha mirado aparecen como por arte de magia. O habla en Google o por WhatsApp de su deseo de viajar y, de pronto, en la publicidad surgen ofertas de ese viaje de ensueño. Instagram termina por seleccionar para sus usuarios la publicidad de aquellos artículos que sabe que les interesan. Ese acceso continuo a todo tipo de servicios y contenido, tal como anticipa el doctor Pierre Bourdin Kreitz, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), no sale gratis.

 

compras online seguras

 

«Si te ofrecen todo ese contenido es también porque a las empresas les conviene». Las ofertas de hoteles, vuelos, empleo… están a un clic; sabemos cómo llegar de un punto a otro con la geolocalización; estamos al día de cualquier materia que nos interese. A cambio, los dispositivos almacenan y envían continuamente datos a grandes corporaciones, que los utilizan para estudiar el comportamiento de cada persona conectada.

«Hoy, nuestros ordenadores y móviles tienen la potencia computacional que antes tenían máquinas enormes», menciona Bourdin, «lo que les permite tratar más datos; por ejemplo, pagar con el móvil es más cómodo, pero el banco ahora sabe más de nuestros hábitos que cuando lo pagábamos todo en efectivo. Eso hace que la conexión entre los datos recogidos y los algoritmos sea mayor». En consecuencia, ordenadores, tabletas y móviles aprenden a seleccionar qué información nos hacen llegar. «Se trata de una inteligencia artificial basada en el aprendizaje automático: de ahí que necesite tantos datos. A través de ellos detecta patrones, hace predicciones o, simplemente, clasifica», añade.

¿Por qué debemos ser prudentes?

Porque no siempre acierta. Es más, los errores en la deducción de estos algoritmos van más allá de una disonancia de criterio entre el hombre y la máquina. «Si los algoritmos cruzan datos sobre la relación entre lo que gana una persona y su gasto en salud concluirán que los pobres están más sanos que los ricos», ejemplifica Bourdin. Estas operaciones computacionales son perfectas para tareas repetitivas, pero pueden ser muy peligrosas cuando requieren una gran variabilidad. Por una parte, quienes los programan no dejan de ser personas que introducen un sesgo (de género, raza, etcétera). «Hasta hace poco», explica Pierre Bourdin, «casi todos los grandes sistemas como Google o Microsoft han tenido errores. Detectaban correctamente a los varones caucásicos, pero no a las personas asiáticas o negras», continúa, lo cual introduce un sesgo racial que a la larga constituye un dilema ético, moral y con efecto acumulativo: el sistema termina favoreciendo a los fuertes y castigando a quienes ya sufren problemas. No son pocos los casos en los que los algoritmos de internet han discriminado a determinados colectivos.

La «trampa» de los algoritmos que ya ha hecho mella en el sistema judicial

No es algo que pueda ocurrir: ya ha ocurrido. En la búsqueda permanente del sistema judicial por agilizar ciertos procesos se intenta solucionar con algoritmos algunos trámites. Hubo un caso mediático en Estados Unidos: se introdujo un algoritmo en algunos juzgados, llamado COMPAS, para predeterminar las posibilidades de reincidir de los delincuentes. Una investigación de ProPublica, agencia de noticias independiente y sin ánimo de lucro, destapó el sesgo racial: a las personas negras se les atribuía una tasa de reincidencia mayor y a las blancas, menor.

No podemos olvidar tampoco cuál es el fin de los algoritmos: obtener mayores beneficios. Cómo analiza Bourdin, nada es a cambio de nada. «Las empresas por sí solas no son malas, pero buscan mejorar sus cifras o sus beneficios», añade, lo cual puede dar lugar a políticas perversas.

¿Cómo ponérselo difícil a los algoritmos?

Con todo lo que sabemos, ¿qué prácticas pueden ayudar a los usuarios a evitar que los algoritmos lo sepan todo de ellos? El profesor Bourdin da algunas claves:

1. Tomarse el tiempo necesario para revisar la política de protección de datos y los permisos que estamos dando a cada página que visitamos. A menudo, en la letra pequeña nos cuelan compromisos que no sabemos que adquirimos.

2. Navegar en modo incógnito. Es algo menos ágil porque la máquina no guarda las URL visitadas, pero limitaremos el dejar rastro. Puede ocurrir que, al buscar billetes de avión, por ejemplo, con un destino concreto, el precio de estos haya subido al visitar esa página de nuevo. Eso es porque el algoritmo ha detectado el interés del usuario y sabe que comprará más caro si hace falta. Con la navegación en modo incógnito no se almacena la visita si cerramos el navegador y volvemos a empezar de cero cada vez.

3. Eliminar o rechazar las cookies (pequeños trozos de información de los sitios web que visitamos y que se almacenan en nuestros dispositivos). Los algoritmos las usan para nutrirse de información con la que ofrecernos, por ejemplo, publicidad.

4. Confundir a los algoritmos. Algunos expertos proponen navegar por lugares que no nos susciten ningún interés: el exceso de información que se envía desde el dispositivo hará que los verdaderos gustos del usuario queden camuflados y no se pueda definir su perfil.

5. Eliminar los anuncios que pasan por las redes sociales, o clicar en anuncios al azar para volver loco al algoritmo. Existe una aplicación, Ad Nauseam, que sirve a ese fin: convertir los algoritmos en algo inservible pinchando anuncios aleatoriamente (Google Chrome ha eliminado dicha aplicación: los algoritmos son la base de su gran negocio).

6. Desactivar el sistema de predicción que completa lo que queremos escribir. Gmail, por ejemplo, es un sistema de correo que claramente escanea nuestros e-mails a cambio de ofrecernos sus servicios. Limitar el uso de asistentes (Google, Siri, Alexa) es otra buena práctica.

La ética como base de todo

Más allá de que los algoritmos puedan perjudicarnos a veces como usuarios («hay que ser prudente, pero no paranoico», insiste Bourdin), hay una cuestión ética de fondo. Además del mencionado caso COMPAS, una filtración permitió conocer la represión del Gobierno chino a minorías étnicas y religiosas gracias a los algoritmos, por no hablar del último gran escándalo de Facebook