«Nosotras trabajamos en tecnologías, nos encanta la tecnología, y creemos que realmente se podría hacer tecnología que nos fuera no solo útil sino beneficiosa. Pero lo que vemos es que lo que tiene que ver con la tecnología no siempre se está planteando en este sentido. Entonces, lo que queríamos con nuestro libro es que quienes nos leyeran compartieran los mismos conceptos que nos preocupan y así pudiéramos discutir entre todos cuál es el futuro que queremos, qué tipo de tecnología nos gustaría que se diseñara a partir de ahora, en qué tipo de tecnología queremos trabajar nosotras mismas. Y que eso nos ayudara a tener la visión que queremos del futuro. Mientras no podamos tener conversaciones, no podamos discutir si estamos de acuerdo o no con que se ponga un algoritmo en una decisión, no puede ser que como sociedad estemos aceptando que eso sea así y ni lo discutamos. Y para poder hacerlo, discutirlo, primero tenemos que saber que eso es así. Por eso decimos que el libro es más realista que negativo, porque busca que todos compartamos esa información y a partir de ahí empecemos a discutir», explica Ujué Agudo Díaz, doctora en sicología y especialista en la intersección entre el comportamiento humano y los algoritmos de inteligencia artificial. Ujué es investigadora en el laboratorio de sicología experimental de la Universidad de Deusto y ha escrito junto a Karlos g Liberal, investigador independiente en la esfera tecnológica, el libro «El algoritmo paternalista. Cuando mande la inteligencia artificial», publicado por la editorial Katakrak. «Y tenemos la intuición de que la mayoría de la tecnología que utilizamos tiene una mirada completamente individualista. De hecho, el móvil es el elemento que más lo determina, tenemos un móvil cada persona y siempre nos determina. Si la tecnología que construimos tuviera una mirada colectiva, de uso colectivo, social, de beneficio colectivo, eso cambiaría. Pero para eso necesitamos saber que ahora mismo todos los elementos que diseñamos siempre acaban teniendo ese corte individual. Y si van a tomar decisiones, decidamos en cuáles, si todas nos parece bien que estén decididas por un algoritmo, en cuáles deberían estar un algoritmo y un humano, en cuáles solo un humano», añade Karlos g Liberal, hacktivista e impulsor del software libre que ha participado en diferentes espacios de encuentro entre política y uso de las tecnologías.
«En la tecnología es muy difícil que funcione una deontología. Mientras que en otras profesiones, por ejemplo, la medicina, requieren de esos códigos para poder hacer su práctica de una forma más ordenada y saludable, en nuestro caso el éxito es que funcione. Instagram es un ejemplo de éxito tecnológico, de éxito de negocios, pero ha tenido un devenir muy nocivo sobre todo entre la gente joven. No se puede hablar de una deontología porque no hay un final. Y al no haber un final es muy difícil. Entonces, como no puede haber deontología, no nos engañemos, todo proceso tecnológico debe tener una revisión, pero como pensamos que sí lo podemos revertir, entonces no ponemos ese final», cuenta Karlos g Liberal. «Mirando la realidad actual, hemos perdido la capacidad que tenemos de imaginar el futuro, incluso de pensar ese futuro de manera utópica. Y lo hemos hecho porque hemos entrado en una especie de revival continuo, un pastiche continuo. El sector tecnológico ha evolucionado con muchas microrrevoluciones pero ninguna ha sido tan efectiva como esperaban desde el aceleracionismo, no ha habido esa potencia de la que tanto nos han hablado. Franco Berardi Bifo habla de que la juventud ahora es la generación posalfa, que quiere decir que durante mucho tiempo todos los críos del mundo aprendían a hablar escuchando a sus familias, especialmente a sus madres, pero los críos de las últimas generaciones o lo han hecho con la tele o lo hacen con sistemas digitales, y ahora incluso con asistentes virtuales. Y eso genera una deflación de la conciencia, genera una merma que no sabemos si luego tendrá una vuelta, que yo no soy nada determinista. Ya vendrán los chavales y nos dirán que vienen con su vuelta. Pero sí que nos permite revisar los procesos políticos y culturales que estamos viviendo ahora, que son de otra índole», explica el coautor de «El algoritmo paternalista. Cuando mande la inteligencia artificial».
«Una vez que una tecnología se asienta es muy difícil revertirla. Por eso para nosotros era muy importante en el libro intentar hacer esa relación, una cosa es la tecnología, que la podemos dejar como siempre al margen y ponerla en discusión, y otra cosa es qué nos pasa a nosotros y nosotras con esa tecnología. Como no entendíamos porque esa discusión no se estaba dando alrededor de la economía del comportamiento, porque no se entendía que eso es un elemento determinante, no podemos entender cómo esa tecnología se asienta. Una vez que lo entendamos podremos valorar si hay que revertir muchas de esas tecnologías. Pero sí que es cierto que es una tendencia natural ahora mismo que la tecnología tienen un devenir monopolístico. Y ahí es donde tenemos que empezar a hacer la discusión. Y para ello tenemos que hacernos preguntas como ¿por qué hemos delegado la toma de decisiones en según que máquinas? Y si empezamos a responder a esas preguntas partimos de una premisa que igual antes no lo habíamos hecho», concluye Karlos g Liberal.
Comentarios
Aún no hay comentarios.