En una entrevista reciente con el periódico español elDiario.es, el filósofo Daniel Innerarity compartió su visión sobre el papel creciente de la inteligencia artificial en nuestras sociedades. La conversación se dio a propósito de su nuevo libro Una teoría crítica de la inteligencia artificial, en el que sostiene que los avances tecnológicos no solo están cambiando nuestras rutinas, sino también la forma en que se ejerce el poder y se toman decisiones colectivas.
Innerarity cuestiona la idea de que los datos son neutros. Asegura que siempre están marcados por el contexto en el que se recolectan, y que usarlos sin tomar eso en cuenta puede provocar sesgos o errores graves. “Estamos seducidos por la cantidad, pero no siempre más datos significan mejores respuestas”, advierte. Para él, lo decisivo es cómo se interpretan esos datos.
Uno de los temas centrales de la entrevista es el acceso desigual a la información. Quienes poseen grandes volúmenes de datos y las herramientas para analizarlos tienen una ventaja significativa. Un ejemplo claro: los sistemas de reconocimiento facial se entrenan, en su mayoría, con imágenes de hombres blancos. Eso ha causado fallos discriminatorios hacia otros grupos. “Le pusieron una foto de una mujer negra y dijo que era un chimpancé”, denuncia.
También analiza el impacto de la inteligencia artificial en la política. Innerarity señala que, aunque los algoritmos pueden reducir sesgos ideológicos o identificar patrones útiles, no pueden reemplazar la deliberación humana ante decisiones complejas. Cuando le preguntan si le consultaría a una IA si Europa debe invertir más en armas, responde que no. “ChatGPT intentará decir lo que yo quiero escuchar”, comenta, y lo califica como un “cuñado pelota”. En el uso español de esa frase, “cuñado” alude a alguien que opina de todo con seguridad sin tener conocimientos reales, y “pelota” a una persona aduladora que busca quedar bien.
Tanto los humanos como las máquinas cometen errores, pero de distinta naturaleza. Los humanos tienen sesgos cognitivos; la IA puede reproducir los sesgos presentes en los datos con los que fue entrenada. Innerarity cree que, por eso, es posible complementarse, pero no delegar completamente las decisiones en la tecnología.
También se refiere al modo en que las redes sociales refuerzan nuestras propias creencias. Las compara con una adicción al azúcar que impide una dieta informativa equilibrada. La inteligencia artificial, añade, no aprende como los humanos. Le falta sentido común y conocimiento implícito: necesita que todo le sea explicado.
Humanizar la tecnología, para él, no significa solo controlarla. Implica conocer quién la diseña, qué datos se usan y cómo se entrenan los algoritmos. Propone hablar más de política que de ética. No se trata solo de imponer límites, sino de construir mecanismos democráticos de control. Denuncia que las plataformas tecnológicas avanzan demasiado rápido y que las instituciones no alcanzan a regularlas. “La velocidad puede ser excluyente. La democracia es más lenta, pero también más responsable”.
En cuanto a la privacidad, afirma que no puede recaer solo en cada individuo. Critica el modelo actual, donde los ciudadanos deben navegar solos sin apoyo ni intermediarios. Llega a proponer que los datos sean tratados como un bien público. “Yo nunca he sido comunista, pero creo que hay que expropiar los datos”, declara.
Menciona además que en la escuela de su hijo utilizan herramientas de Google sin haber consultado a las familias. Cree que la confianza debe construirse, pero no a costa de ceder el control.
Finalmente, reflexiona sobre cómo la automatización puede debilitarnos. El uso excesivo del GPS, por ejemplo, nos hace perder capacidades básicas. En la aviación, la dependencia de los sistemas puede ser peligrosa. Cita el caso real del piloto Sully, que decidió ignorar al sistema automatizado y logró amerizar con éxito. “Esa es la diferencia humana”, concluye.
Fuente: Entrevista publicada en elDiario.es
¿Estamos renunciando sin darnos cuenta a nuestra capacidad de decidir?
Publicar un comentario