Imaginen esto: una computadora de tamaño universal que, con un solo clic, conecta billones de planetas y acumula todo el saber de las galaxias. ¿Su primera pregunta? ¿Existe Dios? La máquina responde con voz de ultratumba: “Ahora sí”, justo antes de que un rayo la apague para siempre, sellando su omnipotencia. Esta historia, escrita por Frederic Brown en 1954, nos recuerda el ancestral miedo de la humanidad a la tiranía tecnológica. Pero, tranquilos, ¡Terminator no es un documental! El reciente evento Tech4Good 2025, impulsado por Santander y Google, nos invita a dejar de lado los temores apocalípticos y el “culto a la todología” de la IA. En cambio, nos propone un camino más reflexivo: construir una inteligencia artificial que sea transparente, inclusiva y, sobre todo, que trabaje para el bien común.
El verdadero desafío, como señalaron los expertos, no es si la IA puede pensar, sino si nosotros todavía queremos hacerlo. Adela Cortina, catedrática emérita, nos lo dejó claro: las máquinas simulan inteligencia, pero no *son* inteligentes. Proponer otro término para la IA podría ser clave, pues la palabra “inteligencia” les queda grande y nos reduce. El riesgo real es que, al pedirle a los algoritmos que decidan por nosotros, abdicamos de nuestra humanidad. Tal como lo dijo Ortega y Gasset, “un tigre no puede destigrarse, pero un hombre puede deshumanizarse”. Si no actuamos éticamente con la IA, corremos ese riesgo. La ética debe ser nuestra brújula, asegurando que el bien común no sea un lujo, sino una necesidad democrática. El diálogo, la palabra compartida, es lo que nos salvará como especie.
Pero, ¿cuáles son los costos ocultos de este progreso? Andrea Arnau nos alertó sobre los centros de datos en zonas con escasez de agua, un cóctel peligroso. La IA consume energía, pero también puede ser una aliada ambiental formidable: ya detecta fugas de metano y optimiza el consumo energético de edificios con precisión. Por otro lado, Lucía Ortiz de Zárate y Elsa Simó-Soler nos recordaron que la tecnología nunca ha sido neutral. Los algoritmos aprenden de datos sesgados, perpetuando invisibilidades. Una “IA feminista” es posible si incorporamos perspectivas diversas para construir sistemas más justos. La Fundación ONCE es un gran ejemplo de cómo la IA puede ser aliada para la autonomía y la igualdad de oportunidades laborales, visibilizando talentos que el mercado tradicional no detecta.
En la salud, la IA no solo cambia la medicina, la humaniza. Raquel Yotti y Ángel Alberich-Bayarri destacaron cómo puede anticipar enfermedades, mejorar diagnósticos y liberar a los profesionales para escuchar al paciente. Imaginen algoritmos que detectan cánceres en fases tempranas, sirviendo como “copilotos clínicos”. Es una oportunidad crucial para España. En el sector de la prosperidad, empresas como Iberia han visto cómo la IA empodera a sus empleados, extrayendo patrones de mejora en tiempo real. Google, por su parte, apuesta por la formación masiva en IA, priorizando talento femenino y rural, consciente de que la prosperidad real no es privilegio de unos pocos.
Finalmente, el debate sobre gobernanza y el “pulso público” nos llama a la reflexión. Sergio Vázquez Torrón, de Ineco, nos invita a preguntarnos: ¿hacia dónde va realmente esta carrera tecnológica? Daniel Innerarity cerró la jornada apostando por la lentitud y la reflexión, recordándonos que la democracia es “el arte de la lentitud”. El peligro radica en que el algoritmo sustituya el debate y la responsabilidad compartida. La IA puede fortalecer la democracia, pero nunca reemplazarla. Debemos amar la duda y formular preguntas incómodas. Al final del día, la IA debe tener un corazón social, una brújula ética de humanidad, empatía y cuidado. Solo así avanzaremos hacia una tecnología que nos sirva, y no al revés.





