Tomás Balmaceda: «La tecnología no es ni buena ni mala; tiene los valores de quienes la crean»
En el marco del Social Media Day, Tomás Balmaceda, filósofo y divulgador, presentó una serie de ideas que invitan a reflexionar sobre el impacto de la inteligencia artificial en la sociedad. Su discurso abordó temas fundamentales como la ética, la eficiencia y la responsabilidad en el desarrollo tecnológico, destacando la necesidad de cuestionar los valores que subyacen en las tecnologías que se crean y utilizan.
Durante el reciente Social Media Day, el filósofo Tomás Balmaceda presentó una charla que invitó a los asistentes a reflexionar sobre el papel de la inteligencia artificial en nuestras vidas y su relación con la ética y la productividad. Con su estilo incisivo, Balmaceda propuso una serie de siete «provocaciones» que buscaban incomodar y hacer pensar sobre la dirección que está tomando el desarrollo de estas tecnologías.
Balmaceda comenzó su intervención planteando una pregunta intrigante: “¿Qué significaría ser un filosofo hoy, en la era de la inteligencia artificial?” Según él, la filosofía tiene la misión de molestar, de interpelar y de sacar a la gente de su zona de confort. “El rol de la filosofía es impedir que nos durmamos de la siesta”, enfatizó, dejando claro que su objetivo era despertar un debate crítico en torno a las implicaciones de la IA en la sociedad actual.
La primera provocación se centró en la definición de eficiencia. “Debemos entender qué significa ser eficiente en este contexto. Muchas veces pensamos que la eficiencia se refiere solo a maximizar recursos para generar ganancias”, explicó Balmaceda. En su análisis, señaló que, a pesar de contar con herramientas digitales que prometían aumentar la productividad, la realidad es que muchos trabajadores se encuentran trabajando más horas que antes.
Reflexiones sobre la productividad
Para ilustrar su punto, Balmaceda utilizó un ejemplo histórico. Se imaginó hablando con una secretaria ejecutiva de la década de 1980, explicándole cómo, en el futuro, podría gestionar su tiempo y tareas de manera mucho más eficiente con tecnología avanzada. “Ella podría pensar que tendría más tiempo libre para disfrutar de su vida. Sin embargo, al volver a nuestra realidad actual, vemos que las secretarias modernas siguen trabajando las mismas horas, pero con más presión y menos compensación”, reflexionó, cuestionando si realmente hemos mejorado nuestra calidad de vida con los avances tecnológicos.
La búsqueda de objetivos más allá de la eficiencia
La segunda provocación del filósofo llevó a cuestionar si la búsqueda de eficiencia debe ser el único objetivo en el desarrollo de la IA. “Estamos viendo que la productividad no es todo y que, de hecho, puede dejarnos un sabor amargo. Hay que preguntarse: ¿para qué estamos generando estos sistemas si al final sentimos que trabajamos más y ganamos menos?” Esta reflexión nos lleva a considerar qué tipo de futuro queremos construir con la tecnología que desarrollamos.
Despertar de la neutralidad valorativa
A continuación, Balmaceda abordó la noción de neutralidad en la tecnología, un concepto que se repite con frecuencia en debates sobre inteligencia artificial. “Decir que la tecnología no es ni buena ni mala es un sueño del que debemos despertar. La tecnología está impregnada de los valores de quienes la crean”, advirtió. Relató una anécdota sobre un televisor inteligente que discriminó a un joven con síndrome de Down, subrayando que la falta de diversidad en los equipos de desarrollo puede resultar en tecnologías que no comprenden o que excluyen a ciertos grupos de personas. “Esto nos muestra que cuando diseñamos tecnología, también estamos creando un mundo, y a veces, por omisión o desconocimiento, dejamos a gente afuera”, afirmó.
La importancia de la transparencia y la explicabilidad
La transparencia y la explicabilidad de los algoritmos se convirtieron en otro de los temas centrales de su charla. “Es fundamental que los usuarios tengamos acceso a cómo funcionan estos algoritmos”, enfatizó Balmaceda, utilizando su propia experiencia con sistemas bancarios como ejemplo. Relató cómo en su home banking le ofrecieron diferentes cantidades de crédito, lo que le llevó a preguntarse: “¿Por qué a mí me ofrecen menos que a otros? Esta opacidad puede llevar a injusticias y es algo que debemos cuestionar y exigir cambiar”.
Consentimiento y privacidad en la era digital
Balmaceda también subrayó la importancia del consentimiento en la era digital. “Hoy vivimos en un contexto donde nuestras imágenes y voces se utilizan para entrenar modelos de IA sin que estemos al tanto. El consentimiento no ha pasado de moda; sigue siendo un derecho fundamental”, advirtió, haciendo un llamado a la responsabilidad colectiva en la gestión de nuestros datos personales.
Potenciación vs. restricción de habilidades humanas
Otra provocación que presentó fue la necesidad de distinguir entre las tecnologías que potencian nuestras habilidades humanas y aquellas que, por el contrario, las restringen. “Estamos desarrollando plataformas que no nos ayudan a ser mejores personas, sino que a veces nos limitan. La pérdida de libertad no es un precio que debamos pagar por conveniencia”, opinó. Puso como ejemplo una pastilla que se ingiere para controlar si los pacientes siguen sus tratamientos, sugiriendo que hay formas más humanas y efectivas de lograr la adherencia sin restringir la libertad personal.
La promesa de la inteligencia artificial
Balmaceda cerró su intervención planteando una pregunta crucial: “¿Estamos realmente aprovechando el potencial de la inteligencia artificial para mejorar nuestras vidas? O más bien, ¿estamos utilizando esta tecnología para perpetuar problemas existentes?” Hizo hincapié en que, si bien la IA tiene un potencial revolucionario, depende de nosotros dirigir ese desarrollo hacia un futuro más ético y equitativo. “La historia nos muestra que si dejamos que las cosas sigan como están, las revoluciones tecnológicas a menudo solo han profundizado las diferencias y mantenido el status quo”, advirtió.
Con su enfoque provocador, Balmaceda instó a los presentes a cuestionar la dirección que están tomando los desarrollos en inteligencia artificial y a considerar su responsabilidad en este proceso. “No se trata solo de si se puede hacer algo con inteligencia artificial, sino de si realmente debemos hacerlo. Necesitamos preguntarnos cuál es el motivo detrás de nuestras decisiones tecnológicas”, concluyó.