Carlos Gauto: «Un fallo de software en Wall Street provoco una pérdida de más de 1.000 millones de dólares»
Durante el evento, Carlos Gauto, Project Leader en Mercado Libre, explicó cómo los errores en el software pueden generar consecuencias graves para las empresas, incluyendo pérdidas millonarias y afectaciones legales. Destacó la necesidad de realizar pruebas exhaustivas y de utilizar la tecnología de manera correcta.
Durante el evento Nerdearla 2024, un espacio dedicado al intercambio de conocimientos entre la comunidad tecnológica y científica de América Latina, Carlos Gauto, Project Leader en Mercado Libre, compartió su experiencia sobre los riesgos que conlleva la omisión de pruebas de software y la importancia de implementar procesos de calidad rigurosos. Gauto, quien cuenta con más de 18 años de experiencia en tecnología y es conferencista internacional, ofreció un enfoque realista y contundente acerca de los errores críticos en el software y su impacto en las empresas.
En su charla, Gauto abordó varios casos donde fallos de software desencadenaron pérdidas multimillonarias y afectaciones masivas. «El enfoque de mi charla estuvo centrado en fallos de software que tuvieron una gran magnitud, ocasionando pérdidas importantes para las empresas, generando problemas legales y obligando a realizar adecuaciones en el software por temas como la accesibilidad», explicó. Uno de los ejemplos que destacó fue un fallo en Wall Street, donde un error en el software hizo que un broker ejecutara todas sus operaciones programadas para una semana en apenas 45 minutos. El resultado: una pérdida de más de 1.000 millones de dólares. Estos fallos son, para Gauto, una clara advertencia de lo que puede suceder cuando se omiten ciertos procesos críticos.
La importancia de las pruebas funcionales y no funcionales
El especialista enfatizó la importancia de las pruebas funcionales y no funcionales como parte integral de cualquier proyecto de software. «Uno de los errores que se podían prevenir en la Campaña del Desierto de Estados Unidos fue el fallo de un artefacto antimisiles que, tras 8 horas de funcionamiento, comenzó a perder precisión. Este error, que no fue identificado en pruebas de resiliencia, permitió que un misil alcanzara su objetivo, provocando la muerte de 28 personas», recordó Gauto. Este incidente refuerza la necesidad de realizar pruebas no solo para verificar que las cosas funcionen, sino también para asegurar su durabilidad y resistencia a lo largo del tiempo.
Cuando se le preguntó sobre nuevas tecnologías o prácticas para mitigar estos riesgos, Gauto se mostró optimista, aunque destacó que la tecnología por sí sola no es suficiente si no se utiliza correctamente. «Podemos tener todas las herramientas disponibles, pero si no creamos un monitor para analizar lo que está sucediendo con nuestro software, es posible que tengamos la herramienta idónea, pero no la estemos utilizando en nuestro beneficio», afirmó. Mencionó un ejemplo claro de esto con la NASA y una misión a Venus, donde un fallo en la trayectoria de la sonda obligó a destruirla, generando pérdidas millonarias. En este sentido, la observabilidad y el monitoreo continuo del software son claves para evitar decisiones drásticas y costosas.
La presión por lanzar productos y sus riesgos
Gauto también abordó un tema recurrente en el mundo del software: la presión por lanzar productos al mercado sin realizar todas las pruebas necesarias. «Es bastante común, lamentablemente. Muchas veces, las empresas omiten ciertas pruebas porque tienen que cumplir con plazos específicos o lanzamientos estratégicos», explicó. A pesar de que desde su posición puede sugerir retrasar un lanzamiento para mitigar los riesgos, reconoció que la decisión final recae en quienes gestionan el negocio, y en ocasiones se opta por asumir el riesgo. «Lo que yo siempre sugiero es que elevemos los riesgos de forma clara, mostrando el impacto económico que podrían tener. Cuando hablamos en términos monetarios, las empresas suelen valorarlo de otra manera», agregó.
Un ejemplo claro de esto fue el caso de Intel, donde un error en los chips obligó a la empresa a recuperar y redistribuir una gran cantidad de unidades, generando pérdidas superiores a los 450 millones de dólares. «Posiblemente, una inversión menor en la mejora de procesos de calidad hubiera prevenido esta situación, pero muchas empresas optan por no invertir hasta que el problema les explota en la cara», señaló Gauto con cierta ironía.
La charla de Carlos Gauto en Nerdearla 2024 dejó en claro que, aunque los avances tecnológicos pueden proporcionar herramientas poderosas para mitigar riesgos, lo más importante sigue siendo una metodología sólida y un enfoque disciplinado hacia la calidad. Las pruebas, tanto funcionales como no funcionales, son fundamentales para garantizar la estabilidad y seguridad del software, y su omisión puede tener consecuencias catastróficas tanto para las empresas como para la sociedad en general.