Italia prohíbe ChatGPT: la inteligencia artificial es ya una espada de doble filo para la tecnología y la ética
El Gobierno de Italia limita el tratamiento de datos de usuarios italianos por OpenAI, a la par se abre una investigación hacia la compañía detrás del servicio para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo. Los expertos en seguridad de Check Point Software aseguran que 2023 será el "Año de la IA", augurando un gran avance y la disponibilidad generalizada de estas herramientas.
El último día de marzo, el organismo de regulación de datos italiano (Garante per la Protezione dei dati personali) ordenó la limitación temporal del procesamiento de datos de usuarios italianos por OpenAI, y por ende su popular herramienta ChatGPT, en relación con el inicio de una investigación para asegurar el cumplimiento del Reglamento General de Protección de Datos europeo (GDPR).
Tal y como señala Check Point Software Technologies Ltd., un proveedor líder de soluciones de ciberseguridad a nivel mundial, este suceso tiene origen en la reciente filtración de datos de la herramienta de inteligencia artificial detectada el pasado 20 de marzo, en la que se habrían expuesto las conversaciones de los usuarios junto con información privada como datos de facturación y tarjetas de crédito parciales de los suscriptores.
Según detalla el comunicado oficial del garante italiano, actualmente ChatGPT “no proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI”, señalando “la ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento” y el incumplimiento de los artículos 5, 6, 8, 13 y 25 del GDPR.
Si bien por el momento actualmente sólo Italia ha puesto en marcha esta ordenanza e investigación, dada la presunta base de incumplimiento del reglamento europeo para el tratamiento de datos, es posible que otros países o el propio organismo central de la Unión Europea anuncien medidas similares en los próximos días.
Los peligros y posibilidades de la inteligencia artificial
Por su parte, Paal Aaserudseter, Ingeniero de Seguridad de Check Point Software, ha compartido la visión de la compañía en relación con la materia de inteligencia artificial, la ciberseguridad y cómo las empresas pueden mantenerse seguras dentro de esta nueva era de innovación digital.
“El potencial del uso indebido de datos es, con mucho, una de mis mayores preocupaciones con respecto a ChatGPT”, asegura Aaserudseter. “El problema en cuestión es que la mayoría de los usuarios no son conscientes del riesgo que implica cargar este tipo de información sensible. Con suerte, el efecto positivo en Italia de la prohibición de ChatGPT es que la Ley de IA de la UE entrará en vigor mucho más rápido”.
La IA ya ha demostrado su potencial para revolucionar campos como la atención médica, las finanzas o el transporte, entre muchos otros. Puede automatizar tareas tediosas, mejorar la eficiencia y proporcionar información que antes era imposible obtener, ayudando a resolver problemas complejos y tomar mejores decisiones.
Aunque es igualmente importante mantener unas expectativas realistas y no ver estas herramientas como una panacea para todos los problemas, al menos por el momento. Actualmente la mayor parte de IA que usamos se agrupan dentro de la Inteligencia Estrecha o «débil» (ANI), lejos de la Súper Inteligencia (ASI) cuya inteligencia superaría las capacidades humanas.
Para mitigar los riesgos asociados con la IA avanzada, es importante que los investigadores y los legisladores trabajen juntos para garantizar que estas herramientas se desarrollen de manera segura y beneficiosa. Esto incluye el desarrollo de mecanismos de seguridad sólidos, el establecimiento de pautas éticas y la promoción de la transparencia y la responsabilidad en el desarrollo de la IA. En este orden, todos los organismos relacionados, tales como los gobiernos, las empresas y los propios desarrolladores deben considerar los siguientes pilares fundamentales:
- Establecer pautas éticas: debe haber pautas éticas claras para el desarrollo y uso de la IA que estén alineadas con los valores y principios sociales, como la transparencia, la responsabilidad, la privacidad y la equidad.
- Fomentar la transparencia: las empresas y desarrolladores deben ser transparentes acerca de sus sistemas de IA, incluida la forma en que están diseñados, capacitados y probados.
- Asegurar la privacidad: las empresas deben priorizar la protección de la privacidad de los usuarios, especialmente cuando se trata de datos confidenciales, implementando protocolos sólidos de protección de datos y proporcionar explicaciones claras sobre cómo se recopilan, almacenan y utilizan los datos de los usuarios.
- Priorizar la seguridad: la seguridad debe ser una prioridad máxima en el desarrollo de la IA, y se deben implementar mecanismos para prevenir los daños causados por los sistemas de IA. Esto incluye el desarrollo de protocolos de prueba sólidos y la implementación de mecanismos a prueba de fallos y vulnerabilidades.
- Fomento de la innovación: los gobiernos deben proporcionar fondos y recursos para apoyar la investigación y el desarrollo en IA, al mismo tiempo que garantizan que la innovación se equilibre con una gobernanza responsable.
- Fomentar la participación pública y la accesibilidad: debe haber oportunidades para la participación pública y la participación en el desarrollo y la regulación de la IA, para garantizar que se consideren las necesidades y preocupaciones del público. Las empresas deben diseñar sus sistemas de IA para que sean accesibles para todos los usuarios, independientemente de sus capacidades físicas o experiencia técnica, proporcionando instrucciones claras e interfaces de usuario que sean fáciles de entender y usar.
La IA puede ser tanto una herramienta para los atacantes como para los defensores. A medida que las tecnologías se vuelven más avanzadas, pueden ser usadas para crear ataques más sofisticados y difíciles de detectar. Tal y como ha mostrado Check Point Research en anteriores ocasiones, actualmente ChatGPT ya está siendo utilizada para automatizar procesos e incluso crear campañas de phishing dirigidas o incluso lanzar ataques automatizados.
No obstante, en contraposición a estos hechos, hoy en día la inteligencia artificial y el machine learning son dos de los grandes pilares que ayudan a la constante mejora de las capacidades de la ciberseguridad, llegando incluso algunos expertos a señalar que la próxima generación de defensa se basará en gran medida en estas funcionalidades de la robótica.
El grado de complejidad y dispersión de los sistemas con los que trabajan las empresas actualmente hace que los medios tradicionales y manuales de vigilancia, supervisión y control de riesgos comiencen a ser insuficientes. Razón por la cual podemos encontrar algunas herramientas de defensa que hacen uso de este tipo de capacidades.
Recientemente tuvo lugar la presentación Check Point Infinity Spark, una nueva solución de prevención de amenazas que ofrece una seguridad basada en una inteligencia artificial líder en el sector y una conectividad integrada.
Esta herramienta ofrece seguridad de nivel empresarial a toda la red, correo electrónico, oficina, endpoints y dispositivos móviles. Contando con la mejor tasa de prevención del sector, rozando la perfección con un 99,7% de efectividad, es capaz de proteger a las empresas frente a amenazas avanzadas como phishing, ransomware, robo de credenciales y ataques DNS.
“La carrera contra los ciberdelincuentes continúa siendo una de las principales prioridades de los expertos en ciberseguridad. Debemos mantenernos actualizados para tratar hacer frentes a todas las amenazas actuales y futuras”, comparte Eusebio Nieva, Director Técnico de Check Point para España y Portugal. “Infinity Spark es un claro ejemplo de las posibilidades de la inteligencia artificial, presentando una herramienta excelente y asequible capaz de ofrecer una seguridad integral con una protección completa para las empresas y sus empleados, tanto dentro como fuera de la oficina”.