Inteligencia Artificial

¿Es posible una IA segura y confiable?

La Agencia de Ciberseguridad de la Unión Europea (ENISA) publica 4 informes sobre los retos más trascendentales de la inteligencia artificial (IA) con motivo de la conferencia sobre la supervisión de una IA segura y fiable.

Los desarrollos recientes en los sistemas de Inteligencia Artificial (IA) han llamado la atención del mundo sobre los aspectos más importantes de la ciberseguridad asociados con ellos. La conferencia AI Cybersecurity tuvo como objetivo proporcionar una plataforma para que la comunidad en general comparta sus experiencias y discuta los desafíos y oportunidades. Promovió la cooperación dentro de la comunidad de ciberseguridad de la IA para reflexionar sobre la propuesta de un reglamento de la UE sobre IA. La propuesta podría permitir que la UE se convierta en pionera en la regulación de la IA.

Juhan Lepassaar, director ejecutivo de la Agencia de Ciberseguridad de la UE, dijo: Si queremos proteger los sistemas de inteligencia artificial y también garantizar la privacidad, debemos analizar cómo funcionan estos sistemas. ENISA está investigando la complejidad técnica de la IA para mitigar mejor los riesgos de ciberseguridad. También debemos lograr el equilibrio adecuado entre la seguridad y el rendimiento del sistema. La conferencia de hoy permitirá intercambiar ideas sobre tales desafíos para contemplar todas las medidas posibles, como el enfoque de seguridad desde el diseño. Con el rápido desarrollo de la IA generativa, estamos listos para ponernos al día para brindar un mejor apoyo a los legisladores a medida que ingresamos en esta nueva fase de la revolución de la IA”.

Las preguntas clave sobre las mesas

Los 4 paneles de la conferencia abordaron los desafíos técnicos de ciberseguridad de los chatbots de IA, las necesidades de investigación e innovación y las consideraciones de seguridad para la certificación de ciberseguridad de los sistemas de IA. Apoyar a los responsables políticos, incluidas las autoridades nacionales, con orientación sobre las mejores prácticas y los casos de los usuarios, al mismo tiempo que promueve las normas en toda la UE, le brinda a la UE la oportunidad de liderar a nivel mundial en la creación de una IA segura y confiable.

Los discursos de oradores de alto nivel se centraron en la IA generativa, en la perspectiva legal y política de la próxima Ley de IA y en las medidas ya tomadas por la Agencia Alemana de Ciberseguridad, BSI.

Acerca de los nuevos informes de IA:

  • Establecer buenas prácticas de ciberseguridad para la IA: El informe se erige como un marco escalable para guiar a las autoridades nacionales de ciberseguridad (NCA) y la comunidad de IA para asegurar los sistemas, operaciones y procesos de IA. El marco consta de tres capas (bases de ciberseguridad, ciberseguridad específica de IA y ciberseguridad específica del sector para IA) y tiene como objetivo proporcionar un enfoque paso a paso sobre el seguimiento de buenas prácticas de ciberseguridad para garantizar la confiabilidad de los sistemas de IA.
  • Ciberseguridad y privacidad en IA: dos casos de uso: previsión de demandas en redes eléctricas y diagnóstico por imagen médica: Ambos informes describen las amenazas a la ciberseguridad y la privacidad, así como las vulnerabilidades que pueden explotarse en cada caso de uso. El análisis se centró en las amenazas y vulnerabilidades relacionadas con el aprendizaje automático, teniendo en cuenta consideraciones más amplias de IA. Sin embargo, el enfoque del trabajo está en los temas de privacidad, ya que estos se han convertido en uno de los desafíos más importantes que enfrenta la sociedad actual. La seguridad y la privacidad están íntimamente relacionadas, y ambas son igualmente importantes, se debe encontrar un equilibrio para cumplir con los requisitos relacionados. El informe revela, sin embargo, que los esfuerzos para optimizar la seguridad y la privacidad a menudo pueden realizarse a expensas del rendimiento del sistema.
  • Investigación en IA y ciberseguridad: El informe identifica 5 necesidades de investigación clave para seguir investigando sobre IA para la ciberseguridad y sobre cómo asegurar la IA para futuros desarrollos de políticas e iniciativas de financiación de la UE. Dichas necesidades incluyen el desarrollo de herramientas de pruebas de penetración para identificar vulnerabilidades de seguridad o el desarrollo de marcos estandarizados para evaluar la privacidad y la confidencialidad, entre otros.

Público objetivo

  • Entidades públicas o privadas, incluida la comunidad de ciberseguridad y privacidad: para respaldar el análisis de riesgos, la identificación de amenazas a la ciberseguridad y la privacidad y la selección de los controles de seguridad y privacidad más adecuados;
  • Comunidad técnica de IA, expertos en ciberseguridad y privacidad de IA y expertos en IA interesados ​​en desarrollar soluciones seguras y agregar seguridad y privacidad por diseño a sus soluciones.

Más información

Marco multicapa de buenas prácticas de ciberseguridad para IA – Informe ENISA 2023

Ciberseguridad y privacidad en IA – Previsión de demanda en redes eléctricas – Informe ENISA 2023

Ciberseguridad y privacidad en IA – Diagnóstico por imagen médica – Informe ENISA 2023

Investigación en Inteligencia Artificial y Ciberseguridad Informe ENISA 2023

Ciberseguridad de la IA y normalización – Informe ENISA de marzo de 2023


Descubre más desde Revista Ciberseguridad

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Fuente independiente de noticias y análisis sobre la ciberseguridad, que cubre las últimas noticias y la investigación de ciberamenazas, malware, phishing, etc.

Noticias Relacionadas

1 of 27

1 Comentario

  1. ¿Es posible una IA segura y confiable? @ciberseguridadl https://t.co/DQZJAC9w7k