Atrás ZIUR analiza los beneficios y los riesgos de la Inteligencia Artificial en la industria
ZIUR analiza los beneficios y los riesgos de la Inteligencia Artificial en la industria
En su informe Uso de la Inteligencia Artificial en las herramientas de seguridad en un entorno OT, el Centro de Ciberseguridad Industrial de Gipuzkoa recomienda a las organizaciones del sector disponer de los mecanismos más actualizados para proteger sus sistemas y evitar sufrir un ciberataque que les obligue a detener cualquier proceso crítico.
El uso de la Inteligencia Artificial para garantizar la seguridad de los sistemas industriales permite a las organizaciones disponer de nuevos mecanismos para la protección frente a los ataques de los ciberdelincuentes. Sin embargo, esta nueva tecnología también es usada por los cibercriminales, que se aprovechan de ella para lanzar ataques cada vez más complejos, sofisticados y efectivos.
ZIUR, el Centro de Ciberseguridad Industrial de Gipuzkoa, ha publicado el informe ‘Uso de la Inteligencia Artificial en las herramientas de seguridad en un entorno OT’, en el que recomienda a las organizaciones del sector disponer de los mecanismos más actualizados para proteger sus sistemas. De esta manera, lograrán evitar sufrir un ciberataque que les obligue a detener cualquier proceso crítico que afecte directamente a la cadena de suministro o, incluso, en el peor de los escenarios, que provoque la detención del proceso de producción de forma temporal.
De cara a incorporar este tipo de herramientas, ZIUR pide a los responsables de la seguridad de la información de cada organización que tengan en cuenta una serie de aspectos para controlar los riesgos asociados al uso de la Inteligencia Artificial. Entre las recomendaciones, ZIUR aconseja seleccionar una herramienta adecuada a las necesidades de protección de cada uno de los sistemas industriales de la empresa; elaborar un conjunto de datos válido y completo para entrenar al sistema antes de su despliegue en producción; o realizar periódicamente pruebas de validación de cada una de las herramientas implementadas para medir la tasa de efectividad.
También recomienda establecer una política de actualización periódica de dichas herramientas para corregir vulnerabilidades y mejorar los modelos de cálculo; disponer de un registro de todas las acciones que ha realizado la herramienta; conocer los estándares y las normativas para garantizar que se están siguiendo las buenas prácticas; y disponer de un equipo con conocimiento en la Inteligencia Artificial capaz de parametrizar las herramientas.
Para más información, descarga el informe.