¿Por qué AI y ML no son soluciones de ciberseguridad?

AI y ML a menudo se promocionan como balas de plata, pero las aplicaciones reales de la tecnología parecen escasas en el terreno.

Cómo la IA con armas ha creado una nueva generación de ataques cibernéticos
Los investigadores de seguridad de IBM descubrieron ciberataques invasivos y dirigidos por inteligencia artificial activados por geolocalización y reconocimiento facial.

Inteligencia artificial (AI) y máquina Learning (ML) son algunas de las últimas herramientas que se utilizan en la lucha contra las vulnerabilidades de seguridad de las aplicaciones. Sin embargo, las complejidades involucradas pueden hacer que sea difícil discernir qué se está usando realmente y qué vive en un entorno ficticio de Hollywood.

Hablé con Ilia Kolochenko, CEO de la empresa de seguridad web High-Tech Bridge para aclarar cualquier confusión. [19659006] VER: Inteligencia artificial: tendencias, obstáculos y posibles ganancias (Tech Pro Research)

Scott Matteson: ¿Cuál es el estado general de la seguridad de las aplicaciones en la actualidad? ¿Ha mejorado en los últimos 12 meses? Si no es así, ¿por qué?

Ilia Kolochenko: El número total y la complejidad de los riesgos de seguridad de las aplicaciones continúan creciendo de manera constante. Las aplicaciones web, móvil e incluso IoT se han convertido en una parte inseparable de nuestra vida personal y empresarial. La gente compra, vende, toma préstamos, aprende, vota e incluso se enamora usando aplicaciones. Virtualmente, cada startup tiene su propia aplicación, por no hablar de grandes corporaciones y entidades gubernamentales.

Sin embargo, una creciente falta de talentos técnicos calificados y una tendencia predominante para reducir los costos de desarrollo de aplicaciones al subcontratar han producido un número cada vez mayor de aplicaciones inseguras y vulnerables. Peor aún, las nuevas empresas que a menudo tienen que competir en un entorno muy agresivo y turbulento simplemente ignoran la seguridad y la privacidad de las aplicaciones debido a la falta de recursos disponibles.

Scott Matteson: AI y ML a menudo se promocionan como balas de plata. Pero las aplicaciones del mundo real para la tecnología parecen escasas en el terreno. ¿Cómo pueden las empresas beneficiarse a nivel práctico de AI y ML?

Ilia Kolochenko: En primer lugar, debemos definir el acrónimo de AI que se usa ampliamente en la actualidad. La inteligencia artificial, capaz de aprender y resolver prácticamente cualquier conjunto de problemas diversos similares a un humano promedio, todavía no existe, y es poco probable que surja dentro de la próxima década.

Con frecuencia, cuando alguien dice inteligencia artificial, significa Aprendizaje automático. Esto último puede ser muy útil para lo que llamamos automatización inteligente: una reducción del trabajo humano sin pérdida de calidad o confiabilidad del proceso optimizado.

Sin embargo, cuanto más complicado es un proceso, más caro y lento es el proceso. Implementar una tecnología de ML sostenible para automatizarla. A menudo, los sistemas de LD solo ayudan a los profesionales cuidando tareas rutinarias y triviales y capacitando a las personas para que se concentren en tareas más sofisticadas.

Scott Matteson: A pesar de que las mejores prácticas de seguridad de las aplicaciones se han discutido durante años, todavía hay horror. historias en los medios de comunicación, a menudo debido a un fracaso en las medidas de seguridad básicas. ¿Por qué los conceptos básicos aún no están siendo seguidos por un número significativo de empresas?

Ilia Kolochenko: La causa raíz es una estrategia de ciberseguridad que falta o está incompleta. Con la rápida proliferación de tecnología en cada parte del negocio, la gestión integral de la ciberseguridad se convierte en una tarea muy ardua y onerosa. Muchas empresas no tienen una estrategia de seguridad consistente, coherente y basada en riesgos, y mucho menos un programa de seguridad de aplicaciones. Muy pocas compañías tienen un inventario actualizado de sus aplicaciones, datos procesados ​​y controles de seguridad implementados. Entonces, ¿cómo pueden proteger lo que ni siquiera saben al respecto?

VER: Guía del IT para el aprendizaje profundo (Tech Pro Research)

Scott Matteson: Como muchas empresas lidian con el GDPR y requisitos de datos personales, ¿existe un rol para el ML en el descubrimiento de datos o la tecnología aún no está lo suficientemente madura?

Ilia Kolochenko: Sí, este es un proceso que se puede automatizar de manera confiable utilizando la tecnología ML.

Scott Matteson: ¿Qué peligros de privacidad conlleva el aprendizaje automático, especialmente después de la implementación de GDPR?

Ilia Kolochenko: Hablando de GDPR en el contexto de ML, debemos tener en cuenta que algunos conjuntos de datos de capacitación pueden contener información de carácter personal real y por lo tanto hacer el cumplimiento GDPR virtualmente imposible. A veces, la solicitud de eliminación de datos, por ejemplo, puede no ser factible o irrazonablemente costosa de cumplir.

Scott Matteson: ¿Es la organización de armas de fuego una amenaza real y qué tan preocupadas deben estar las empresas?

Ilia Kolochenko: Creo que está muy exagerado en estos días. AI y ML no son balas de plata en la ciberseguridad, al igual que en la ciberdelincuencia. Los chicos malos utilizan activamente el ML para perfilar mejor a sus víctimas y acelerar los ataques, sin embargo, estos son el límite superior por el momento.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*