El Público Tv– Caracas, 4 de septiembre de 2023. Los «hackers de sombrero rojo» se han convertido en los guardianes esenciales de la ciberseguridad en la era de la inteligencia artificial.
Empresas como Microsoft, Google, Nvidia o Meta compiten por hacerse con un puñado de ellos entre su plantilla dados sus conocimientos.
La actualidad manda y si sigues las noticias diarias, seguro que te has encontrado con multitud de ellas hablando de ciberataques o peligros potenciales que podrían poner al borde del desfiladero a grandes empresas como Google, Meta, Nvidia o Microsoft.
Para hacer frente a todo esto, existe una fuerza invisible pero realmente vital para garantizar la seguridad y el buen funcionamiento de estas grandes compañías debido, sobre todo, al gran auge de la inteligencia artificial.
Estos son los «hackers de sombrero rojo», y en estas grandes compañías se han convertido en una parte fundamental de su estrategia de seguridad.
Pero ¿quiénes son exactamente los hackers de sombrero rojo y por qué son tan valiosos en el mundo de la ciberseguridad y la IA?
Hackers de sombrero rojo: guardianes indispensables de la seguridad en la era de la IA
La práctica del software de estos equipos existe desde la década de 1960, cuando se simulaban ataques para hacer que los sistemas fueran lo más resistentes posible.
En pocas palabras, se trata de una élite de expertos en seguridad informática cuya labor es poner a prueba las tecnologías desde todos los ángulos posibles para detectar errores, vulnerabilidades y posibles peligros que podrían poner en jaque a cualquier empresa y la privacidad y seguridad de los usuarios.
A través de rigurosas pruebas de penetración, análisis exhaustivos y unos grandes cerebros trabajando de forma continua, estos profesionales buscan asegurarse de que los sistemas sean resistentes a todo tipo de ataques.
Un ejemplo reciente de la importancia de estos hackers de sombrero rojo se encuentra en la experiencia de OpenAI con la prueba de sus modelos de IA, como ChatGPT.
Antes del lanzamiento público de sus productos, esta compañía contrató a un experto para verificar la presencia de estereotipos perjudiciales en las respuestas generadas por la IA, con el objetivo de evitar que los modelos de IA perpetúen prejuicios o generen contenido peligroso.