El nuevo año trae nuevas amenazas a la ciberseguridad impulsadas por la inteligencia artificial, dijo el director de seguridad de CrowdStrike, Shawn Henry. Mañanas de CBS el martes.
“Creo que esta es una gran preocupación para todos”, dijo Henry.
“La IA realmente ha puesto esta herramienta tremendamente poderosa en manos de la persona promedio y la ha hecho increíblemente más capaz”, explicó. “Así que los adversarios están utilizando la IA, esta nueva innovación, para superar diferentes capacidades de ciberseguridad y obtener acceso a las redes corporativas”.
Henry destacó el uso de la IA para penetrar en las redes corporativas, así como para difundir información errónea en línea utilizando videos, audio y textos cada vez más sofisticados.
Henry enfatizó la necesidad de observar la fuente de información y nunca tomar al pie de la letra algo publicado en línea.
“Hay que verificar de dónde vino”, dijo Henry. “¿Quién cuenta la historia, cuál es su motivación y se puede verificar a través de múltiples fuentes?”
“Es increíblemente difícil porque las personas, cuando usan video, tienen 15 o 20 segundos, no tienen el tiempo o muchas veces no hacen el esfuerzo para obtener esos datos, y eso es un problema”.
Al señalar que 2024 es un año electoral para varios países (incluidos Estados Unidos, México, Sudáfrica, Taiwán e India), Henry dijo que la democracia misma está en las boletas, y que los ciberdelincuentes buscan aprovechar el caos político aprovechando la inteligencia artificial.
“Hemos visto a adversarios extranjeros atacar las elecciones estadounidenses durante muchos años, no fue solo 2016. [China] Nos atacaron en 2008”, dijo Henry. “Hemos visto a Rusia, China e Irán involucrados en este tipo de desinformación a lo largo de los años; Definitivamente lo usarán nuevamente aquí en 2024”.
“La gente tiene que entender de dónde viene la información”, dijo Henry. “Porque hay personas que tienen intenciones nefastas y crean grandes problemas”.
Una preocupación particular en las próximas elecciones estadounidenses de 2024 es la seguridad de las máquinas de votación. Cuando se le preguntó si la IA podría usarse para piratear máquinas de votación, Henry se mostró optimista en cuanto a que la naturaleza descentralizada del sistema de votación de EE. UU. evitaría que eso sucediera.
“Creo que nuestro sistema en Estados Unidos está muy descentralizado”, dijo Henry. “Hay áreas individuales que podrían ser objeto de ataques, como las listas de registro de votantes, etc., [but] No creo que un problema de tabulación de votantes a gran escala afecte una elección; no creo que sea un tema importante”.
Henry destacó la capacidad de la IA para dar acceso a armas técnicas a ciberdelincuentes no tan técnicos.
“La IA proporciona una herramienta muy capaz en manos de personas que tal vez no tengan altas habilidades técnicas”, dijo Henry. “Pueden escribir código, crear software malicioso, correos electrónicos de phishing, etc.”
En octubre, la Corporación RAND publicó un informe que sugería que la IA generativa podría ser liberada para ayudar a los terroristas a planificar ataques biológicos.
“Generalmente, si un actor malintencionado es explícito [in their intent]recibirá una respuesta del tipo 'Lo siento, no puedo ayudarle con eso'”, dijo el coautor e ingeniero senior de RAND Corporation, Christopher Mouton. Descifrar en una entrevista. “Por lo tanto, generalmente hay que utilizar una de estas técnicas de jailbreak o solicitar ingeniería para llegar un nivel por debajo de esas barreras”.
En un informe separado, la empresa de ciberseguridad SlashNext informó que los ataques de phishing por correo electrónico aumentaron un 1265 % desde principios de 2023.
Los formuladores de políticas globales han pasado la mayor parte de 2023 buscando formas de regular y tomar medidas drásticas contra el uso indebido de la IA generativa, incluido el Secretario General de las Naciones Unidas, quien hizo sonar la alarma sobre el uso de deepfakes generados por IA en zonas de conflicto.
En agosto, la Comisión Federal Electoral de EE. UU. presentó una petición para prohibir el uso de inteligencia artificial en anuncios de campaña previos a la temporada electoral de 2024.
Los gigantes tecnológicos Microsoft y Meta anunciaron nuevas políticas destinadas a frenar la desinformación política impulsada por la inteligencia artificial.
“En 2024, el mundo podría ver cómo múltiples Estados-nación autoritarios buscarían interferir en los procesos electorales”, dijo Microsoft. “Y pueden combinar técnicas tradicionales con inteligencia artificial y otras tecnologías nuevas para amenazar la integridad de los sistemas electorales”.
Incluso el Papa Francisco, que ha sido objeto de deepfakes virales generados por IA, ha abordado, en diferentes ocasiones, la inteligencia artificial en sus sermones.
“Necesitamos ser conscientes de las rápidas transformaciones que se están produciendo actualmente y gestionarlas de manera que salvaguarden los derechos humanos fundamentales y respeten las instituciones y leyes que promueven el desarrollo humano integral”, dijo el Papa Francisco. “La inteligencia artificial debería servir a nuestro mejor potencial humano y nuestras aspiraciones más elevadas, no competir con ellas”.