Uso de inteligencia artificial para lanzar ciberataques a gran escala

Los chatbots de gran tamaño están cobrando protagonismo, como ChatGPT-5 de OpenAI, Gemini de Google y otros.
Claude suele ser noticia por sus últimas novedades. Pero esta semana fue diferente.Uso de IA para lanzar ciberataques a gran escala: la guía de Tom para protegerse de la creciente amenaza de los hackers

En primer lugar, OpenAI enfrenta fuertes críticas por Preocupaciones de seguridad، والآن informe Una noticia de Anthropic revela que un hacker utilizó Asistente de codificación de IA La automatización de casi todos los pasos de una cadena de delitos cibernéticos a gran escala se ha descrito como “un hecho sin precedentes”.

La operación tuvo como blanco al menos a 17 organizaciones de los sectores sanitario, gubernamental, de servicios de emergencia e incluso instituciones religiosas.

Usando Claude Code, la herramienta de escritura de código impulsada por IA de Anthropic, el atacante manejó todo, desde el escaneo de vulnerabilidades hasta la escritura de ransomware, el cálculo de montos de rescate e incluso la elaboración de mensajes de extorsión pulidos.

¿Cómo lo hizo el hacker?

Persona que usa Claude en un teléfono con el logotipo de Anthropic de fondo

El informe de Anthropic indica que el actor malicioso, conocido como GTG-5004, utilizó la nube para externalizar todo el ataque. Tareas que antes requerían habilidades técnicas avanzadas ahora son realizadas por IA en minutos.

Esto es lo que hizo el hacker:

  • Encuesta: Ayude a Claude a identificar sistemas vulnerables y puntos de entrada explotables.
  • Creación de malware: La inteligencia artificial creó un código malicioso y lo empaquetó en kits de ransomware.
  • Configuración del chantaje: Él creó mensajes de rescate y manejó cuentas de pago de criptomonedas.
  • Automatización a gran escala: El sistema simplifica los ataques a múltiples objetivos a la vez.

Anthropic confirmó que las demandas de rescate en un momento superaron los 500,000 dólares.

¿Qué tiene de especial este incidente?

Un hacker escribe en una computadora

Los ciberdelincuentes llevan años utilizando la automatización, pero este caso demuestra cómo la IA está reduciendo las barreras a los ataques sofisticados. Ya no se necesitan habilidades de hacking de élite para llevar a cabo infracciones a gran escala; ni siquiera se requieren conocimientos de programación cuando se cuenta con la herramienta de IA adecuada.

Esto también significa que Mensajes de phishingLas demandas y estafas de ransomware que llegan a su bandeja de entrada son cada vez más inteligentes, sofisticadas y difíciles de detectar. Incluso los correos electrónicos falsos...

Los datos generados por IA pueden parecerse exactamente a los de su banco, su lugar de trabajo o incluso los de un familiar de confianza.

¿Qué está haciendo Anthropic al respecto?

Dario Amodei, director ejecutivo de Anthropic

Anthropic afirma haber cerrado las cuentas involucradas e implementado nuevas medidas de seguridad para prevenir este tipo de uso indebido en el futuro. La compañía también ha publicado herramientas de detección y compartido indicadores de vulnerabilidad con las autoridades de ciberseguridad.

Pero muchos en la industria advierten que esto podría ser solo el comienzo. A medida que las herramientas avanzadas de IA se vuelvan más sofisticadas y accesibles, sin duda veremos más incidentes como este; serán más rápidos, más escalables y mucho más difíciles de detener.

¿Cómo protegerse?

Primer plano de las manos de un hombre sosteniendo una tarjeta de crédito y un teléfono móvil para una transacción en línea

Aunque las empresas son el objetivo principal en este caso, debes tomar precauciones adicionales:

  • Sea escéptico con los correos electrónicos y enlaces, especialmente aquellos que solicitan información personal o pagos.
  • Utilice contraseñas seguras y únicas y habilite la autenticación de dos factores siempre que sea posible.
  • Mantenga sus dispositivos actualizados para corregir vulnerabilidades de seguridad.
  • Tenga cuidado con las ofertas que “parecen demasiado buenas para ser verdad” o con solicitudes de inicio de sesión inesperadas, ya que muchas de ellas son estafas generadas por inteligencia artificial.

La inteligencia artificial hace que los hackers sean más productivos.

Este ataque pone de manifiesto una nueva realidad: la IA no solo nos ayuda a trabajar de forma más inteligente, sino que también ayuda a los hackers a ser más inteligentes. Lo que Anthropic describió hoy como un incidente "sin precedentes" podría pronto convertirse en la norma a medida que más ciberdelincuentes recurren a la IA para obtener velocidad y escala.

Los comentarios están cerrados.