Envenenamiento por IA: Estafa de soporte falso: La búsqueda de IA como la nueva superficie de ataque

16 de diciembre de 2025 | Blog Envenenamiento por IA: Estafa de soporte falso: La búsqueda de IA como la nueva superficie de ataque

Los ciberdelincuentes siempre buscan la atención de los internautas. No literalmente, sino en sentido figurado. Y hoy en día, la atención está cambiando. Aunque la Búsqueda de Google sigue dominando, Entre el 20 y el 26 % de los estadounidenses han cambiado a herramientas de IA como ChatGPT, Claude y Perplexity para recopilar información., una cifra que crece mensualmente. Los estafadores están siguiendo esta migración, trasladando su juego del tradicional Envenenamiento SEO En los resultados de Google aparece una amenaza mucho más insidiosa: Envenenamiento por IA.

Según informes de finales de 2024 y 2025, los actores de amenazas están contaminando las herramientas de búsqueda de IA con listados falsos de atención al cliente que redirigen a las víctimas a números de teléfono, sitios web y agentes fraudulentos que se hacen pasar por empresas legítimas. Air Canada recibió la orden de pagar a un cliente engañado por el chatbot de la aerolínea.

¿Por qué es eso?

Si bien la Búsqueda de Google le permite evaluar varias fuentes usted mismo, los chatbots de IA le brindan UNA respuesta seguraY esas respuestas son erróneas entre un 2 % y un 35 % de las veces, según el tema y el modelo. Cuando una IA inventa un número de atención al cliente falso y alguien lo publica en línea, la siguiente IA que rastree la web aprende ese número falso y lo repite con aún más seguridad. Esto perpetúa la información tóxica a otros chatbots, lo que lleva a que se distribuya más información falsa en las mismas herramientas de búsqueda de IA a las que la gente está migrando. Muchos usuarios de búsquedas de IA son conscientes de que estos sistemas alucinan, pero ¿son conscientes de que consumen datos falsos introducidos por delincuentes que llevan a cabo elaborados planes de piratería informática? Es poco probable, hasta que leas este artículo.

Cómo funcionan estas estafas de envenenamiento por búsqueda de IA

Los atacantes introducen información convincente, pero falsa, en las herramientas de búsqueda de IA, que parece ser información de atención al cliente de bancos, aerolíneas y empresas tecnológicas. Cuando un usuario solicita un número de soporte al asistente de IA, el modelo sugiere uno falso. A partir de ahí, comienzan las estafas:

  • Agentes falsos Intenta extraer la información de pago.
  • Herramientas de acceso remoto Se les empuja a “arreglar” problemas falsos.
  • Estafas de reembolso engañar a los usuarios para que devuelvan el dinero.
  • Intentos de apropiación de cuentas comienzan en el momento en que responden la llamada.

El usuario nunca llega a una página de phishing. La estafa comienza directamente dentro del cuadro de respuesta de la IA.

Por qué es más fácil envenenar a la IA

Hay dos razones principales por las que la búsqueda con IA es más fácil de manipular que los buscadores tradicionales como Google o Bing. En primer lugar, los bots de búsqueda con IA no verifican números de teléfono, fichas de empresas ni URL con fuentes fiables como lo hacen los buscadores tradicionales. Los atacantes se aprovechan de esto mediante:

  • Publicar datos comerciales falsos pero que parecen legítimos.
  • Creación de sitios web optimizados para SEO que recopilan información de modelos.
  • Envío masivo de contactos de soporte falsos en directorios más pequeños.
  • Generando ecosistemas de estafa completos con herramientas de IA.

En segundo lugar, existe un ciclo que se retroalimenta: los usuarios que reciben información incorrecta, sin saberlo, republican dichos datos en sus sitios web. Esto provoca que más bots de búsqueda con IA consuman e incluyan los datos falsos en sus resultados de búsqueda, perpetuando así la información falsa. Estos modelos de IA luego repiten la información falsa a gran escala, dándole credibilidad.

¿Quién está en mayor riesgo?

  • Adultos mayores que dependen de asistentes virtuales de IA
  • ¿Alguien que usa IA para buscar "número de teléfono de atención al cliente"?
  • Usuarios de búsqueda de IA que intentan contactar con aerolíneas, empresas de entrega, tiendas de aplicaciones, bancos o plataformas de suscripción

En otras palabras: cualquiera que utilice herramientas de búsqueda de IA puede ser víctima.

Señales de advertencia de que ha llegado a una línea de ayuda fraudulenta

Si llama a un número de soporte y encuentra alguno de estos problemas, cuelgue inmediatamente.

  • El agente solicita el pago mediante tarjetas de regalo, transferencia bancaria o criptomonedas.
  • Presión para “actuar ahora” o “su cuenta será cerrada”
  • Solicitud de acceso remoto a su computadora para un problema “de rutina”
  • Solicitar un número completo de tarjeta de crédito cuando llama por un problema que no está relacionado con la facturación
  • El representante de soporte no puede o no se molesta en verificar información básica sobre su cuenta que un agente real haría

En estos casos, el consejo es rápido y sencillo. Cuelgue y vuelva a llamar al número correcto desde el sitio web oficial.

Consejos que todos los usuarios de búsqueda con IA deben seguir

  • Nunca confíes en un número de soporte de AI Search sin verificarlo en el sitio web oficial del proveedor. Esto incluye visitar el sitio web desde enlaces en tus resultados de búsqueda, ya que sitios web similares aparecen con mayor frecuencia en estas estafas de envenenamiento.
  • Evite llamar a números de blogs, archivos PDF, publicaciones de Reddit o foros aleatorios.
  • Marca como favoritas las páginas de soporte oficiales de las empresas en las que confías.
  • Active MFA, por lo que incluso si comete un error con las credenciales, los atacantes no pueden violar su cuenta de inmediato.

Qué deben hacer las empresas

Las organizaciones no pueden evitar que los estafadores envenenen los sistemas de IA, pero... puede endurecer a sus usuarios:

  • Registre sus números de soporte oficiales con Google Business Profile y otros servicios de directorio para ayudar a sus clientes a comunicarse con usted.
  • Capacite al personal para verificar los canales de soporte antes de contactar a los proveedores.
  • Incluir ejemplos de “números de soporte falsos” en programas de concientización sobre phishing e ingeniería social.
  • Publica tus contactos de soporte oficiales de forma clara y coherente.
  • Monitoree la web para detectar listados fraudulentos, nombres de dominio con errores tipográficos o sitios web similares que abusan de su marca.
  • Implementar DMARC, DKIM, SPF Protecciones en sus registros de Mail eXchange (Registros MX)

Resumen Final

Los atacantes se dirigen a los usuarios. En los últimos dos años, la búsqueda se ha expandido a la búsqueda con IA, donde los controles sobre información falsa son menos estrictos y el envenenamiento de la búsqueda con IA parece estar en expansión. Dado que muchos usuarios desconocen que no se puede confiar plenamente en la IA, los estafadores centran sus esfuerzos en envenenar los números de soporte técnico y propagarlo a través de bots de búsqueda con IA en internet.

Afortunadamente, la solución no es complicada: reduzca la velocidad, verifique la información de contacto a través de los motores de búsqueda tradicionales y el sitio web del proveedor, y trate todos los resultados de IA con confianza cero hasta que se confirme.

Recursos Adicionales


Últimos Blogs

Manténgase actualizado con lo último información de seguridad

Descubra y comparta las últimas tendencias, consejos y mejores prácticas en ciberseguridad, junto con nuevas amenazas a las que debe prestar atención.

Líder en ciberseguridad sube archivos confidenciales a la IA

Líder en ciberseguridad sube archivos confidenciales a la IA

No es sorprendente que surjan problemas El verano pasado, el director interino de una importante agencia de ciberseguridad de EE. UU. subió...

Leer más
Brechas de seguridad comunes en Google Workspace

Brechas de seguridad comunes en Google Workspace

Y cómo solucionarlos. Déjame hacer una suposición fundamentada. Te cambiaste a Google Workspace porque se suponía que...

Leer más
MongoBleed: Por qué 87,000 bases de datos tenían las puertas abiertas (y cómo cerrar las suyas)

MongoBleed: Por qué 87,000 bases de datos tenían las puertas abiertas (y cómo cerrar las suyas)

¿Recuerdan Heartbleed? Esa pesadilla de seguridad de hace unos años que hizo que todos entraran en pánico por...

Leer más