Así puedes protegerte de las llamadas fraudulentas que hacen con IA

Las herramientas de IA son cada vez mejores para clonar la voz de las personas, y los estafadores aprovechan estas nuevas capacidades para cometer fraudes. Evita que te estafen siguiendo estos consejos de expertos.

Imagina el escenario: respondes a una llamada de un familiar y te explica, casi sin aliento, que ha estado involucrado en un horrible accidente de automóvil. Necesita que le envíes dinero ahora mismo o irá a la cárcel. Puedes oír la desesperación en su voz mientras suplica por una transferencia de dinero inmediata. Aunque parece que efectivamente es tu familiar y que la llamada procede de su número, sientes que algo no está bien. Así que decides colgar y volver a llamar. Cuando tu familiar toma la llamada, te dice que no ha habido ningún accidente y que no tiene ni idea de lo que estás hablando.

Por suerte, acabas de evitar una llamada fraudulenta de inteligencia artificial.

A medida que aumentan las capacidades de las herramientas de inteligencia artificial generativa, a los estafadores les resulta más fácil y barato crear voces falsas, aunque convincentes. Estos clones de voz de IA se entrenan con clips de audio existentes de habla humana y pueden ajustarse para imitar a casi cualquier persona. Los modelos más recientes pueden incluso hablar en varios idiomas. OpenAI, la creadora de ChatGPT, anunció recientemente un nuevo modelo de texto a voz que podría mejorar aún más la clonación de voz y hacerla más accesible.

 

Por supuesto, los delincuentes están utilizando estas herramientas de clonación de IA para engañar a las víctimas haciéndoles creer que están hablando por teléfono con un ser querido, aunque estén hablando con una máquina. Aunque la amenaza de las estafas con base en IA puede ser aterradora, puedes mantenerte a salvo teniendo en cuenta estos consejos de expertos la próxima vez que recibas una llamada urgente e inesperada.

Recuerda que el audio de IA es difícil de detectar

No se trata solamente de OpenAI; muchas startups tecnológicas están trabajando en replicar el habla humana con un sonido casi perfecto, y el progreso reciente es rápido. "Si hubiera sido hace unos meses, te habríamos dado consejos sobre qué buscar, como pausas extrañas o mostrar algún tipo de latencia", aclara Ben Colman, cofundador y CEO de Reality Defender. Al igual que muchos aspectos de la IA generativa en el último año, la IA de audio es ahora una imitación más convincente de la realidad. Cualquier estrategia de seguridad que dependa de que tú detectes auditivamente rarezas a través del teléfono, está obsoleta.

Cuelga y vuelve a llamar

Los expertos en seguridad advierten de que es bastante fácil para los estafadores hacer que parezca que la llamada proviene de un número de teléfono legítimo. "Muchas veces los estafadores falsifican el número desde el que te llaman, hacen que parezca que te llaman de esa agencia gubernamental o del banco", explica Michael Jabbara, jefe global de servicios de fraude de Visa. "Hay que ser proactivos". Ya sea de tu banco o de un ser querido, cada vez que recibas una llamada en la que te pidan dinero o información personal, diles que devolverás la llamada. Busca el número en internet o en tus contactos e inicia una conversación de seguimiento. También puedes intentar enviarles un mensaje a través de una línea de comunicación diferente y verificada, como videochat o correo electrónico.

Crea una palabra secreta de seguridad

Un consejo de seguridad muy popular que sugirieron varias fuentes fue crear una palabra de seguridad que solamente tú y tus seres queridos conozcan y que puedan pedir por teléfono: "Puedes incluso prenegociar con tus seres queridos una palabra o una frase que puedan utilizar para demostrar quiénes son realmente, si se encuentran en una situación de coacción", indica Steve Grobman, director de tecnología de McAfee. Aunque lo mejor es devolver la llamada o verificarla por otro medio de comunicación, una palabra de seguridad puede ser especialmente útil para los parientes más jóvenes o ancianos con los que sea difícil ponerse en contacto de otro modo.

O simplemente pregúntales qué han cenado

¿Y si no tienes una palabra de seguridad decidida y estás intentando averiguar si una llamada angustiosa es real? Para un segundo y haz una pregunta personal. "Puede ser tan sencillo como hacer una pregunta que solamente tu ser querido sabría responder", apunta Grobman, “Podría ser: ‘Oye, quiero asegurarme de que eres tú de verdad’. Asegúrate de que la pregunta es lo suficientemente específica como para que un estafador no pueda responder correctamente con una suposición.

Entiende que cualquier voz puede ser imitada

Los clones de audio deepfake no solo están reservados a famosos y políticos, como las llamadas en New Hampshire que utilizaron herramientas de IA para sonar como Joe Biden y disuadir a la gente de acudir a las urnas. "Un malentendido es: ‘A mí no me puede pasar. Nadie puede clonar mi voz’", sostiene Rahul Sood, director de producto de Pindrop, una empresa de seguridad que descubrió el probable origen del audio de Biden. "De lo que la gente no se da cuenta es de que con tan solo cinco o diez segundos de tu voz, en un TikTok que hayas podido crear o en un video de YouTube de tu vida profesional, ese contenido puede utilizarse fácilmente para crear tu clon" Utilizando herramientas de IA, el mensaje de voz saliente de tu smartphone podría incluso bastar para replicar tu voz.

No cedas a apelaciones emocionales

Ya se trate de una estafa de carnicería de cerdos o de una llamada telefónica con IA, los estafadores experimentados son capaces de ganarse tu confianza, crear una sensación de urgencia y encontrar tus puntos débiles. "Desconfía de cualquier compromiso en el que experimentes un elevado sentido de la emoción, porque los mejores estafadores no son necesariamente los hackers técnicos más hábiles", aclara Jabbara. "Si te tomas un momento para reflexionar sobre una situación y te abstienes de actuar por impulso, ese puede ser el momento en que evites que te estafen.

 

Artículo publicado originalmente en WIRED. Adaptado por Mauricio Serfatty Godoy.

Fotoilustración: WIRED STAFF; GETTY IMAGES