Así puedes protegerte de las llamadas fraudulentas que hacen con IA

Las herra­mien­tas de IA son cada vez mejores para clonar la voz de las perso­nas, y los esta­fa­do­res aprove­chan estas nuevas capa­ci­da­des para come­ter fraudes. Evita que te esta­fen siguiendo estos consejos de exper­tos.

Imagina el esce­na­rio: respon­des a una llamada de un fami­liar y te explica, casi sin aliento, que ha estado invo­lu­c­rado en un horrible accidente de automóvil. Nece­sita que le envíes dinero ahora mismo o irá a la cárcel. Puedes oír la deses­pe­ra­ción en su voz mien­tras suplica por una trans­fe­ren­cia de dinero inme­diata. Aunque parece que efec­ti­va­mente es tu fami­liar y que la llamada procede de su número, sien­tes que algo no está bien. Así que decides colgar y volver a llamar. Cuando tu fami­liar toma la llamada, te dice que no ha habido ningún accidente y que no tiene ni idea de lo que estás hablando.

Por suerte, acabas de evitar una llamada fraudulenta de inteli­gen­cia arti­fi­cial.

A medida que aumen­tan las capa­ci­da­des de las herra­mien­tas de inteli­gen­cia arti­fi­cial gene­ra­tiva, a los esta­fa­do­res les resulta más fácil y barato crear voces falsas, aunque convin­cen­tes. Estos clones de voz de IA se entre­nan con clips de audio exis­ten­tes de habla humana y pueden ajus­tarse para imitar a casi cual­quier persona. Los modelos más recien­tes pueden incluso hablar en varios idio­mas. OpenAI, la crea­dora de ChatGPT, anun­ció recien­te­mente un nuevo modelo de texto a voz que podría mejorar aún más la clona­ción de voz y hacerla más acce­sible.

 

Por supuesto, los delin­cuen­tes están utilizando estas herra­mien­tas de clona­ción de IA para enga­ñar a las vícti­mas hacién­do­les creer que están hablando por teléfono con un ser querido, aunque estén hablando con una máquina. Aunque la amenaza de las esta­fas con base en IA puede ser aterra­dora, puedes mante­nerte a salvo teniendo en cuenta estos consejos de exper­tos la próxima vez que recibas una llamada urgente e ines­pe­rada.

Recuerda que el audio de IA es difí­cil de detec­tar

No se trata sola­mente de OpenAI; muchas star­tups tecno­lógi­cas están trabajando en repli­car el habla humana con un sonido casi perfecto, y el progreso reciente es rápido. «Si hubiera sido hace unos meses, te habría­mos dado consejos sobre qué buscar, como pausas extra­ñas o mostrar algún tipo de laten­cia», aclara Ben Colman, cofun­da­dor y CEO de Reality Defen­der. Al igual que muchos aspec­tos de la IA gene­ra­tiva en el último año, la IA de audio es ahora una imita­ción más convin­cente de la reali­dad. Cual­quier estra­te­gia de seguri­dad que dependa de que tú detec­tes auditi­va­mente rarezas a través del teléfono, está obso­leta.

Cuelga y vuelve a llamar

Los exper­tos en seguri­dad advier­ten de que es bastante fácil para los esta­fa­do­res hacer que parezca que la llamada proviene de un número de teléfono legítimo. «Muchas veces los esta­fa­do­res falsifi­can el número desde el que te llaman, hacen que parezca que te llaman de esa agen­cia guber­na­men­tal o del banco», explica Michael Jabbara, jefe global de servi­cios de fraude de Visa. «Hay que ser proac­ti­vos». Ya sea de tu banco o de un ser querido, cada vez que recibas una llamada en la que te pidan dinero o infor­ma­ción perso­nal, diles que devol­ve­rás la llamada. Busca el número en inter­net o en tus contac­tos e inicia una conver­sación de segui­miento. También puedes inten­tar enviar­les un mensaje a través de una línea de comu­ni­ca­ción dife­rente y verifi­cada, como video­chat o correo elec­tró­nico.

Crea una pala­bra secreta de seguri­dad

Un consejo de seguri­dad muy popular que sugi­rie­ron varias fuen­tes fue crear una pala­bra de seguri­dad que sola­mente tú y tus seres queri­dos conoz­can y que puedan pedir por teléfono: «Puedes incluso prene­gociar con tus seres queri­dos una pala­bra o una frase que puedan utilizar para demos­trar quié­nes son real­mente, si se encuen­tran en una situa­ción de coac­ción», indica Steve Grob­man, direc­tor de tecno­logía de McAfee. Aunque lo mejor es devol­ver la llamada o verifi­carla por otro medio de comu­ni­ca­ción, una pala­bra de seguri­dad puede ser espe­cial­mente útil para los parien­tes más jóve­nes o ancia­nos con los que sea difí­cil ponerse en contacto de otro modo.

O simple­mente pregún­ta­les qué han cenado

¿Y si no tienes una pala­bra de seguri­dad decidida y estás inten­tando averiguar si una llamada angus­tiosa es real? Para un segundo y haz una pregunta perso­nal. «Puede ser tan senci­llo como hacer una pregunta que sola­mente tu ser querido sabría respon­der», apunta Grob­man, “Podría ser: ‘Oye, quiero asegurarme de que eres tú de verdad’. Asegúrate de que la pregunta es lo sufi­cien­te­mente espe­cífica como para que un esta­fa­dor no pueda respon­der correc­ta­mente con una supo­si­ción.

Entiende que cual­quier voz puede ser imitada

Los clones de audio deepfake no solo están reser­va­dos a famo­sos y políti­cos, como las llama­das en New Hamp­shire que utiliza­ron herra­mien­tas de IA para sonar como Joe Biden y disua­dir a la gente de acudir a las urnas. «Un malen­ten­dido es: ‘A mí no me puede pasar. Nadie puede clonar mi voz’», sostiene Rahul Sood, direc­tor de producto de Pindrop, una empresa de seguri­dad que descu­brió el proba­ble origen del audio de Biden. «De lo que la gente no se da cuenta es de que con tan solo cinco o diez segun­dos de tu voz, en un TikTok que hayas podido crear o en un video de YouTube de tu vida profe­sio­nal, ese conte­nido puede utilizarse fácil­mente para crear tu clon» Utilizando herra­mien­tas de IA, el mensaje de voz saliente de tu smar­tphone podría incluso bastar para repli­car tu voz.

No cedas a apela­cio­nes emocio­na­les

Ya se trate de una estafa de carni­ce­ría de cerdos o de una llamada telefó­nica con IA, los esta­fa­do­res expe­ri­men­ta­dos son capa­ces de ganarse tu confianza, crear una sensación de urgen­cia y encon­trar tus puntos débi­les. «Descon­fía de cual­quier compromiso en el que expe­ri­men­tes un elevado sentido de la emoción, porque los mejores esta­fa­do­res no son nece­sa­ria­mente los hackers técni­cos más hábi­les», aclara Jabbara. "Si te tomas un momento para refle­xio­nar sobre una situa­ción y te abstie­nes de actuar por impulso, ese puede ser el momento en que evites que te esta­fen.

 

Artículo publi­cado origi­nal­mente en WIRED. Adap­tado por Mauri­cio Serfa­tty Godoy.

Fotoi­lus­tra­ción: WIRED STAFF; GETTY IMAGES