Estás leyendo
Cómo la imitación de voz creada por IA casi contribuye a un secuestro en Arizona

Cómo la imitación de voz creada por IA casi contribuye a un secuestro en Arizona

Foto: Karl-Josef Hildenbrand/picture alliance vía Getty Images

En Arizona, una mujer alarmó sobre una llamada que recibió en la que se imitaba la voz de su hija para simular un secuestro

Distinguir lo verdadero de lo falso es una de las grandes preocupaciones de algunos de los referentes de la petición para detener por algunos meses el avance de la IA, como sucede con el escritor Yuval Noah Harari, que hace unos días declaró a The Telegraph que esta nueva tecnología cambiará la Humanidad para siempre.

Así como se pueden imitar imágenes a través de softwares de IA y producir deepfakes, también es posible imitar la voz de cualquier persona del mundo dando solo una muestra, mientras el resto de la tarea la lleva a cabo la máquina con una perfección matemática. Es la utilidad que aprovecharon unos delincuentes en Arizona para llamar a Jennifer DeStefano y simular el secuestro de su hija de 15 años, informa el medio estadounidense NBC.

El drama empezó cuando la madre recibió una llamada de un número desconocido, otra herramienta a la que cualquiera puede acceder. Pero Briana se encontraba esquiando y no secuestrada, como afirmaban los autores del fraude, lo que sin embargo no fue un impedimento para intentar realizar la estafa, finalmente frustrada. De forma que con esta treta, simularon una llamada en la que la adolescente lloraba mientras se disculpaba de su madre. Mientras se le ordenaba que se recostara, se la escuchaba gritar clamando por socorro. Luego, la madre escuchó la voz de un hombre que la increpaba: “Escúchame bien. Tengo a tu hija. Así es como va a ser. Si llamas a la policía, la voy a drogar. Haré lo que me plazca y la llevaré a México”.

La mujer decidió llamar a su pareja, que estaba con Briana, mientras amigas que la acompañaban hacían lo propio con la policía, luego de lo cual se confirmó que su hija se encontraba sana y salva. El rescate exigido por los delincuentes era de un millón de dólares, los que rebajaron a solo 50 000, cifra que tampoco no pudieron obtener debido al trabajo de la institución.

“Nunca dudé de que era ella”, aclaró. “Era su voz, completamente. Era su inflexión. Era la forma en la que habría llorado”, afirmó Arizona’s Family al acusar a los implicados, que no pudieron ser identificados. El FBI contó al mismo medio que lo más recomendable es tener cierto criterio de privacidad en las redes, ya que las cuentas públicas son susceptibles de ser utilizadas para estos fines.

Leer también

En el país, las estafas por medio de llamadas de este estilo son muy frecuentes y una de las más comunes, como también ocurre en Chile. Solo en 2022, según la Comisión Federal de Comercio de los Estados Unidos, se crearon más de 36 000 informes denunciando este tipo de crímenes.

Este es uno de los muchos casos que evidencian como esta tecnología en auge es, además de una ventaja para áreas como la salud (LINK A APP CIGARROS), una desventaja cuando se trata de clonar la voz de cualquier persona de la que se puedan tener registros de audio, por ejemplo.

View Comment (1)

Leave a Reply

Your email address will not be published.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba