Opinión del experto: Deepfake

25.05.2021

Volver

Por Alexey Drozd, jefe del Departamento de Seguridad de la Información de SearchInform


Los expertos de la firma Secure Anchor descubrieron que de enero a abril de 2021, el número de incidentes con la copia de los voces de los ejecutivos para ataques a las empresas aumentó en un 60%.

Bajo la apariencia de sus superiores, los estafadores convencen a los empleados para que transfieran dinero a sus cuentas.

Para simular la falsificación, los hackers utilizan grabaciones públicas de los discursos de sus víctimas: redes sociales, podcasts, comentarios de radio, discursos en conferencias, etc.

La inteligencia artificial analiza una grabación de voz de 45 minutos, sintetiza una copia y luego reproduce cualquier texto. 

¿Así que en la zona de riesgo todos los que han hablado en público alguna vez?

Yo (incluso como una persona que actúa bajo el registro) no comparto este pánico.

Primero, echemos un vistazo a las estadísticas.

Sin conocimiento del número real de incidentes, una cifra impresionante de 60% es solo un acto de la prensa ruidoso. 

En segundo lugar, la tecnología de ataque en sí está lejos de ser perfecta.

Sí, deepfake se está desarrollando activamente.

Pero más bien en la parte de las falsificaciones de video – es más fácil que copiar auténticamente la voz de otra persona.

Si en el primer caso es suficiente a controlar la calidad de la imagen, entonces con el audio se debe tener en cuenta más parámetros.

La inteligencia artificial puede permitir errores en la reproducción del tempo, el timbre, la altura de la voz copiada y en las características individuales del habla (tos, pausa, palabras-parásitos, acento, etc.).

Admito que se puede sintetizar una voz similar a la original y hacer que lea "de la hoja" de manera realista (text2speech). Esto ya se utiliza por numerosos robots telefónicos y los asistentes de voz.

Otra cosa es generar una falsificación "en vivo" para reemplazar auténticamente la voz del hablante con la de otra persona.

Dicen que la Startup Respeecher, basada en la tecnología speech-to-speech, puede hacerlo, pero no tomo declaraciones de marketing sin prueba (si alguien ya ha probado y está listo para compartir la experiencia, estaré encantado de escuchar).

Finalmente, el ataque requiere preparación espinosa.

Los estafadores deben estudiar de antemano no solo la forma de hablar de la persona cuya voz quieren robar, sino también sus hábitos, relaciones con colegas, horarios, sutilezas de los procesos comerciales en la empresa a la que se dirige el ataque.

Todo esto requiere esfuerzo, tiempo y dinero, mientras que el riesgo de fracaso sigue siendo alto. El juego solo vale la pena si la empresa es grande y el supervisor es una persona pública.

Por lo tanto, la pregunta de si los ataques de copia de voz se volverán masivos sigue abierta.

Creo que otra amenaza de utilizar la tecnología para chantajear es más relevante.

Por ejemplo, amenazar con publicar una falsificación de un dicho descuidado que puede comprometer a la víctima. Y si en el caso de un chantaje con una foto o video falso se puede realizar un examen, entonces con una grabación de voz falsa, todo será más difícil.

Es importante entender que estos ataques se basan en reglas generales de ingeniería social. Los estafadores buscan tomar a la víctima por sorpresa, intimidar y confundir.

Por lo tanto, solo puede protegerse manteniendo la cabeza fría.

En esto ayudarán los protocolos y reglas que rigen la interacción entre los empleados y limitan las transferencias de dinero de las cuentas corporativas.

En el caso de la falsificación de la voz, puede usar palabras de código, p.e. códigos diarios desechables o preguntas secretas (si vale la pena molestarse depende de lo que está en juego).

Los estafadores pueden copiar la voz, pero no responderán preguntas difíciles. 
 

Suscríbase para recibir las novedades y conocer las tendencias del sector. Recibirá consejos sobre como afrontar las fugas de los datos y a los ciberdelincuentes.