“Deepfake”. El Foro Económico Mundial resalta sus peligros y posibles soluciones

Un deepfake es un video, una imagen o un audio generado que imita la apariencia y el sonido de una persona. También llamados «medios sintéticos», son tan convincentes a la hora de imitar lo real que pueden engañar tanto a las personas como a los algoritmos.

Los deepfakes son generados por la IA en directo, y sus formas más comunes de aplicación son en videos o como filtros de realidad aumentada.

De acuerdo con el Foro Económico Mundial, en 2022, el 66% de los profesionales de la ciberseguridad experimentaron ataques deepfake dentro de sus respectivas organizaciones. Un ejemplo de delito de deepfake incluye la creación de mensajes de audio falsos de los CEO u otros altos ejecutivos de empresas, utilizando software de alteración de voz para hacerse pasar por ellos. Estos mensajes de audio manipulados suelen contener peticiones urgentes para que el destinatario transfiera dinero o revele información sensible.

La investigación muestra que el sector bancario está particularmente preocupado por los ataques deepfake, con un 92% de ciberprofesionales preocupados por su uso fraudulento. Los servicios, como la banca personal y los pagos, suscitan especial aprensión, y esta preocupación no es infundada. Por ejemplo, en 2021, un director de banco fue engañado para que transfiriera 35 millones de dólares a una cuenta fraudulenta.

El elevado costo de los deepfakes también se deja sentir en otros sectores. El año pasado, el 26% de las pequeñas y el 38% de las grandes empresas sufrieron fraudes de deepfake que les ocasionaron pérdidas de hasta 480 000 dólares.

Los deepfakes también pueden socavar los resultados electorales, la estabilidad social e incluso la seguridad nacional, sobre todo en el contexto de las campañas de desinformación. En algunos casos, los deepfakes se han utilizado para manipular a la opinión pública o difundir noticias falsas que generan desconfianza y confusión entre el público.

Para hacer frente a estas amenazas emergentes, debemos seguir desarrollando y mejorando las tecnologías de detección de deepfakes. Esto puede implicar el uso de algoritmos más sofisticados, así como el desarrollo de nuevos métodos que puedan identificar deepfakes basándose en su contexto, metadatos u otros factores.”

Otra posible solución es promover la alfabetización mediática y el pensamiento crítico. Educando al público sobre los peligros de las deepfakes y sobre cómo detectarlas, podemos reducir el impacto de estas campañas maliciosas. La incorporación de un marco de confianza digital en el uso cotidiano puede ayudar a tranquilizar a las personas en cuanto a que las tecnologías y servicios digitales -y las organizaciones que los proporcionan- protegerán los intereses de todas las partes interesadas y mantendrán las expectativas y valores de la sociedad.”

Por último, debemos considerar las implicaciones éticas de la IA y la tecnología deepfake. Los gobiernos y los organismos reguladores pueden desempeñar un papel importante en la elaboración de políticas que regulen la tecnología deepfake y promuevan un desarrollo y un uso de la tecnología transparentes, responsables y que rindan cuentas. De este modo, podemos garantizar que la IA no cause daños.

En conclusión, la tecnología deepfake es una amenaza creciente, sobre todo en manos de los ciberdelincuentes. Con el auge de la IA, los riesgos que plantean los deepfakes son cada vez más significativos. Sin embargo, con el desarrollo de nuevas tecnologías de detección y un enfoque continuo en la educación y las consideraciones éticas, podemos trabajar juntos para mitigar estos riesgos y garantizar que la tecnología deepfake se utilice para un bien mayor.

Fuente: Foro Económico Mundial

Login

Welcome! Login in to your account

Remember me Lost your password?

Lost Password