El ‘deepfake’ plantea riesgos a las empresas y ya preocupa al 74% de responsables de TI

El ‘deepfake’, o la creación y difusión de contenidos sintéticos generados mediante la tecnología, es un fenómeno reciente pero sus posibles efectos ya preocupan a las empresas, como manifiestan el 74 por ciento de los responsables de TI, según una encuesta de Tessian.

En los últimos años se han popularizado las tecnologías de ‘deepfake’, que permiten modificar el aspecto o la voz de personas en imágenes o vídeos, lo que puede hacer parecer que han hecho o dicho cosas fuera de la realidad.

Esta técnica se ha utilizado con éxito recientemente en la publicidad, como es el caso del anuncio de Cruzcampo protagonizado por la fallecida Lola Flores, pero más allá de esto, sus efectos también plantean riesgos para las empresas, como ha alertado la consultora tecnológica Entelgy.

“Los ‘deepfakes’ son una muestra más de que la ciberseguridad y la protección de tus datos en un entorno como Internet son cada vez más necesarias. Nunca sabemos por dónde puede llegar el peligro”, ha afirmado el director de Estrategia de Entelgy Innotec Security, Enrique Domínguez.

- Publicidad-

“Por eso, debemos tener cuidado con el contenido que recibimos y sospechar ante cualquier actitud extraña u orden contradictoria que recibamos y sin que podamos confirmar la identidad del emisor”, ha reclamado Domínguez.

LOS RIESGOS DEL ‘DEEPFAKE’ PARA LAS EMPRESAS

Entelgy quiere alertar a las empresas sobre los potenciales efectos nocivos de los ‘deepfakes’ y ha recopilado los problemas y dificultades principales que puede acarrear esta tecnología.

El primer y principal riesgo es la suplantación de identidad y las estafas. Los ciberdelincuentes pueden utilizar los ‘deepfakes’ para atacar a las organizaciones y estafarlas a través de la suplantación de la voz de personas con cierta autoridad dentro las mismas, como el CEO u otros cargos dentro de la compañía.

Además, pueden crear vídeos con la imagen de cualquiera de esos perfiles para ponerse en contacto con los empleados directamente y solicitarles, a través del teléfono o videollamadas, que realicen transferencias bancarias, que faciliten ciertos datos o que lleven a cabo ciertas operaciones comprometidas.

Es el caso de una empresa de Reino Unido que en 2019 sufrió el ataque de unos ciberdelincuentes que utilizaron un ‘software’ basado en IA para replicar la voz del CEO de la compañía exigiendo la transferencia fraudulenta de 243.000 dólares al jefe de la filial inglesa.

Otro posible efecto negativo son los daños de la reputación corporativa interna y externa. Los ‘deepfakes’ pueden servir a los ciberdelincuentes para la difamación de una empresa con el objetivo de dañar su reputación.

En estos casos, los atacantes crean ‘deepfakes’ en los que los ejecutivos hablan de su propia organización y anuncian, por ejemplo, la insolvencia de la compañía, o con amenazas de enviar material comprometido a los medios de comunicación o publicarlo en redes sociales. Internamente, esto puede generar desconfianza entre los trabajadores provocando una gran incertidumbre y llevarles a tener que cuestionarse la veracidad de todo.

Hasta ahora, se ha observado la incapacidad de algunos de los sistemas de ciberseguridad existentes en lo que se refiere a los ‘deepfakes’.

A medida que las falsificaciones se vuelven más sofisticadas y difíciles de detectar, estas pueden ser capaces de superar cualquier barrera de seguridad existente, por lo que las empresas pueden verse obligadas a revisar sus protocolos para garantizar sus procesos contra el fraude digital.

Además, se incrementa la necesidad de proteger los datos personales de la plantilla para evitar falsificaciones que pongan en riesgo la seguridad. Las ‘deepfakes’ pueden imitar datos biométricos y potencialmente pueden engañar a los sistemas que dependen del reconocimiento de rostro o voz.

Entelgy ha hecho énfasis también en la ausencia de regulación, ya que hoy en día no existe ninguna ley que regule los ‘deepfakes’. Las autoridades sólo pueden catalogar el tipo de delito en el que se esté incurriendo a través de esta tecnología, como por ejemplo el de estafa, suplantación de identidad, injurias, calumnias o integridad moral.

Según datos de la consultora Gartner en 2023, el 20 por ciento de los ataques para intentar robar y hacerse con cuentas utilizarán ‘deepfakes’ como parte de estos intentos de acciones maliciosas, por lo que Entelgy ha reclamado que las autoridades tengan en cuenta el ‘deepfake’ para futuras regulaciones.

noticias relacionadas.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí