Así usan la inteligencia artificial para robar a través de videollamadas


  • En 2020 se registraron en Estados Unidos 791.790 denuncias por presuntos delitos en Internet.

  • Las pérdidas reportadas por ataques cibernéticos en los Estados Unidos superaron los $ 4.2 mil millones en 2020.

  • El 56 por ciento de los ciberataques se registraron en países de América Latina en los últimos años.

En el mundo conectado digitalmente en el que vivimos, el ciberdelito es cada vez más común. Debido a esto, se denuncia que los ciberdelincuentes están utilizando la inteligencia artificial como herramienta para estafar a las personas, haciéndose pasar por sus familiares o amigos a través de videollamadas.

Se definen los ciberataques Portal digital de IBMcomo intentos no deseados de robar, exponer, alterar, deshabilitar o destruir información a través del acceso no autorizado a los sistemas informáticos.

En 2020, este tipo de delitos supuso 791.790 denuncias de presuntos delitos en Internet recibidas en Estados Unidos, según el “Informe sobre delitos en Internet 2020” del FBI Crime Complaint Center. Asimismo, desde 2019 se ha registrado un incremento de más de 300.000 denuncias y pérdidas reportadas superiores a $4.200 millones.

Por otro lado, un informe de Kaspersky Lab y Mundo en Línea reveló que casi el 56 por ciento de los ciberataques se registraron en varios países de América Latina como Brasil, México y Colombia.

Así usan la inteligencia artificial para robar

Tras la implantación de la Inteligencia Artificial, también se han producido diversos robos o delitos por parte de ciberdelincuentes utilizando esta herramienta tecnológica.

Los especialistas señalan que hasta el momento la táctica más poderosa es la clonación de voz, pero ahora ha evolucionado hacia las videollamadas.

Como la historia del hombre en China a quien su esposa llamó por video en WeChat, pidiéndole alrededor de $ 3,600 porque tuvo un accidente automovilístico y tuvo que lidiar con el otro conductor.

Según una historia difundida por medios locales, la llamada se realizó desde una cuenta diferente a la cuenta original de la mujer, debido al parecido físico, el hombre de 73 años cayó en la trampa y pasó el dinero porque la persona del otro lado lado se parecía mucho al de su esposa en el habla y el tono de voz, pero en realidad era una imitación creada por IA.

Según la investigación del caso, los ciberdelincuentes observaron durante un tiempo, aprovecharon que ella tenía un canal para crear contenido sobre cocina, que es popular en China, y obtuvieron datos de allí para generar una imagen con IA en una modalidad. conocida como falsificación profunda.

Datos sobre este tipo de robo

Esta historia no es la única que ha puesto de manifiesto el problema de la inteligencia artificial en este tipo de atracos, pues The Washington Post informa que en 2022 se presentaron 36.000 denuncias en Estados Unidos de personas que fueron estafadas mediante la clonación de voz. .

Según esta investigación, las llamadas fueron el principal método de fraude porque las grabaciones de audio son un proceso fácil donde un atacante solo necesita tomar algunas oraciones de una persona para que el sistema detecte sus patrones de habla y tono de voz.

En otras partes del mundo, como China, este tipo de casos han generado preocupación, lo que llevó a las autoridades a “ser cautelosos al proporcionar información biométrica y abstenerse de compartir videos y otras imágenes”. mismos en las redes sociales. “Internet”.

En ese sentido, las autoridades también advirtieron que las estafas no solo se realizan para llamar a un familiar y pedirle dinero, sino también para tomar las caras de famosos, ya que hay un alto contenido de ellos en Internet, para crear deepfakes y promocionar productos.

Y es así como personas malintencionadas pueden hacer un mal uso cada vez de las nuevas tecnologías para causar daños a terceros.

Ahora lee:

Logística, ventas de temporada y Hot Sale: una pequeña lección al respecto

Duolingo abrirá un restaurante mexicano en EE. UU.

Primer día de trabajo: 3 paquetes de bienvenida

Source link

Deja un comentario