
Ciberdelitos con uso de Inteligencia Artificial van en aumento
Va en aumento la cifra de extorsiones con el uso de inteligencia artificial, informó la presidenta del Clúster de Innovación y Tecnología, Nallely Talamantes, quien lamentó que las nuevas herramientas se estén utilizando para cometer fraudes.
“Se están elevando. Ya ahorita, con el uso de la inteligencia artificial, la tecnología se usa para bien, como también se usa para un fin malo. Sin embargo, pues, invitar a la sociedad a que desarrollemos estas habilidades de prevención porque podemos usar la tecnología también para prevenir”, indicó.
Y es que, aunque no precisó una cifra, dijo que es muy notorio el aumento de delitos con el uso de la IA.
“Del año pasado a este año, para no mentirles en cuanto a porcentaje, sí se ha incrementado bastante, sobre todo porque ya ahorita muchas aplicaciones y muchos sistemas utilizan la inteligencia artificial”, indicó.
Principalmente, se cometen delitos utilizando imágenes manipuladas con Inteligencia Artificial, voz clonada y, sobre todo, robos de identidad y de datos de las personas. Estos ilícitos se cometen sobre todo a través de redes sociales.
“Definitivamente, ahorita es en WhatsApp, ahorita es lo que más, pero es el que tiene también muchas medidas de seguridad que se pueden utilizar. Entonces, hay que checar, no le tengan miedo a la tecnología, la misma aplicación les da algunas referencias para también ustedes estar utilizando estas herramientas con seguridad”.
“Yo creo que Facebook también es una de las plataformas que tienen un poquito de hackeos con el uso de la inteligencia artificial; la utilizan para eso, pero ya ahorita muchas de la personas ya los hemos detectado, sabemos detectar cuando viene una voz sacada por la IA, una imagen sacada por la IA. Creo que ya estamos desarrollando ese tipo de habilidades”, consideró.
Por lo que dijo, se exhorta de manera constante a la ciudadanía y a los empresarios a acudir al Clúster para que se les brinde información y las medidas de prevención que se pueden implementar.