FraudGPT, el lado oscuro de ChatGPT y otras amenazas de la IA
Se le conoce en la dark web y puede escribir mensajes en nombre de un banco, crear malware avanzado o mostrar sitios web fácilmente engañables. Hablamos de FraudGPT, el hermano maligno de ChatGPT. Otras herramientas como WormGPT también prometen facilitar el trabajo a los ciberdelincuentes. La IA generativa se usa, una vez más, con fines maliciosos: puede generar estafas sofisticadas, crear pornografía no consentida, campañas de desinformación e incluso armas bioquímicas.
Ejemplo de ello lo hemos visto recientemente: elaboración de campañas de phishing cada vez más perfeccionadas —sin faltas de ortografía, bien segmentadas y dirigidas— o la creación de deepfakes: vídeos manipulados con IA para cambiar o sustituir la cara, el cuerpo o la voz de una persona.
Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos. Además, pueden crear fácilmente correos electrónicos en muchos idiomas.
Este tipo de técnicas aún distan mucho de estar generalizadas, pero es fácil adivinar que pueden suponer un serio problema de cara al futuro. Con la ayuda de la ayuda de FraudGPT, el hermano maligno de ChatGPT, ciberdelincuentes sin apenas conocimientos técnicos pueden elaborar campañas maliciosas con una probabilidad de éxito considerable, lo que para ciudadanos y empresas supondrá tener que soportar un número de amenazas aún mayor.
Fuente: bit.ly/48HNMmS