FraudGPT el hermano maligno de ChatGPT

FraudGPT, el lado oscuro de ChatGPT y otras amenazas de la IA

Se le conoce en la dark web y puede escribir mensajes en nombre de un banco, crear malware avanzado o mostrar sitios web fácilmente engañables. Hablamos de FraudGPT, el hermano maligno de ChatGPT. Otras herramientas como WormGPT también prometen facilitar el trabajo a los ciberdelincuentes. La IA generativa se usa, una vez más, con fines maliciosos: puede generar estafas sofisticadas, crear pornografía no consentida, campañas de desinformación e incluso armas bioquímicas.

Ejemplo de ello lo hemos visto recientemente: elaboración de campañas de phishing cada vez más perfeccionadas —sin faltas de ortografía, bien segmentadas y dirigidas— o la creación de deepfakes: vídeos manipulados con IA para cambiar o sustituir la cara, el cuerpo o la voz de una persona.

Atrás quedaron los días en los que se aconsejaba a los usuarios buscar errores gramaticales, de contexto y de sintaxis obvios para detectar correos maliciosos. Además, pueden crear fácilmente correos electrónicos en muchos idiomas.

Este tipo de técnicas aún distan mucho de estar generalizadas, pero es fácil adivinar que pueden suponer un serio problema de cara al futuro. Con la ayuda de la ayuda de FraudGPT, el hermano maligno de ChatGPT, ciberdelincuentes sin apenas conocimientos técnicos pueden elaborar campañas maliciosas con una probabilidad de éxito considerable, lo que para ciudadanos y empresas supondrá tener que soportar un número de amenazas aún mayor.

El uso de FraudGPT, hermano maligno de ChatGPT, para generar audio, imágenes y vídeos

La inteligencia artificial generativa también se usa para realizar campañas con imágenes modificadas, sintetizar audio e incluso vídeos. Se ha clonado el audio de presentadores de televisión o personalidades importantes. Estos deepfakes se usan principalmente, a día de hoy, para publicitar inversiones en criptomonedas que suelen terminar con la pérdida del dinero invertido.

Pornografía y armas bioquímicas

Es verdaderamente “alarmante” el uso de IA generativa para crear pornografía no consentida. Esta forma de abuso se dirige casi exclusivamente a las mujeres, provocándoles graves daños personales y profesionales. Hace unos meses, menores de Extremadura denunciaron que circulaban fotos de falsos desnudos suyos creadas por inteligencia artificial. Algunos personajes famosos, como Rosalía o Laura Escanes han sufrido ataques similares.

A su vez, han creado imágenes falsas que retratan a inmigrantes amenazantes, para influir negativamente en la opinión pública y en los resultados electorales. Tambien se han creado campañas de desinformación a gran escala: tras los incendios forestales que arrasaron la isla de Maui en agosto, algunas publicaciones informaban que habían sido causados por un “arma climática” secreta probada por Estados Unidos. Se descubrió despues que detrás de estos mensajes se encontraba una campaña liderada por China e incluían imágenes seguramente creadas con inteligencia artificial, según The New York Times.

Para más controversia, un artículo publicado en Nature Machine Intelligence dice que los modelos avanzados de IA podrían ayudar en la creación de armas bioquímicas, lo que supondría un serio peligro para el mundo actual. Estas amenazas son difíciles de predecir y contrarrestar con las leyes y regulaciones existentes.

Fuente: bit.ly/48HNMmS

Related posts

Hackeo a Hacienda

Hackeo a Hacienda: millones de datos de contribuyentes en peligro

El pasado 1 de diciembre, Trinity anunció poseer millones de datos de contribuyentes de la Agencia Tributaria (AEAT). Gracias a este secuestro de estos datos, reclaman al Estado el pago de 38 millones de dólares antes del 31 de diciembre de este año, si no quiere que hagan pública toda esta información. Hacienda no es consciente aún de tal hackeo.

Leer más