El auge de la Inteligencia Artificial se ha convertido en tema de conversación sobre el uso y dominio de ella. Por un lado, la IA se ha vuelto una aliada en el desarrollo y optimización de diversas industrias, pero por otro lado en algunos recursos alimentados por la IA como ChatGPT, los ciberdelincuentes se han aprovechado del avance tecnológico para darle un mal uso. ChatGPT, es un modelo de lenguaje de Inteligencia Artificial que ha revolucionado la forma de interactuar con la tecnología. Desde su lanzamiento se ha convertido en la innovación más comentada y logró obtener en sólo cinco días un millón de usuarios. Conforme se ha expandido el interés por usar y conocer su funcionamiento, se ha descubierto que los defraudadores lo están utilizando para perfeccionar el fraude. Conoce algunos ejemplos de cómo pueden utilizar ChatGPT como una herramienta para el fraude.
¿Qué es ChatGPT?
ChatGPT es un prototipo de chatbot de Inteligencia Artificial especializado en el diálogo, desarrollado por la empresa OpenAI en 2022. Este chatbot está entrenado para mantener conversaciones e interactuar con humanos de forma natural, con la capacidad de responder preguntas y realizar tareas. ChatGPT está basado en el modelo de lenguaje GPT-3 de OpenAI, considerado el mayor modelo lingüístico creado actualmente. Las estadísticas de ChatGPT indican que tiene 175 millones de parámetros y atiende alrededor de 10 millones de consultas al día. Su desarrolladora, la empresa OpenAI, se encuentra entre las plataformas de aprendizaje automático más financiadas del mundo, según datos de Statista.
Este chatbot destaca por la capacidad que tiene para entender el contexto de las preguntas y producir respuestas adecuadas a cada situación. Además de redactar textos muy realistas a gran velocidad, lo que la convierte en una herramienta adaptable y flexible, sin embargo, como cualquier tecnología, puede ser mal utilizada.
ChatGPT: ¿herramienta para el fraude?
ChatGPT se está volviendo parte de la vida cotidiana de las personas, al ayudarles a simplificar tareas, pero ¿podría convertirse en una amenaza en manos equivocadas? Como con toda tecnología novedosa, existen desafíos e incertidumbre acerca de su uso. Una encuesta realizada por Blackberry con expertos en tecnologías muestra algunas de sus preocupaciones sobre el uso que se le podría dar para vulnerar la ciberseguridad. Aquí algunos de los resultados:
- 74% de los encuestados cree que el mal uso de ChatGPT puede ser una amenaza para la seguridad cibernética
- 53% de los encuestados piensa que ChatGPT puede ayudar a los defraudadores a crear correos electrónicos de phishing más realistas.
- 49% de las personas encuestadas considera que ChatGPT se utilizará para difundir fake news y generar desinformación.
El panorama de ChatGPT frente al fraude cibernético aún es incierto, sin embargo parece haber un consenso sobre el riesgo que puede generar al ser mal utilizada y al convertirse en una herramienta para difundir información falsa, realizar phishing, propagar malware y realizar ciberataques más elaborados. Es importante ser conscientes sobre estos riesgos y tomar medidas que protejan su negocio del fraude impulsado por recursos tecnológicos como ChatGPT. A continuación te presentamos algunos de los usos que se le podrían dar al chatbot para contribuir al fraude en línea.
Ataques de phishing con ChatGPT
ChatGPT tiene la capacidad de redactar textos que se adapten al contexto que busquen los usuarios. Los defraudadores pueden aprovecharse de su capacidad para generar ataques más elaborados de ingeniería social. El phishing podía detectarse por los errores gramaticales y ortográficos, pero actualmente los defraudadores pueden utilizar la herramienta para lograr contenidos más realistas, personalizados y persuasivos a fin de obtener los datos y la información de sus posibles víctimas de fraude.
Fake news elaboradas con ChatGPT
Vivimos en una era en donde las noticias falsas, las famosas fake news, abundan. Actualmente 71% de la población a nivel global ha consumido fake news y un 76% de la población está preocupada por el mal uso de la información falsa. A pesar de la lucha por evitar la desinformación, con el auge de ChatGPT la herramienta podría utilizarse para generar textos con rumores, noticias falsas o información errónea, que en caso de ser difundidos podrían provocar consecuencias graves de desinformación. Esto vuelve más desafiante diferenciar entre noticias falsas y auténticas y aumenta el riesgo para los usuarios de ser víctimas de estafas al creer en información errónea.
Desarrollo de malware a través de ChatGPT
ChatGPT también sirve como una herramienta para la generación de códigos en diversos lenguajes de programación. Ha mejorado códigos que resuelven problemas a beneficio de personas y empresas, sin embargo, los defraudadores también podrían utilizar este beneficio para obtener mejores códigos que se utilicen con fines maliciosos para acceder a la información personal y financiera de sus víctimas de forma más eficiente. A pesar de los esfuerzos de ChatGPT en advertir de los riesgos o indicar que la información puede estar atentando contra las políticas del servicio, en muchas ocasiones los defraudadores son capaces de lograr obtener los códigos.
¿Cómo proteger tu negocio ante el fraude con tecnologías como ChatGPT?
El uso de tecnología por los defraudadores no es ninguna novedad. Las redes de fraude son organizaciones cuyo único trabajo es cometer fraude y ganar con ello, por lo que son capaces de invertir en herramientas verdaderamente innovadoras para lograr sus objetivos.
ChatGPT ha puesto al alcance de las personas la Inteligencia Artificial y el aprendizaje automático. Al ser una herramienta de fácil acceso y útil para mejorar procesos, ChatGPT atrae la atención de los defraudadores como un instrumento más para perfeccionar los ciberataques y estafas a mayor escala. Si los defraudadores utilizan tecnología avanzada para vulnerar la información, la única forma de verdaderamente proteger negocios y sus usuarios será armarse con la misma capacidad tecnológica. ChatGPT está en constante evolución, al igual que otras herramientas utilizadas por las redes de fraude y el modus operandi de esas redes en sí. ¿Sería posible protegerse de riesgos en constante evolución con herramientas antifraude que no cuentan con la capacidad de evolucionar constantemente, basadas en reglas estáticas o revisiones manuales e información limitada?
Para evitar estos riesgos. las empresas deben contar con la protección adecuada a su rubro. En el e-commerce, el contar con una solución antifraude que también utiliza Inteligencia Artificial para generar protección marcará la diferencia.
La plataforma de Signifyd, además de utilizar IA, utiliza también Machine Learning y Big Data para reconocer la identidad detrás de cada pago y evitar que tu negocio en línea sea víctima de los defraudadores que se aprovechan del avance tecnológico para hacerlo y mejorar sus tácticas de phishing, malware, fake news y otras. Respaldada por este fuerte combo tecnológico, Signifyd es capaz de detectar indicadores de actividad fraudulenta y prevenir el fraude antes de que suceda, evitando pérdidas financieras para tu e-commerce.
Lo más importante es utilizar la tecnología a nuestro favor. Así cómo los métodos de fraude pueden innovar, los recursos de protección también lo hacen y la solución está en anticiparse al fraude. Todo evoluciona y es esencial no quedarse atrás y mantenerte al tanto de las nuevas tendencias.