Warning: ftp_nlist() expects parameter 1 to be resource, null given in /home/customer/www/negociosoptimizados.com/public_html/wp-admin/includes/class-wp-filesystem-ftpext.php on line 438

Warning: ftp_pwd() expects parameter 1 to be resource, null given in /home/customer/www/negociosoptimizados.com/public_html/wp-admin/includes/class-wp-filesystem-ftpext.php on line 230

Warning: ftp_pwd() expects parameter 1 to be resource, null given in /home/customer/www/negociosoptimizados.com/public_html/wp-admin/includes/class-wp-filesystem-ftpext.php on line 230

Warning: ftp_nlist() expects parameter 1 to be resource, null given in /home/customer/www/negociosoptimizados.com/public_html/wp-admin/includes/class-wp-filesystem-ftpext.php on line 438

Warning: ftp_pwd() expects parameter 1 to be resource, null given in /home/customer/www/negociosoptimizados.com/public_html/wp-admin/includes/class-wp-filesystem-ftpext.php on line 230

Warning: ftp_pwd() expects parameter 1 to be resource, null given in /home/customer/www/negociosoptimizados.com/public_html/wp-admin/includes/class-wp-filesystem-ftpext.php on line 230
Chatbots de IA maliciosos, ten cuidado con este fenómeno
<--Awin verification 001-->
mayo 19, 2024

Chatbots de IA maliciosos, ten cuidado con este fenómeno

 Chatbots de IA maliciosos, ten cuidado con este fenómeno

Los chatbots de IA como ChatGPT, Copilot, y Gemini, son herramientas para facilitar tareas, pero cuídate de los que son maliciosos. Recientemente, el crecimiento de chatbots con intenciones malévolas, tales como BadGPT o FraudGPT, ha encendido las alarmas sobre el uso dual de la inteligencia artificial.

Medios de comunicación destacan la emergencia de chatbots de IA diseñados específicamente para asistir a hackers. Estas herramientas de IA, lejos de ser benignas, están siendo utilizadas para perfeccionar técnicas de phishing, crear sitios web fraudulentos, y redactar malware. Entre las tácticas más sofisticadas se encuentra el ‘spear-phishing’, que aprovecha información personal para elaborar correos electrónicos engañosamente auténticos, dificultando su detección por las víctimas.

Un estudio de la Universidad de Indiana ha descubierto más de 200 chatbots maliciosos a la venta en la dark web. Su aparición, a principios de 2023, ha marcado una evolución notable en el uso de tecnologías abiertas y modificadas para fines delictivos.

Estos chatbots, que a menudo se basan en modelos de IA de fuente abierta como Llama 2 o versiones alteradas de OpenAI y Anthropic, representan un desafío creciente para la seguridad cibernética.

Chatbots de IA: Una Herramienta de Doble Filo

Chatbots de IA, Una Herramienta de Doble Filo

TAMBIÉN TE PUEDE INTERESAR: El lado oscuro de ChatGPT: un chatbot que facilita los ciberataques

La accesibilidad de chatbots de IA fraudulentos, facilita que caigan en manos equivocadas. Mixtral, de la francesa Mistral AI por ejemplo, ha sido adaptado para superar barreras de uso, convirtiéndose en una herramienta predilecta para el phishing en la dark web. A pesar de la utilidad de estas herramientas para los ciberdelincuentes, representan también un riesgo, ya que pueden estar entrenadas con datos comprometidos, incluyendo listas de víctimas de ataques de ransomware.

Empresas líderes como Microsoft y OpenAI están conscientes del potencial malicioso de los chatbots de IA. Han observado cómo grupos delictivos en países como Rusia y Corea del Norte utilizan estas tecnologías para afinar sus ciberataques.

¿Cuáles son las amenazas para los usuarios este tipo de chatbots?

BadGPT y FraudGPT son ejemplos de cómo la inteligencia artificial puede ser utilizada para fines maliciosos, lo por lo que es de vital importancia estar alerta en todo momento para no ser una víctima más. Aquí tienes tres ejemplos de amenazas que pueden representar:

Spear-phishing: Estas herramientas pueden ayudar a los ciberdelincuentes a crear correos electrónicos de phishing altamente personalizados y convincentes, conocidos como ‘spear-phishing’, que son difíciles de detectar por las víctimas.

Venta en la dark web: Se han descubierto más de 200 chatbots maliciosos como BadGPT y FraudGPT a la venta en la dark web, lo que indica un mercado activo para estas herramientas peligrosas.

Creación de páginas web fraudulentas: FraudGPT, por ejemplo, puede ser utilizado para crear páginas web falsas que imitan a otras legítimas, lo que puede llevar a robo de información y estafas financieras.

Es importante estar al tanto a estos chatbots de IA maliciosos y tomar medidas de seguridad adecuadas para protegerse en el entorno digital.

A pesar de los riesgos, la inteligencia artificial no sólo presenta desafíos; también ofrece soluciones. Tanto Microsoft como Google han reconocido el potencial de la IA para combatir amenazas de seguridad, sugiriendo un futuro en el que la tecnología juegue un rol central en la defensa cibernética.

Aunque los chatbots malvados son una realidad inquietante, la inteligencia artificial también ofrece un rayo de esperanza. Sundar Pichai de Google ha enfatizado cómo la IA puede protegernos de manera desproporcionada de las amenazas de seguridad. Este dualismo tecnológico nos recuerda la importancia de la ética en el desarrollo y uso de la IA. Los chatbots de IA, por tanto, representan tanto un desafío como una oportunidad en nuestro esfuerzo continuo por asegurar el ciberespacio.

Leonardo Pedraza

Soy Leonardo, redactor especializado en noticias de tecnología y negocios. Te brindo insights para optimizar e impulsar tu empresa.

Quizás te interese...

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¡Prueba Nuestra Nueva Herramienta!

Suscríbete a nuestro Newsletter y desbloquea por completa nuestra herramienta de optimización de imágenes. Sube hasta 50 imágenes simultaneas para convertir, optimizar y geolocalizar con nuestra herramienta.