25 febrero, 2023
No es un secreto que en la actualidad gigantes tecnológicos como Google y Microsoft han ingresado en la carrera por conseguir nuevos chats con Inteligencia Artificial que próximamente llegarán al público y además, esperan que estos se popularicen tanto o más que sus buscadores.
Ahora bien, con estas tecnologías también llegan nuevos riesgos para la ciberseguridad; como el hecho de que sean usados para crear estafas o construir programas malignos con el fin de hacer ciberataques.
Dichos problemas también se evidencian en chatbots como ChatGPT, creado por OpenAI, tecnología que actualmente también potencia Bing, el buscador de Microsotf
Según indicó Satnam Narang, ingeniero de investigación en la firma de ciberseguridad Tenable, a la agencia EFE, los estafadores podrían ser uno de los mayores beneficiados con este tipo de tecnología.
Cabe destacar que los chatbots permiten crear textos en cualquier idioma en cuestión de segundos y con una gramática perfecta. De acuerdo con Narang, una de las formas para identificar a estos estafadores es por medio de las faltas gramaticales que cometen en los mensajes que envían a sus víctimas y que, al usar Inteligencia Artificial, podrían pasar desapercibidos.
“ChatGPT puede ayudar (a los estafadores) a crear plantillas muy bien diseñadas para correos electrónicos o crear perfiles de citas cuando intentan estafar a los usuarios en aplicaciones de citas. Y cuando tengan una conversación (con la víctima) en tiempo real, los estafadores pueden pedirle a ChatGPT que les ayude a generar la respuesta que daría la persona por la que se intentan hacer pasar”, puntualizó.
Asimismo, el experto señala que existen otros tipos de herramientas de Inteligencia Artificial, como DALL·E 2, también de OpenAI, en la que los estafadores pueden crear fotografías de personas que no existen.
Le recomendamos Leer: Así es cómo funciona ChatGPT, la Inteligencia Artificial que se está tomando las redes sociales
Según indican los expertos, otra de las particularidades de ChatGPT, es que puede ayudar a piratas informáticos a crear programas malignos.
“Este ‘malware’ no va a ser el más sofisticado ni el mejor diseñado, pero les da una comprensión básica de cómo pueden escribir softwares maliciosos basados en lenguajes específicos. Así que les da una ventaja en su proceso, ya que hasta ahora quien quisiera desarrollar softwares maliciosos tenía que aprender a programar, pero ahora el ChatGPT puede ayudarlos a acortar ese tiempo”, indica Narang.
Pese a que los chatbots de OpenAI, Bong de Microsoft y Bard de Google están diseñados para evitar pronunciamientos relacionados con temas delicados, como el racismo o la seguridad e incluso respuestas que puedan considerarse como ofensivas, Narang explicó a EFE que existe una versión “jailbreak”, es decir, liberada o modificada de ChatGPT llamada DAN, siglas de “Do Anything Now” (haz cualquier cosa) en la que no hay este tipo de barreras.
“Esto es más preocupante, porque ahora (un usuario) podría pedirle al ChatGPT (sin límites) que lo ayude a escribir ransomware (programa que toma el control del sistema o dispositivo que infecta y pide un rescate para devolver el control a su dueño). Aunque aún no se sabe lo eficaz que podría llegar a ser ese ransomware”, indicó el experto.
En este sentido, Satnam Narang ve difícil que se puedan implementar reglas a nivel nacional o institucional para poner límites a estas nuevas tecnologías o evitar que la gente haga uso de ellas.
“Una vez que abres la caja de Pandora, no puedes volver a meter nada dentro. ChatGPT ya está aquí, y no va a desaparecer. Porque fuera de este uso malicioso hay muchos casos de usos genuinos que son valiosos para empresas, organizaciones e individuos”, concluyó Narang.
Con información de EFE