iymagazine.es
Los expertos advierten sobre los riesgos de seguridad del chatbot ChatGPT
Ampliar

Los expertos advierten sobre los riesgos de seguridad del chatbot ChatGPT

martes 14 de marzo de 2023, 11:36h
El chatbot ChatGPT, integrado en el motor de búsqueda Bing, ha alcanzado 100 millones de usuarios en solo dos meses. Aunque su comunicación amigable y lenguaje accesible lo hacen popular, los expertos en ciberseguridad advierten que su uso malintencionado podría democratizar la ciberdelincuencia y permitir la generación de noticias falsas, ataques de phishing, robo de identidad, desarrollo de malware, automatización de procesos y estafas persuasivas. Se han reportado fallos en sus controles para evitar el acceso a la interfaz de programación de aplicaciones (API) por parte de usuarios de ciertas regiones.

El chatbot ChatGPT ha sido integrado en el motor de búsqueda Bing y ha logrado una gran popularidad en todo el mundo. En solo dos meses desde su lanzamiento, ha alcanzado la impresionante cifra de 100 millones de usuarios. Este chatbot se comunica de manera amigable y utiliza un lenguaje accesible, lo que ha cambiado la forma en que los usuarios interactúan con la inteligencia artificial, haciéndola más accesible para cualquier tipo de usuario.

A pesar de la sorprendente capacidad del chatbot para escribir textos que parecen humanos, su uso malintencionado podría ser peligroso. Según el director de Investigación y Concienciación de ESET España, Josep Albors, ºsi cae en manos criminales, este chatbot podría democratizar la ciberdelincuencia. Los estafadores podrían utilizarlo para crear campañas de phishing masivas de manera automatizada y económica, lo que podría dar lugar a una nueva oleada de ataques más convincentes.

ChatGPT utiliza la familia de modelos de lenguaje GPT-3 de OpenAI, que ha sido entrenada cuidadosamente para comunicarse con los usuarios en un tono conversacional y sorprenderlos con sus respuestas naturales.

A pesar de que OpenAI ha implementado medidas para evitar el uso malintencionado de su producto, estas no siempre parecen ser efectivas o coherentes. En ChatGPT, se ha observado cómo una consulta legítima para solicitar ayuda financiera fue clasificada como estafa y denegada por la IA, mientras que otra consulta para redactar un correo electrónico falso informando sobre una lotería ganada fue aprobada. Además, se han reportado fallos en los controles diseñados para impedir el acceso a la interfaz de programación de aplicaciones (API) por parte de usuarios de ciertas regiones.

Los ciberdelincuentes han sido descubiertos usando ChatGPT con fines maliciosos en varias ocasiones, lo que es preocupante para los usuarios de Internet. Los avances en esta tecnología podrían permitir a más personas lanzar ciberataques y estafas a gran escala, incluyendo el fraude por correo electrónico comercial. De hecho, la mayoría de los expertos en ciberseguridad esperan que el uso intensivo de ChatGPT pueda llevar a un ciberataque exitoso dentro del próximo año.

El chatbot ChatGPT, como cualquier otra tecnología, puede tener riesgos en cuanto a la ciberseguridad. La empresa líder en ciberseguridad, ESET, ha identificado 6 maneras en las que el chatbot podría ser utilizado con fines maliciosos:

La generación de noticias falsas (fake news)puede ser realizada por un usuario a través de ChatGPT, utilizando su creatividad para distribuirla en Internet.

Los ataques de phishing se están volviendo más difíciles de detectar debido a que los correos electrónicos maliciosos son cada vez más personalizados y convincentes. Anteriormente, era más fácil identificarlos debido a su redacción deficiente y errores ortográficos. Sin embargo, ahora los actores maliciosos pueden utilizar herramientas sofisticadas como Chat GPT para generar correos electrónicos persuasivos y engañar a las personas para que entreguen sus credenciales.

Ataques con Robo de identidad, los delincuentes informáticos pueden hacer uso de Chat-GPT para generar fraudes que aparenten ser de una entidad confiable, como un banco o una empresa, con el fin de conseguir datos personales y financieros de las personas. Incluso podrían simular ser famosos en redes sociales.

La plataforma puede ser útil para crear desarrollos de malware, ya que permite generar código en diferentes lenguajes de programación. Sin embargo, es importante recordar que el malware es un tipo de software malicioso.

Automatización de procesos. Los cibercriminales suelen realizar un proceso de reconocimiento antes de realizar ataques dirigidos, lo cual incluye tareas repetitivas. En los últimos años han surgido herramientas que permiten acortar estos tiempos y usar inteligencia artificial.

ChatGPT tiene una API que puede ser utilizada para alimentar otros chats maliciosos. Aunque su interfaz es amigable y tiene muchos usos beneficiosos, también puede ser utilizada de manera malintencionada. Una de las formas en que se puede utilizar de manera maliciosa es para engañar a las personas y realizar estafas muy persuasivas.

Valora esta noticia
0
(0 votos)
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios