¿Nos está tomando la delantera la Inteligencia Artificial en diferentes escenarios como en el laboral?
¿Podrían estas tecnologías dejarnos sin trabajo o, por el contrario, mejorarlo? ¿Es posible que también acaben sustituyendo las relaciones humanas y el tan apreciado concepto del amor, tal y como lo entendíamos hasta ahora? ¿Puede ser ChatGPT el final de Google? ¿Skynet y Matrix tomarán conciencia de sí mismos y acabarán con la especie humana?
¿Qué ocurriría si personas con mala intención sumen las capacidades de distintas inteligencias artificiales para el cibercrimen, o para generar bulos e influir en la opinión pública?
A medida que se generaliza el uso de ChatGPT y otros modelos lingüísticos basados en IA, es importante tener en cuenta los riesgos potenciales que pueden suponer para la sociedad y el mercado laboral. Una de las principales preocupaciones es que estos modelos puedan automatizar determinados puestos de trabajo, provocando pérdidas de empleo y trastornos económicos. Además, preocupa que la tecnología pueda utilizarse con fines malintencionados, como difundir información errónea o suplantar la identidad de personas en línea. “Tenemos que empezar a hablar sobre la utilidad que pueden tener para el cibercrimen organizado y para la formación en malas prácticas de nuevos seguidores”,
señala Hervé Lambert, Global Consumer Operations Manager de Panda Security.
¿Qué es ChatGPT?
ChatGPT es una de las nuevas herramientas favoritas de los usuarios en Internet. Esta aplicación ha sido desarrollada por OpenAI y consiste en un potente modelo de lenguaje que ha sido entrenado con una gran cantidad de datos de texto. Su éxito viene de su capacidad para generar respuestas similares a las humanas a preguntas en lenguaje natural, lo que lo convierte en una herramienta popular para una amplia gama de aplicaciones, como chatbots, creación de contenidos y análisis de datos.
Pero… ¿Cómo funciona?
Bueno, la manera más fácil de empezar a interactuar con estas tecnologías es tener conversaciones sencillas de manera inicial.
La realidad que tu pues empezar a utilizar a tu ChatGPT, por medio de texto y si te gusta programar incluso puedes utilizar comando de voz. Imagina el siguiente caso, tienes que hacer una investigación de mercado, análisis de competencias, generación de código, resumen y estructura de información e incluso contenido especial de diseño, todo esto y mucho más, te puede ayudar el ChatGPT.
Antivirus Gratis
¿A qué ciberriesgos nos exponemos al utilizar ChatGPT?
● Mejorar el código de un virus.
Esta plataforma permite que millones de usuarios tengan respuestas automáticas y más rápidas a preguntas que ya de por sí podían buscarse en Google. “Lo que hace es facilitar la gestión del tiempo y eso, cuando se trata de un uso inadecuado, puede causar consecuencias irreversibles e importantes” .
En este caso se puede entrenar al bot para que, por ejemplo, mejore el código de un virus. “Hay que aclarar que ChatGPT no escribe un código de malware aún pidiéndoselo, ya que se han establecidos límites o, mejor dicho, protocolos de seguridad para identificar solicitudes inapropiadas”, señala Lambert.
●Desinformación generalizada
La capacidad de ChatGPT para generar respuestas similares a las humanas a preguntas de lenguaje natural puede utilizarse para difundir información errónea. Por ejemplo, un ciberdelincuente podría utilizar el modelo para generar noticias falsas o mensajes en las redes sociales diseñados para influir en la opinión pública o perturbar unas elecciones. “Cualquier espacio en la red en el que se intercambian ideas, conocimiento, etc., aumenta el riesgo de que volvamos a oír hablar de bots, filtros burbuja y mentiras que se viralizan”, apostilla el ciberexperto.
●Doxing para dañar a empresas y manipular el mercado.
En línea con el punto anterior, un mal uso de ChatGPT podría servir para llevar a cabo la difusión de noticias falsas sobre una empresa o producto. En dos vertientes diferentes: “Por un lado podría socavar la reputación e imagen digital de una empresa o personalidad pública o, por otro lado, podría utilizarse para afectar a los precios de las acciones y causar pérdidas financieras a los inversores”, comenta Lambert.
● Suplantación de identidad y engaño a menores,
personas interactúan con otros o comparten datos.
Un ciberdelincuente podría utilizar el modelo para crear un perfil falso en las redes sociales o un chatbot que parezca ser una persona real, y luego utilizarlo para llevar a cabo estafas y robo de credenciales y datos bancarios.
Escribir emails para hacer phishing.
Y no únicamente favorecería el número de ciberataques de phishing, sino que también perfeccionaría el contenido en muchos contextos, países e idiomas diferentes.
● Usar ChatGPT para crear deepfakes
Sería posible que a través de este tipo de herramientas pudiesen desarrollarse bots capaces de copiar la voz, imagen, movimientos gestuales y corporales, la forma de actuar y de hablar de una persona real. “E incluso, la forma de usar las emociones”, apunta Lambert.
“Tengamos en cuenta que buena parte de los emails, SMS y WhatsApps de phishing que recibimos son malísimas traducciones, lo que nos facilita mucho su detección.
● Suplantación de identidad a través de nuevos modelos de lenguaje por voz.
Aunque hay muchas más tecnologías, podemos poner el ejemplo de Microsoft, que ha desarrollado su enfoque de modelado de lenguaje para la síntesis de texto a voz. Se llama VALL-E y es una herramienta IA capaz de reproducir tu voz de forma casi idéntica tras solo escucharte hablar durante tres segundos. .
¿En qué otros aspectos puede afectar el mal uso de estas herramientas de IA a otras esferas?
Nos referimos al rendimiento académico. En este sentido, el ciberexperto es contundente: “Si ya teníamos mucho trabajo con toda la población global en cuanto a la educación en ciberseguridad, ahora el reto se complica todavía más.
El uso que hagamos de este tipo de herramientas puede determinar el rumbo académico de miles de escolares, y lo que es más importante, hablamos de la capacidad de superación y aprendizaje de las personas. Puesto que muchos ven Chat GPT como una solución para realizar tareas que consideraban un tedio, sin intentar poner algún esfuerzo de su parte, ¿qué legado cultural estamos dejando entonces a las nuevas generaciones?”, finaliza Hervé Lambert, Global Consumer Operations Manager de Panda Security
¿En qué otros aspectos puede afectar el mal uso de estas herramientas de IA a otras esferas?
Nos referimos al rendimiento académico. En este sentido, el ciberexperto es contundente: “Si ya teníamos mucho trabajo con toda la población global en cuanto a la educación en ciberseguridad, ahora el reto se complica todavía más. El uso que hagamos de este tipo de herramientas puede determinar el rumbo académico de miles de escolares, y lo que es más importante, hablamos de la capacidad de superación y aprendizaje de las personas. Puesto que muchos ven Chat GPT como una solución para realizar tareas que consideraban un tedio, sin intentar poner algún esfuerzo de su parte, ¿qué legado cultural estamos dejando entonces a las nuevas generaciones?”.
Fuentes.
https://www.20minutos.es/tecnologia/ciberseguridad/phishing-deepfakes-doxing-5-ciberriesgos-a-los-que-te-expones-si-usas-chatgpt-5095651/
https://www.ciberseguridadpyme.es/actualidad/riesgos-de-utilizar-chatgpt/?cn-reloaded=1
https://www.pandasecurity.com/es/mediacenter/ciberriesgos-chatgpt/