Estamos ante un boom del uso de la Inteligencia Artificial (IA), vimos una fiebre con la creación de nuestras imágenes a partir de una serie de fotografías personales, el impacto fue tal que artistas y hasta políticos crearon sus imágenes con IA.
Lo más reciente es el uso de Chat GPT, un sistema de chat basado en el modelo de lenguaje por Inteligencia Artificial GPT-3, desarrollado por la empresa OpenAI. Cuenta con más de 175 millones de parámetros y es alimentado con grandes cantidades de texto para la realización de diversas tareas de lenguaje, desde la traducción hasta la generación de texto.
Especialistas de A3Sec, empresa con presencia global dedicada a la seguridad digital, comentan que estas soluciones de IA pueden ser utilizadas en conjunto o en sustitución de los servicios de búsqueda cómo Google o Bing, y cuentan con la capacidad para entender las preguntas mediante análisis avanzado de procesamiento de lenguaje, dando respuestas basadas en un análisis de muchas fuentes de información.
Ahora bien, analizando el riesgo de ciberseguridad, todo servicio puede ser un punto de entrada a las organizaciones, el riesgo de se ha elevado notablemente en los últimos años, en los que cibercriminales utilizan a terceros para llegar a sus objetivos.
Estas herramientas están recolectando grandes cantidades de información a una gran velocidad y los aspectos de seguridad tienen que considerarse desde la información que les damos lo que compartimos y que toda esta información podría ser utilizada en nuestra contra.
Las aplicaciones de la IA son bastantes, desde la creación de imágenes, todo un texto y videos, pero ¿hasta dónde el uso de estos sistemas puede ser seguro para los usuarios, incluso para las empresas, en dónde queda la información que les proporcionamos, así como pueden crear textos de utilidad, pueden crear algo que resulte nocivo para una persona, empresa o institución?
Cuando se le preguntó a Chat GPT cómo podrían hacer los ciberdelincuentes un mal uso de esta herramienta, la respuesta fue la siguiente:
“Los ciberdelincuentes pueden hacer mal uso de Chat GPT de varias maneras, algunas de las cuales incluyen:
Generación de contenido malicioso: Chat GPT es capaz de generar texto de manera autónoma, lo que significa que los ciberdelincuentes pueden usarlo para generar contenido malicioso, como correos electrónicos de phishing o mensajes engañosos en redes sociales, que se parezcan mucho a los mensajes escritos por humanos. Estos mensajes pueden ser utilizados para engañar a las personas y robar información personal o financiera.
Ataques de ingeniería social: Los ciberdelincuentes también pueden usar Chat GPT para llevar a cabo ataques de ingeniería social. Pueden utilizar el modelo para crear perfiles falsos de redes sociales y hacer que parezcan muy realistas. Luego pueden utilizar estos perfiles para engañar a las personas para que compartan información personal o para persuadirlos a hacer clic en enlaces maliciosos.
Creación de bots maliciosos: Chat GPT también puede ser utilizado para crear bots de chat maliciosos que pueden engañar a las personas para que compartan información personal o financiera. Estos bots pueden utilizarse para difundir spam o para llevar a cabo ataques de phishing“.
Para prevenir estos tipos de amenazas, es importante emplear software de seguridad actualizado, evitar hacer clic en enlaces sospechosos o descargar archivos adjuntos de fuentes desconocidas, y estar atento a los mensajes que parecen sospechosos o poco realistas.
Los especialistas de A3Sec mencionan que el uso de IA es una gran oportunidad para mejorar nuestros resultados, pero también podría ser usada para obtener algún beneficio de manera no ética o legal. Su uso inadecuado podría traer riesgos sensibles para la organización.
Siempre existirá la oportunidad de la eficiencia en la implementación de nuevas tecnologías, los ataques ocurren cuando se utiliza con otros fines, otros medios o se aprovecha de su diseño para hacer cosas mal intencionadas o ilegales, por lo tanto, siempre puede existir la oportunidad a un ataque y siempre puede ser utilizado como una herramienta más en la vida de las personas y organizaciones.
Ante esto, las recomendaciones de la compañía especialista en ciberseguridad relacionadas con el uso de herramientas basadas en IA son:
- La mayoría de las soluciones de IA está en periodo de prueba. Tanto los desarrolladores como el público están interactuando y estamos entendiendo sus riesgos. Por el momento, la idea es emplearlo para sacarle el máximo provecho y para entender qué beneficios nos puede ofrecer esta tecnología.
- Por supuesto que muchos lo usarán para sacar partido. La ética en el uso de la tecnología debe tener prioridad. Algunas recomendaciones: no compartir datos reservados o confidenciales, por ejemplo, piezas de software.
- En este momento, muchas plataformas de este tipo fueron creadas con fines lúdicos o educativos y es importante tomar en cuenta eso para subir, compartir o manejar información, ya que existen temas de privacidad, derechos de autor y manejo que todavía no está definido.
Dos caras de la misma moneda. El uso de las plataformas basadas en la Inteligencia Artificial seguirá en desarrollo pero, como muchas de las cosas que nacen en Internet, no están del todo reguladas y lo más seguro es que dicha regulación tarde en concebirse e implementarse, por lo que el saber qué está permitido o prohibido recaerá en los desarrolladores y los usuarios.
Por el momento, la ciberseguridad personal y empresarial se enfrentarán a un nuevo reto. ¿Usted y su empresa lo tienen contemplado?