Según una investigación de la Universidad de Sheffield, se puede engañar a las herramientas de inteligencia artificial (IA), como ChatGPT, para que produzcan código malicioso, que podría utilizarse para lanzar ataques cibernéticos.
El estudio, realizado por académicos del Departamento de Ciencias de la Computación de la Universidad, es el primero en demostrar que los sistemas de texto a SQL (IA que permite a las personas buscar en bases de datos haciendo preguntas en lenguaje sencillo y que se utilizan en una amplia gama de industrias ) pueden ser explotado para atacar sistemas informáticos en el mundo real.
Los hallazgos de la investigación han revelado cómo se pueden manipular las IA para ayudar a robar información personal confidencial, alterar o destruir bases de datos o desactivar servicios mediante ataques de denegación de servicio.
Como parte del estudio, los académicos de Sheffield encontraron vulnerabilidades de seguridad en seis herramientas comerciales de IA y atacaron con éxito cada una de ellas.
Las herramientas de IA que estudiaron fueron:
BAIDU-UNIT: una plataforma de diálogo inteligente líder en China adoptada por clientes de alto perfil en muchas industrias, incluido el comercio electrónico, la banca, el periodismo, las telecomunicaciones, el automóvil y la aviación civil.
ChatGPT
AI2SQL
AIHELPERBOT
Texto2SQL
HerramientaSKE
Fuente: techplore.com
En España, ver una serie en la tele a plena luz del día ya no…
Encontrar el amor a cualquier edad es una posibilidad muy real, pero para los adultos…
Ni siquiera las estás usando y ya te están drenando el plan. Muchas apps en…
El primer visor de realidad extendida de Samsung, el Galaxy XR, se perfila como uno…
OpenAI acaba de entrar a un nuevo terreno: los navegadores web. La empresa presentó ChatGPT…
Aunque todas las miradas apuntan al esperado iOS 18, Apple tiene un movimiento más bajo…