Según una investigación de la Universidad de Sheffield, se puede engañar a las herramientas de inteligencia artificial (IA), como ChatGPT, para que produzcan código malicioso, que podría utilizarse para lanzar ataques cibernéticos.
El estudio, realizado por académicos del Departamento de Ciencias de la Computación de la Universidad, es el primero en demostrar que los sistemas de texto a SQL (IA que permite a las personas buscar en bases de datos haciendo preguntas en lenguaje sencillo y que se utilizan en una amplia gama de industrias ) pueden ser explotado para atacar sistemas informáticos en el mundo real.
Los hallazgos de la investigación han revelado cómo se pueden manipular las IA para ayudar a robar información personal confidencial, alterar o destruir bases de datos o desactivar servicios mediante ataques de denegación de servicio.
Como parte del estudio, los académicos de Sheffield encontraron vulnerabilidades de seguridad en seis herramientas comerciales de IA y atacaron con éxito cada una de ellas.
Las herramientas de IA que estudiaron fueron:
BAIDU-UNIT: una plataforma de diálogo inteligente líder en China adoptada por clientes de alto perfil en muchas industrias, incluido el comercio electrónico, la banca, el periodismo, las telecomunicaciones, el automóvil y la aviación civil.
ChatGPT
AI2SQL
AIHELPERBOT
Texto2SQL
HerramientaSKE
Fuente: techplore.com
Imagina que tus datos financieros, en lugar de quedarse guardados en un solo banco, pudieran…
Alfredo Del Mazo Maza, especialista en políticas públicas, afirmó que México avanza en la modernización…
La seguridad marítima en México ya no depende únicamente de barcos patrulleros o radares tradicionales.…
El entretenimiento digital en América Latina sigue marcando récords con propuestas que conectan directamente con…
En las grandes ciudades, el tráfico es un reto diario que impacta la productividad y…
La campaña más reciente de Samsung Argentina propone una mirada distinta sobre la relación entre…