Según una investigación de la Universidad de Sheffield, se puede engañar a las herramientas de inteligencia artificial (IA), como ChatGPT, para que produzcan código malicioso, que podría utilizarse para lanzar ataques cibernéticos.
El estudio, realizado por académicos del Departamento de Ciencias de la Computación de la Universidad, es el primero en demostrar que los sistemas de texto a SQL (IA que permite a las personas buscar en bases de datos haciendo preguntas en lenguaje sencillo y que se utilizan en una amplia gama de industrias ) pueden ser explotado para atacar sistemas informáticos en el mundo real.
Los hallazgos de la investigación han revelado cómo se pueden manipular las IA para ayudar a robar información personal confidencial, alterar o destruir bases de datos o desactivar servicios mediante ataques de denegación de servicio.
Como parte del estudio, los académicos de Sheffield encontraron vulnerabilidades de seguridad en seis herramientas comerciales de IA y atacaron con éxito cada una de ellas.
Las herramientas de IA que estudiaron fueron:
BAIDU-UNIT: una plataforma de diálogo inteligente líder en China adoptada por clientes de alto perfil en muchas industrias, incluido el comercio electrónico, la banca, el periodismo, las telecomunicaciones, el automóvil y la aviación civil.
ChatGPT
AI2SQL
AIHELPERBOT
Texto2SQL
HerramientaSKE
Fuente: techplore.com
Una nueva investigación hecha por científicos de King’s College de Londres (KCL), en Reino Unido…
La Secretaría de Hacienda y Crédito Público anunció que Banco Multiva será la institución que…
Científicos del Instituto Politécnico Nacional (IPN) y de la Universidad Autónoma Metropolitana (UAM) trabajan en…
La Península de Baja California se separa de México a un ritmo de centímetros por…
México anuncia que será el anfitrión del STS Forum (Science and Technology in Society Forum)…
Según relata el medio Financial Times, Altman estaría preparándose para financiar una startup rival de…