Según una investigación de la Universidad de Sheffield, se puede engañar a las herramientas de inteligencia artificial (IA), como ChatGPT, para que produzcan código malicioso, que podría utilizarse para lanzar ataques cibernéticos.
El estudio, realizado por académicos del Departamento de Ciencias de la Computación de la Universidad, es el primero en demostrar que los sistemas de texto a SQL (IA que permite a las personas buscar en bases de datos haciendo preguntas en lenguaje sencillo y que se utilizan en una amplia gama de industrias ) pueden ser explotado para atacar sistemas informáticos en el mundo real.
Los hallazgos de la investigación han revelado cómo se pueden manipular las IA para ayudar a robar información personal confidencial, alterar o destruir bases de datos o desactivar servicios mediante ataques de denegación de servicio.
Como parte del estudio, los académicos de Sheffield encontraron vulnerabilidades de seguridad en seis herramientas comerciales de IA y atacaron con éxito cada una de ellas.
Las herramientas de IA que estudiaron fueron:
BAIDU-UNIT: una plataforma de diálogo inteligente líder en China adoptada por clientes de alto perfil en muchas industrias, incluido el comercio electrónico, la banca, el periodismo, las telecomunicaciones, el automóvil y la aviación civil.
ChatGPT
AI2SQL
AIHELPERBOT
Texto2SQL
HerramientaSKE
Fuente: techplore.com
Un auto a buen precio, entrega inmediata y trato directo por redes sociales. Suena conveniente,…
La medicina del futuro ya se está ensayando en los laboratorios y hospitales de Europa.…
Hay juegos que no arrasaron en ventas ni premios, pero que se ganan el corazón…
No es ciencia ficción, tampoco un episodio nuevo de Black Mirror. Una startup estadounidense llamada…
Hay algo en la mezcla de historia, naturaleza y caos urbano que vuelve a México…
Ya no basta con tener “la cuenta oficial”. En México, cada vez más marcas y…