Según una investigación de la Universidad de Sheffield, se puede engañar a las herramientas de inteligencia artificial (IA), como ChatGPT, para que produzcan código malicioso, que podría utilizarse para lanzar ataques cibernéticos.
El estudio, realizado por académicos del Departamento de Ciencias de la Computación de la Universidad, es el primero en demostrar que los sistemas de texto a SQL (IA que permite a las personas buscar en bases de datos haciendo preguntas en lenguaje sencillo y que se utilizan en una amplia gama de industrias ) pueden ser explotado para atacar sistemas informáticos en el mundo real.
Los hallazgos de la investigación han revelado cómo se pueden manipular las IA para ayudar a robar información personal confidencial, alterar o destruir bases de datos o desactivar servicios mediante ataques de denegación de servicio.
Como parte del estudio, los académicos de Sheffield encontraron vulnerabilidades de seguridad en seis herramientas comerciales de IA y atacaron con éxito cada una de ellas.
Las herramientas de IA que estudiaron fueron:
BAIDU-UNIT: una plataforma de diálogo inteligente líder en China adoptada por clientes de alto perfil en muchas industrias, incluido el comercio electrónico, la banca, el periodismo, las telecomunicaciones, el automóvil y la aviación civil.
ChatGPT
AI2SQL
AIHELPERBOT
Texto2SQL
HerramientaSKE
Fuente: techplore.com
Samsung no solo compite con Apple en hardware. También lo hace con una serie de…
Google acaba de lanzar un rediseño estratégico de su aplicación Gemini en España, enfocado en…
Se enfrenta cada año a temporadas de incendios forestales cada vez más intensas. Para combatir…
Cuando se habla de inteligencia artificial en México, es común imaginar sistemas fríos, neutros, casi…
Con un diseño renovado que combina carcasa translúcida y acabados metálicos, los nuevos OPPO Enco…
Hay teléfonos que desde que los sacas de la caja ya te convencen. El Motorola…