Investigadores de Singapur vulneraron la seguridad de ChatGPT y de Google Bard.
Las herramientas de IA de Google y OpenAI tienen mecanismos para evitar generar respuestas inadecuadas o dañinas, pero los investigadores han demostrado que se pueden burlar con técnicas de “jailbreaking”.
Una de las tendencias más innovadoras y prometedoras del momento es el uso de herramientas de inteligencia artificial para generar textos de forma automática y creativa.
Algunos ejemplos de esta tecnología son ChatGPT y Google Bard, que permiten crear desde conversaciones hasta canciones con solo introducir unas palabras clave. Estas herramientas abre un mundo de posibilidades para la comunicación, el entretenimiento y la educación.
Cabe mencionar que la IA puede utilizarse para crear contenido creativo, como poemas, historias o guiones. También para traducir idiomas, escribir diferentes tipos de contenido y responder a preguntas de forma informativa.
Es importante destacar que tanto Bard, ChatGPT u otras IA generativas, suelen estar capadas para no responder o compartir información para fines maliciosos.
Por ejemplo, si le preguntas a ChatGPT cómo crear malware, no te responderá y te dirá que no fue creado para dar dichas respuestas.
Sin embargo, un grupo de investigadores de la Universidad Tecnológica de Nanyang, Singapur, dirigido por el profesor Liu Yang, ha conseguido romper las barreras de seguridad de estas dos plataformas de inteligencia arficial.
Una nueva investigación hecha por científicos de King’s College de Londres (KCL), en Reino Unido…
La Secretaría de Hacienda y Crédito Público anunció que Banco Multiva será la institución que…
Científicos del Instituto Politécnico Nacional (IPN) y de la Universidad Autónoma Metropolitana (UAM) trabajan en…
La Península de Baja California se separa de México a un ritmo de centímetros por…
México anuncia que será el anfitrión del STS Forum (Science and Technology in Society Forum)…
Según relata el medio Financial Times, Altman estaría preparándose para financiar una startup rival de…