ChatGPT ha prendido focos rojos en las fuerzas policiales. La explosión en popularidad del chatbot no solo trajo consigo un sinfín de aplicaciones en diversos campos, sino también estafas y un temor generalizado. Ahora un reporte de la Europol advierte sobre el posible uso indebido de la IA por parte de los delincuentes.
La agencia europea organizó en días pasados una serie de talleres para abordar el potencial negativo del chatbot. En el informe ChatGPT: el impacto de los modelos de lenguaje extenso en la aplicación de la ley, la Europol expone cómo la IA ayudaría a delincuentes a cometer diversas fechorías.
La lista de crímenes es variada e incluye fraude, suplantación de identidad, hackeos, terrorismo, propaganda y desinformación.
De acuerdo con la Europol, los modelos de lenguaje extenso (LLM) como ChatGPT han demostrado ser capaces de realizar trabajos creativos. Si bien ofrecen beneficios para el público y las empresas, también representan un riesgo para su seguridad.
Desde que se abrió al público a finales de 2022, el chatbot ha sido utilizado por millones de personas, algunas de ellas, con intenciones de cometer fraude, planear ataques terroristas o incluso, intentar romper las reglas de seguridad impuestas por OpenAI.
El reporte afirma que la habilidad de reproducir textos que parecen auténticos facilita la tarea para cometer phishing. Los estafadores no tendrían que preocuparse por revisar el estilo y gramática, incluso podrían solicitar a ChatGPT que adopte un estilo definido al redactar un correo fraudulento.
«Con la ayuda de los LLM, estos tipos de phishing y fraude en línea se pueden crear de manera más rápida, mucho más auténtica y a una escala significativamente mayor», indica la Europol.