![Foto por Pawel Czerwinski en Unsplash](https://res.cloudinary.com/fluid-attacks/image/upload/v1707177731/blog/indirect-prompt-injection-llms/cover_indirect_prompt_injection_llms.webp)
Felipe Ruiz
Los atacantes pueden manipular indirectamente la IA con fines maliciosos
Te mostramos que las apps con LLM integrado pueden sufrir ataques de inyección indirecta de prompts a través de diferentes métodos poniendo en riesgo la seguridad de sus usuarios.
![Foto por Fervent Jant en Unsplash](https://res.cloudinary.com/fluid-attacks/image/upload/v1706217218/blog/adversarial-machine-learning-nist/cover_adversarial_machine_learning_nist.webp)
Felipe Ruiz
NIST aclara la clasificación de ataques contra la IA
Presentamos un resumen de un informe reciente de NIST sobre el aprendizaje automático antagónico que podría ayudarnos a entender mejor los ataques contra y desde los sistemas de IA.