Felipe Ruiz
Los atacantes pueden manipular indirectamente la IA con fines maliciosos
Te mostramos que las apps con LLM integrado pueden sufrir ataques de inyección indirecta de prompts a través de diferentes métodos poniendo en riesgo la seguridad de sus usuarios.
Felipe Ruiz
NIST aclara la clasificación de ataques contra la IA
Presentamos un resumen de un informe reciente de NIST sobre el aprendizaje automático antagónico que podría ayudarnos a entender mejor los ataques contra y desde los sistemas de IA.