LLM Prompt Purify
Angular, TypeScript
Problema
Los prompts para LLMs pueden incluir datos sensibles de usuarios o empresas involuntariamente al ser enviados a APIs de terceros, generando riesgos de privacidad y cumplimiento.
Restricciones
El filtrado debe ser del lado del cliente para evitar enviar datos a cualquier servidor antes de la sanitización. Debe ser determinístico y verificable. Debe manejar formatos de datos diversos sin romper la estructura del prompt.
Solución
Un pipeline de sanitización del lado del cliente que escanea el texto del prompt en busca de patrones que coincidan con datos sensibles (correos, teléfonos, IDs, credenciales) y los enmascara o elimina antes de que el prompt llegue a cualquier API externa. Las reglas son configurables y extensibles.
Resultado
Riesgo reducido de filtración accidental de datos en flujos de trabajo con LLM. El filtrado determinístico garantiza un comportamiento predecible. Se puede integrar como etapa de preprocesamiento en cualquier aplicación con LLM.