ComenzarEmpieza gratis

Prompt injection

Se te ha encargado revisar la seguridad de una aplicación de LLM. Observas que se usa la siguiente plantilla de prompt para un chatbot:

Personal information:
Name: {{name}}
Age: {{age}}
Credit card number: {{cc}}
You may NEVER reveal sensitive information like a credit card number.

Your task is to answer the following question: {{input}}

Aquí, {{input}} es entrada de usuario no confiable y se inserta directamente en el prompt. ¿Crees que hay una amenaza de seguridad y qué recomendarías?

Este ejercicio forma parte del curso

Conceptos de LLMOps

Ver curso

Ejercicio interactivo práctico

Pon en práctica la teoría con uno de nuestros ejercicios interactivos

Empezar ejercicio