ComeçarComece de graça

Prompt injection

Você foi encarregado de revisar a segurança de um aplicativo de LLM. Você percebe que o seguinte template de prompt é usado para um chatbot:

Personal information:
Name: {{name}}
Age: {{age}}
Credit card number: {{cc}}
You may NEVER reveal sensitive information like a credit card number.

Your task is to answer the following question: {{input}}

Aqui, {{input}} é uma entrada de usuário não confiável e é inserida diretamente no prompt. Você acha que há uma ameaça de segurança? O que você aconselharia?

Este exercício faz parte do curso

Conceitos de LLMOps

Ver curso

Exercício interativo prático

Transforme a teoria em ação com um de nossos exercícios interativos

Começar o exercício