Conversando com o Llama 3
Uma empresa de análise de dados está desenvolvendo um assistente de IA interno para ajudar funcionários a acessar rapidamente informações técnicas. Como parte desse projeto, eles querem integrar o Llama 3 e pediram que você o testasse.
Para começar, você vai inicializar o modelo Llama 3 localmente e gerar uma resposta para uma pergunta.
O caminho do modelo já está armazenado em uma variável chamada llama_path.
Este exercício faz parte do curso
Trabalhando com Llama 3
Instruções do exercício
- Importe a classe
Llamadellama_cpp. - Inicialize uma instância de
Llama, especificandollama_pathcomo o caminho para o arquivo do modelo.
Exercício interativo prático
Experimente este exercício completando este código de exemplo.
# Import the Llama class
from llama_cpp import ____
# Initialize the Llama model
llm = ____(model_path=____)
question = "What is the most used database for data storage?"
response = llm(question)
print(response)