ComeçarComece de graça

Conversando com o Llama 3

Uma empresa de análise de dados está desenvolvendo um assistente de IA interno para ajudar funcionários a acessar rapidamente informações técnicas. Como parte desse projeto, eles querem integrar o Llama 3 e pediram que você o testasse.

Para começar, você vai inicializar o modelo Llama 3 localmente e gerar uma resposta para uma pergunta.

O caminho do modelo já está armazenado em uma variável chamada llama_path.

Este exercício faz parte do curso

Trabalhando com Llama 3

Ver curso

Instruções do exercício

  • Importe a classe Llama de llama_cpp.
  • Inicialize uma instância de Llama, especificando llama_path como o caminho para o arquivo do modelo.

Exercício interativo prático

Experimente este exercício completando este código de exemplo.

# Import the Llama class
from llama_cpp import ____

# Initialize the Llama model
llm = ____(model_path=____)

question = "What is the most used database for data storage?"
response = llm(question)
print(response)
Editar e executar o código