kawre commited on
Commit
c20c6e6
·
verified ·
1 Parent(s): eb86cae

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +32 -6
README.md CHANGED
@@ -1,19 +1,36 @@
1
  ---
2
- title: Meu Space com Llama 3.1
3
  emoji: 🤖
4
  colorFrom: blue
5
  colorTo: green
6
  sdk: gradio
7
  sdk_version: "latest"
 
 
8
  app_file: app.py
9
  pinned: false
 
 
 
 
 
 
 
 
 
 
10
  ---
11
 
12
- # Meu Space com Llama 3.1
13
 
14
  ## Como Funciona
15
- Este Space utiliza o **Llama 3.1** via **Inference API** da Hugging Face para processar prompts do usuário.
16
- Dependendo da query, é possível integrar fluxos em cascata com outros modelos auxiliares.
 
 
 
 
 
17
 
18
  ---
19
 
@@ -37,5 +54,14 @@ Dependendo da query, é possível integrar fluxos em cascata com outros modelos
37
  ---
38
 
39
  ## Como Rodar
40
- - O Space inicia automaticamente a interface Gradio ao ser carregado
41
- - Digite um prompt na interface e veja a resposta do modelo
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ title: Chatbot em Cascata com Llama 3.1
3
  emoji: 🤖
4
  colorFrom: blue
5
  colorTo: green
6
  sdk: gradio
7
  sdk_version: "latest"
8
+ python_version: "3.11"
9
+ suggested_hardware: "cpu-basic"
10
  app_file: app.py
11
  pinned: false
12
+ short_description: Chatbot em cascata usando Llama 3.1 e modelos auxiliares
13
+ models:
14
+ - meta-llama/Llama-3.1-8B-Instruct
15
+ - google/flan-t5-large
16
+ - facebook/bart-large-cnn
17
+ datasets: []
18
+ tags:
19
+ - chatbot
20
+ - nlp
21
+ - cascade
22
  ---
23
 
24
+ # Chatbot em Cascata com Llama 3.1
25
 
26
  ## Como Funciona
27
+ Este Space implementa um **chatbot em cascata** usando o modelo **Llama 3.1** via **Inference API** da Hugging Face.
28
+ Dependendo da query do usuário, o chatbot aciona **dois outros modelos auxiliares** para gerar respostas, resumir ou buscar informações.
29
+
30
+ ### Fluxo do Chatbot
31
+ 1. **Llama 3.1** → processamento principal do prompt do usuário
32
+ 2. **FLAN-T5** → processamento auxiliar (ex.: reformulação ou classificação)
33
+ 3. **BART Large** → geração de resumo ou respostas adicionais
34
 
35
  ---
36
 
 
54
  ---
55
 
56
  ## Como Rodar
57
+ - O Space inicia automaticamente a interface Gradio
58
+ - Digite um prompt na interface e veja a resposta do chatbot
59
+ - Teste todos os fluxos da cascata para confirmar que todos os modelos estão sendo chamados
60
+
61
+ ---
62
+
63
+ ## Boas Práticas
64
+ - Nunca exponha o token (`HF_TOKEN`) no código
65
+ - Trate exceções da API com `try/except`
66
+ - Use a **Inference API** para modelos grandes e evitar MemoryError
67
+ - Monitore o consumo da API (chamadas podem gerar custo)