Update README.md
Browse files
README.md
CHANGED
|
@@ -4,21 +4,21 @@ emoji: 🤖
|
|
| 4 |
colorFrom: blue
|
| 5 |
colorTo: green
|
| 6 |
sdk: gradio
|
| 7 |
-
sdk_version:
|
| 8 |
-
python_version:
|
| 9 |
-
suggested_hardware:
|
| 10 |
app_file: app.py
|
| 11 |
pinned: false
|
| 12 |
short_description: Chatbot em cascata usando Llama 3.1 e modelos auxiliares
|
| 13 |
models:
|
| 14 |
-
|
| 15 |
-
|
| 16 |
-
|
| 17 |
datasets: []
|
| 18 |
tags:
|
| 19 |
-
|
| 20 |
-
|
| 21 |
-
|
| 22 |
---
|
| 23 |
|
| 24 |
# Chatbot em Cascata com Llama 3.1
|
|
@@ -64,4 +64,4 @@ Dependendo da query do usuário, o chatbot aciona **dois outros modelos auxiliar
|
|
| 64 |
- Nunca exponha o token (`HF_TOKEN`) no código
|
| 65 |
- Trate exceções da API com `try/except`
|
| 66 |
- Use a **Inference API** para modelos grandes e evitar MemoryError
|
| 67 |
-
- Monitore o consumo da API (chamadas podem gerar custo)
|
|
|
|
| 4 |
colorFrom: blue
|
| 5 |
colorTo: green
|
| 6 |
sdk: gradio
|
| 7 |
+
sdk_version: 6.0.2
|
| 8 |
+
python_version: '3.11'
|
| 9 |
+
suggested_hardware: cpu-basic
|
| 10 |
app_file: app.py
|
| 11 |
pinned: false
|
| 12 |
short_description: Chatbot em cascata usando Llama 3.1 e modelos auxiliares
|
| 13 |
models:
|
| 14 |
+
- meta-llama/Llama-3.1-8B-Instruct
|
| 15 |
+
- google/flan-t5-large
|
| 16 |
+
- facebook/bart-large-cnn
|
| 17 |
datasets: []
|
| 18 |
tags:
|
| 19 |
+
- chatbot
|
| 20 |
+
- nlp
|
| 21 |
+
- cascade
|
| 22 |
---
|
| 23 |
|
| 24 |
# Chatbot em Cascata com Llama 3.1
|
|
|
|
| 64 |
- Nunca exponha o token (`HF_TOKEN`) no código
|
| 65 |
- Trate exceções da API com `try/except`
|
| 66 |
- Use a **Inference API** para modelos grandes e evitar MemoryError
|
| 67 |
+
- Monitore o consumo da API (chamadas podem gerar custo)
|