Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -202,28 +202,34 @@ def retrieve_context(query, k=RETRIEVAL_K):
|
|
| 202 |
sources.add(chunk_sources[idx])
|
| 203 |
return " ".join(retrieved), list(sources)
|
| 204 |
|
|
|
|
|
|
|
| 205 |
def generate_answer(query):
|
| 206 |
-
"""Genererar svar baserat på fråga
|
| 207 |
-
|
|
|
|
|
|
|
| 208 |
if not context.strip():
|
| 209 |
return "Jag hittar ingen relevant information i mina källor.\n\nDetta är ett AI genererat svar."
|
| 210 |
|
| 211 |
# System-prompts och användarfråga
|
| 212 |
prompt = f"""{prompt_template}
|
| 213 |
|
| 214 |
-
|
| 215 |
{context}
|
|
|
|
| 216 |
Fråga: {query}
|
| 217 |
-
Svar (baserat enbart på den
|
| 218 |
|
| 219 |
try:
|
| 220 |
-
# Använd Claude Haiku
|
|
|
|
| 221 |
response = anthropic_client.messages.create(
|
| 222 |
-
model="claude-3-
|
| 223 |
max_tokens=500,
|
| 224 |
temperature=0.2,
|
| 225 |
system=("Du är en expert på ChargeNodes produkter och tjänster. "
|
| 226 |
-
"Svara enbart baserat på den information som finns i den
|
| 227 |
messages=[
|
| 228 |
{"role": "user", "content": prompt}
|
| 229 |
]
|
|
|
|
| 202 |
sources.add(chunk_sources[idx])
|
| 203 |
return " ".join(retrieved), list(sources)
|
| 204 |
|
| 205 |
+
# Ändra modellsträngen i generate_answer-funktionen:
|
| 206 |
+
|
| 207 |
def generate_answer(query):
|
| 208 |
+
"""Genererar svar baserat på fråga med hela kontexten."""
|
| 209 |
+
# Hämta hela kontexten
|
| 210 |
+
context = load_full_context()
|
| 211 |
+
|
| 212 |
if not context.strip():
|
| 213 |
return "Jag hittar ingen relevant information i mina källor.\n\nDetta är ett AI genererat svar."
|
| 214 |
|
| 215 |
# System-prompts och användarfråga
|
| 216 |
prompt = f"""{prompt_template}
|
| 217 |
|
| 218 |
+
Hela dataunderlaget:
|
| 219 |
{context}
|
| 220 |
+
|
| 221 |
Fråga: {query}
|
| 222 |
+
Svar (baserat enbart på den tillhandahållna datan):"""
|
| 223 |
|
| 224 |
try:
|
| 225 |
+
# Använd Claude Haiku med hela kontexten
|
| 226 |
+
# Ändra modellsträngen till den korrekta
|
| 227 |
response = anthropic_client.messages.create(
|
| 228 |
+
model="claude-3-haiku-20240307", # Korrigerad modellsträng
|
| 229 |
max_tokens=500,
|
| 230 |
temperature=0.2,
|
| 231 |
system=("Du är en expert på ChargeNodes produkter och tjänster. "
|
| 232 |
+
"Svara enbart baserat på den information som finns i den tillhandahållna datan."),
|
| 233 |
messages=[
|
| 234 |
{"role": "user", "content": prompt}
|
| 235 |
]
|