k96beni commited on
Commit
b0b31a7
·
verified ·
1 Parent(s): 726d730

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +13 -7
app.py CHANGED
@@ -202,28 +202,34 @@ def retrieve_context(query, k=RETRIEVAL_K):
202
  sources.add(chunk_sources[idx])
203
  return " ".join(retrieved), list(sources)
204
 
 
 
205
  def generate_answer(query):
206
- """Genererar svar baserat på fråga och kontextinformation."""
207
- context, sources = retrieve_context(query)
 
 
208
  if not context.strip():
209
  return "Jag hittar ingen relevant information i mina källor.\n\nDetta är ett AI genererat svar."
210
 
211
  # System-prompts och användarfråga
212
  prompt = f"""{prompt_template}
213
 
214
- Relevant kontext:
215
  {context}
 
216
  Fråga: {query}
217
- Svar (baserat enbart på den indexerade datan):"""
218
 
219
  try:
220
- # Använd Claude Haiku istället för GPT
 
221
  response = anthropic_client.messages.create(
222
- model="claude-3-5-haiku-20240307",
223
  max_tokens=500,
224
  temperature=0.2,
225
  system=("Du är en expert på ChargeNodes produkter och tjänster. "
226
- "Svara enbart baserat på den information som finns i den indexerade datan."),
227
  messages=[
228
  {"role": "user", "content": prompt}
229
  ]
 
202
  sources.add(chunk_sources[idx])
203
  return " ".join(retrieved), list(sources)
204
 
205
+ # Ändra modellsträngen i generate_answer-funktionen:
206
+
207
  def generate_answer(query):
208
+ """Genererar svar baserat på fråga med hela kontexten."""
209
+ # Hämta hela kontexten
210
+ context = load_full_context()
211
+
212
  if not context.strip():
213
  return "Jag hittar ingen relevant information i mina källor.\n\nDetta är ett AI genererat svar."
214
 
215
  # System-prompts och användarfråga
216
  prompt = f"""{prompt_template}
217
 
218
+ Hela dataunderlaget:
219
  {context}
220
+
221
  Fråga: {query}
222
+ Svar (baserat enbart på den tillhandahållna datan):"""
223
 
224
  try:
225
+ # Använd Claude Haiku med hela kontexten
226
+ # Ändra modellsträngen till den korrekta
227
  response = anthropic_client.messages.create(
228
+ model="claude-3-haiku-20240307", # Korrigerad modellsträng
229
  max_tokens=500,
230
  temperature=0.2,
231
  system=("Du är en expert på ChargeNodes produkter och tjänster. "
232
+ "Svara enbart baserat på den information som finns i den tillhandahållna datan."),
233
  messages=[
234
  {"role": "user", "content": prompt}
235
  ]