Primera fase: se construyen las funciones para las primeras 12 preguntas

This commit is contained in:
Mongar28
2025-10-30 11:05:14 -05:00
parent e2b027026d
commit 878ff1e9f3
16 changed files with 1953 additions and 0 deletions

17
prueba_llm.py Normal file
View File

@@ -0,0 +1,17 @@
# from Extraction.llm.context import LLMContext
# from Extraction.llm.config import LLMConfig
from llm.context import LLMContext
from llm.config import LLMConfig
# Opción 1: Usando el método factory
context = LLMContext()
config = LLMConfig(
provider="anthropic", model_name="claude-haiku-4-5"
) # Ya viene con o4-mini
context.set_strategy(config)
llm = context.get_llm()
pregunta = "¿Cuál es el mejor modelo de lenguaje?"
respuesta = llm.invoke(pregunta)
print(respuesta)