19 lines
486 B
Python
19 lines
486 B
Python
# from Extraction.llm.context import LLMContext
|
|
# from Extraction.llm.config import LLMConfig
|
|
|
|
from llm.context import LLMContext
|
|
from llm.config import LLMConfig
|
|
|
|
# Opción 1: Usando el método factory
|
|
context = LLMContext()
|
|
config = LLMConfig(
|
|
provider="anthropic", model_name="claude-haiku-4-5"
|
|
) # Ya viene con o4-mini
|
|
context.set_strategy(config)
|
|
llm = context.get_llm()
|
|
|
|
pregunta = "¿Cuál es el mejor modelo de lenguaje?"
|
|
respuesta = llm.invoke(pregunta)
|
|
print(respuesta)
|
|
|