use oris_runtime::{
chain::{Chain, LLMChainBuilder},
llm::openai::{OpenAI, OpenAIModel},
prompt::HumanMessagePromptTemplate,
prompt_args, sequential_chain, template_jinja2,
};
use std::io::{self, Write};
#[tokio::main]
async fn main() {
let llm = OpenAI::default().with_model(OpenAIModel::Gpt35);
let prompt = HumanMessagePromptTemplate::new(template_jinja2!(
"Dame un nombre creativo para una tienda que vende: {{producto}}",
"producto"
));
let get_name_chain = LLMChainBuilder::new()
.prompt(prompt)
.llm(llm.clone())
.output_key("name")
.build()
.unwrap();
let prompt = HumanMessagePromptTemplate::new(template_jinja2!(
"Dame un slogan para el siguiente nombre: {{name}}",
"name"
));
let get_slogan_chain = LLMChainBuilder::new()
.prompt(prompt)
.llm(llm.clone())
.output_key("slogan")
.build()
.unwrap();
let sequential_chain = sequential_chain!(get_name_chain, get_slogan_chain);
print!("Please enter a product: ");
io::stdout().flush().unwrap();
let mut product = String::new();
io::stdin().read_line(&mut product).unwrap();
let product = product.trim();
let output = sequential_chain
.execute(prompt_args! {
"producto" => product
})
.await
.unwrap();
println!("Name: {}", output["name"]);
println!("Slogan: {}", output["slogan"]);
}