LLM

Apache como Proxy Reverso: Redirecionando Rotas com Elegância

Se você quer que o Apache atue como um proxy reverso (encaminhando requisições para outro serviço na rede ou no próprio host), este post entrega o necessário, direto ao ponto. Vamos assumir um caso comum: você quer que qualquer requisição para http://seuip/ollama/ seja redirecionada internamente para http://localhost:11434/. Configuração do VirtualHost Abra o arquivo de configuração […]

Apache como Proxy Reverso: Redirecionando Rotas com Elegância Read More »

Personalidade Oculta para LLMs no Frontend: Controle Invisível

Uma das possibilidades mais subestimadas ao trabalhar com LLMs via API é a manipulação do comportamento do modelo sem que o usuário perceba. Isso pode ser feito com um prompt oculto, injetado antes da mensagem do usuário no frontend, para definir um “perfil de personalidade”. Este post mostra exatamente como fazer isso — de forma

Personalidade Oculta para LLMs no Frontend: Controle Invisível Read More »

Rodando LLMs Localmente: Guia DevData Para Testes Sem Gastar com API

Muitos querem integrar IA com n8n, fazer testes e explorar automações inteligentes, mas esbarram no mesmo problema: token da OpenAI. A boa notícia? Dá pra brincar com LLMs sem gastar nada e rodar tudo local, direto do seu hardware. Neste post, vamos mostrar como colocar grandes modelos de linguagem pra rodar sem API paga, usando

Rodando LLMs Localmente: Guia DevData Para Testes Sem Gastar com API Read More »

Rolar para cima