AI

O Selfint já suporta AI e pode usá-la de várias formas.

A AI no Selfint não é apenas uma ideia futura. Já existem componentes concretos para ajudar a desenhar workflows, executar passos com AI dentro do processo e acompanhar custos, latência e resultados.

A lógica certa é simples: usar AI onde ela acelera trabalho humano, mas com controlo, contexto e supervisão.

Como pode ser usada

Há formas de uso mais operacionais e formas de uso mais assistidas ao nível de desenho do workflow.

AI Builder

Permite pedir sugestões de próximos passos e até compor um plano inicial de workflow a partir de um objetivo escrito em linguagem natural.

Passos AI dentro do workflow

O workflow pode chamar AI para ler input, interpretar conteúdo, gerar estrutura, responder com JSON e mapear o resultado para o resto do processo.

Operação controlada

As equipas conseguem criar connections AI, manter prompts versionados, testar com preview e acompanhar logs, tokens, custo e latência.

Exemplos simples de uso

  • Extrair campos importantes de emails, texto livre ou payloads complexos.
  • Classificar pedidos por tipo, prioridade ou intenção.
  • Resumir conteúdo antes de enviar para outro sistema ou equipa.
  • Produzir resposta estruturada em JSON para continuar o workflow sem intervenção manual.
  • Encaminhar para revisão humana quando a confiança é baixa.

O que já existe no editor AI

  • Escolha de provider e connection.
  • Modelo, prompts de sistema e utilizador, e variáveis.
  • Definição de input, output e mapeamento para campos do workflow.
  • Preview antes de gravar.
  • Guard rails como confiança mínima e ações em caso de baixa confiança.
  • Opções de privacidade e controlo sobre o que fica guardado.

O que a equipa técnica pode configurar

Estas capacidades estão já refletidas nas superfícies de administração e no código do produto.

AI connections

Permitem configurar referências reutilizáveis por cliente, com provider, base URL, modelo por defeito e associação a credenciais API.

Prompts versionados

Os prompts podem ser guardados com nome, referência, versão, estado e schema de variáveis, para reutilização consistente.

Preview e testes

Antes de ativar, o admin pode enviar input de exemplo para validar comportamento, output e eventuais erros.

Logs e estatísticas

É possível filtrar execuções AI por cliente, workflow, step, provider, connection ou modelo, com visibilidade de tokens, custo e latência.

AI Builder

Há endpoints e hooks já preparados para obter sugestões de design e compor um plano de workflow com testes incluídos.

Multi-provider

No step editor existem opções para OpenAI, Azure OpenAI, Ollama e HTTP custom, conforme o contexto de integração.

Boas práticas

  • Use AI em tarefas com objetivo claro e resultado verificável.
  • Prefira output estruturado quando o resultado vai alimentar outro sistema.
  • Defina confiança mínima e fallback humano para decisões mais sensíveis.
  • Monitore logs, custo e latência para perceber se o uso está a compensar.
  • Trate prompts e connections como ativos administrados, não como texto solto espalhado pelo sistema.