Política de Inteligência Artificial
Versão 1.0 — Em vigor a partir de 05 de abril de 2026
A Omega Capital Holding Gestão e Participações Empresariais Ltda ("ChatSense", "nós", "nosso" ou "Plataforma"), comprometida com a transparência e o uso responsável de tecnologias de Inteligência Artificial (IA), publica esta Política para descrever os sistemas de IA utilizados, suas finalidades, limitações, salvaguardas de segurança e as responsabilidades compartilhadas entre a Plataforma e seus clientes.
1. Descrição dos Sistemas de Inteligência Artificial
1.1 Provedores de Modelos de Linguagem (LLM)
O ChatSense utiliza os seguintes provedores de modelos de linguagem de grande escala:
- Google Gemini 2.5 Flash / Pro — Modelo principal para geração de respostas, análise de sentimento, classificação de intenção, sumarização de conversas, extração de tópicos e análise de imagens (Vision)
- OpenAI — Utilizado exclusivamente para geração de embeddings vetoriais (text-embedding) para o sistema de busca semântica (RAG)
1.2 Funcionalidades de IA
A plataforma oferece as seguintes funcionalidades baseadas em Inteligência Artificial:
- Respostas automatizadas (pipeline de bot) — Respostas geradas por IA para atendimento automatizado ao cliente
- Sugestões de resposta — Sugestões contextuais para agentes humanos durante o atendimento
- Sumarização de conversas — Resumos automáticos do conteúdo e pontos principais de cada conversa
- Análise de sentimento — Classificação automática do sentimento do cliente (positivo, neutro, negativo)
- Auto-tagging — Categorização automática de conversas por tópicos relevantes
- Extração de tópicos — Identificação dos assuntos principais abordados em cada interação
- Transcrição de áudio (STT) — Conversão de mensagens de áudio em texto para processamento e exibição
- Análise de imagens (Vision) — Interpretação do conteúdo de imagens enviadas pelos clientes
- Texto para fala (TTS) — Geração de áudio a partir de respostas textuais
1.3 RAG (Retrieval-Augmented Generation)
O ChatSense utiliza um sistema de Geração Aumentada por Recuperação (RAG) para melhorar a precisão das respostas de IA. A base de conhecimento do cliente é indexada com embeddings vetoriais de 1536 dimensões utilizando a extensão pgvector do PostgreSQL. Durante o atendimento, o sistema realiza busca semântica para localizar trechos relevantes da base de conhecimento e injetá-los como contexto nos prompts enviados ao modelo de linguagem.
1.4 Pipeline do Bot
O fluxo de processamento de cada interação com IA segue a seguinte sequência:
- Classificação de intenção — Identificação da intenção do cliente na mensagem recebida
- Recuperação RAG — Busca semântica na base de conhecimento por conteúdo relevante
- Histórico de conversa — Inclusão do contexto das mensagens anteriores
- Injeção de guardrails — Aplicação das salvaguardas de segurança configuradas
- Chamada ao LLM — Envio do prompt completo ao modelo de linguagem
- Entrega da resposta — Envio da resposta gerada ao cliente pelo canal correspondente
1.5 Sistema de Escalação
A IA possui capacidade de detectar quando uma interação necessita de intervenção humana. O sistema identifica palavras-chave de escalação, complexidade excessiva ou insatisfação do cliente e transfere automaticamente a conversa para um agente humano, acompanhada de uma mensagem de transição configurável.
2. Classificação conforme o EU AI Act (Regulamento 2024/1689)
2.1 Classificação do Sistema
O ChatSense é classificado como um sistema de IA de propósito geral (GPAI — General-Purpose AI System) conforme o Artigo 51 do Regulamento (UE) 2024/1689 (EU AI Act). A plataforma fornece capacidades de IA que podem ser utilizadas em diversos contextos de atendimento ao cliente.
2.2 Avaliação de Risco
A plataforma ChatSense não é inerentemente de alto risco. No entanto, reconhecemos que os clientes (implantadores/deployers) podem criar casos de uso que se enquadrem na categoria de alto risco, dependendo do setor e da finalidade da implantação (por exemplo, atendimento em saúde, serviços financeiros, serviços jurídicos).
2.3 Responsabilidades do Implantador (Deployer)
Conforme o Artigo 26 do EU AI Act, o cliente (implantador) é responsável por:
- Informar os usuários finais sobre a interação com sistemas de IA
- Manter supervisão humana adequada sobre os sistemas de IA implantados
- Garantir a qualidade dos dados utilizados no treinamento e configuração dos agentes
- Avaliar se o uso específico constitui alto risco em seu contexto regulatório
2.4 Obrigações de Transparência
Em conformidade com o Artigo 50, o conteúdo gerado por IA deve ser devidamente identificado. O ChatSense implementa marcadores de identificação em mensagens geradas por IA e disponibiliza informações sobre o modelo, versão e rastreamento de execução para administradores.
2.5 Obrigações como Provedor de GPAI
O ChatSense cumpre as obrigações do Artigo 53 para provedores de sistemas GPAI, incluindo: manutenção de documentação técnica, política de direitos autorais e transparência sobre o funcionamento dos sistemas de IA.
3. Transparência e Identificação de Conteúdo IA
- Marcadores de identificação — Mensagens geradas por IA carregam marcadores de identificação do sistema, distinguindo-as de mensagens enviadas por agentes humanos
- Visibilidade para administradores — Administradores têm acesso aos prompts do sistema (system prompts), versões dos modelos utilizados e rastreamento completo de execução (execution traces)
- Trilha de auditoria — Cada interação com IA é registrada na tabela
agent_execution_traces, incluindo: tokens de entrada e saída, latência, modelo utilizado e provedor - Versionamento de modelos — As versões dos modelos são registradas para garantir reprodutibilidade e rastreabilidade
- Obrigação do cliente — O cliente deve informar seus usuários finais quando estes estão interagindo com um sistema de IA e não com um ser humano
4. Processamento de Dados para IA
4.1 Dados Enviados aos Modelos de Linguagem
Os seguintes dados são incluídos nos prompts enviados aos provedores de LLM:
- Mensagens da conversa (últimas 20 mensagens para contexto)
- Prompt do sistema (system prompt) configurado pelo administrador
- Contexto RAG (trechos da base de conhecimento recuperados por busca semântica)
- Nome do contato
- Tipo da plataforma/canal (WhatsApp, Instagram, Messenger, Telegram, Email, Live Chat)
4.2 Dados que NÃO São Enviados
Os seguintes dados nunca são incluídos nos prompts de IA:
- Senhas e credenciais de acesso
- Informações de pagamento e dados financeiros
- Notas internas da equipe
- Logs de auditoria do sistema
4.3 Proibição de Treinamento com Dados do Cliente
Os dados dos clientes são utilizados exclusivamente para inferência (geração de respostas). Os provedores de LLM utilizados pelo ChatSense (Google e OpenAI) não utilizam os dados enviados via API para treinar ou aprimorar seus modelos. Esta garantia está respaldada pelos termos de uso empresarial de cada provedor.
4.4 Embeddings e Armazenamento Local
Os embeddings vetoriais são gerados por meio da API da OpenAI e armazenados localmente no banco de dados PostgreSQL (extensão pgvector). Os vetores não são compartilhados com terceiros e permanecem sob controle exclusivo da plataforma.
4.5 Minimização de Dados
Apenas o contexto de conversa estritamente necessário é incluído nos prompts de IA, em conformidade com o princípio de minimização de dados da LGPD (art. 6, III).
4.6 Retenção de Dados de IA
Os registros de execução de IA (execution traces) são retidos por 90 dias para fins de depuração, auditoria e melhoria de qualidade, sendo automaticamente excluídos após esse período.
5. Sistema de Guardrails (Salvaguardas de Segurança)
5.1 Flags de Segurança
O ChatSense implementa 10 flags de segurança que são ativadas por padrão em todos os agentes de IA. O controle dessas flags é restrito a superadministradores:
- no_profanity — Bloqueia linguagem vulgar, obscena ou ofensiva
- no_threats — Bloqueia intimidação, coerção ou ameaças
- no_discrimination — Bloqueia discriminação racial, de gênero, religiosa, por orientação sexual ou por deficiência
- no_sexual_content — Bloqueia conteúdo sexual ou adulto (administrador pode desabilitar mediante aceite de termo de responsabilidade)
- no_violence — Bloqueia glorificação ou incitação à violência
- no_illegal_activity — Bloqueia orientação ou instrução sobre atividades ilegais
- no_personal_data — Bloqueia compartilhamento de dados pessoais de terceiros pela IA
- no_impersonation — Bloqueia personificação de pessoas reais, autoridades ou instituições
- no_medical_diagnosis — Impõe encaminhamento a profissional de saúde qualificado, impedindo diagnósticos médicos
- no_financial_advice — Impede aconselhamento financeiro, tributário ou de investimentos não licenciado
5.2 Configurações de Tom por Agente
Cada agente de IA possui 8 configurações de tom controláveis pelo administrador:
- allow_slang — Permite uso de gírias e linguagem informal
- allow_humor — Permite respostas com tom humorístico
- allow_emojis — Permite uso de emojis nas respostas
- allow_price_negotiation — Permite negociação de preços (requer aceite de termo de responsabilidade)
- allow_competitor_mentions — Permite menções a concorrentes
- allow_external_links — Permite inclusão de links externos nas respostas
- allow_political_topics — Permite abordagem de tópicos políticos
- allow_religious_references — Permite referências religiosas (requer aceite de termo de responsabilidade)
5.3 Termos de Responsabilidade
Determinadas configurações (no_sexual_content desabilitado, allow_price_negotiation, allow_religious_references) exigem aceite explícito de termo de responsabilidade pelo administrador. O aceite é registrado com endereço IP, user-agent e carimbo de data/hora (timestamp) para fins de auditoria e conformidade legal.
6. Precisão, Limitações e Alucinações
6.1 Natureza Probabilística
Os sistemas de Inteligência Artificial utilizados pelo ChatSense são de natureza probabilística. Isso significa que as respostas geradas podem ser imprecisas, incompletas ou fabricadas (fenômeno conhecido como "alucinação").
6.2 Ausência de Garantia
O ChatSense NÃO garante a precisão, completude, atualidade ou adequação das respostas geradas por IA para qualquer finalidade específica. As respostas de IA são fornecidas "como estão" (as is), sem garantias expressas ou implícitas.
6.3 Não Constitui Aconselhamento Profissional
As respostas geradas por IA não constituem aconselhamento profissional de qualquer natureza, incluindo, mas não se limitando a: aconselhamento médico, jurídico, financeiro, tributário, contábil ou psicológico. Clientes que atuam em setores regulados devem garantir supervisão humana qualificada.
6.4 Riscos Conhecidos
Apesar dos guardrails implementados, a IA pode ocasionalmente gerar respostas que sejam:
- Factualmente incorretas ou desatualizadas
- Inconsistentes com a base de conhecimento configurada
- Inapropriadas mesmo com as salvaguardas ativas
- Tendenciosas ou injustas (viés algorítmico)
O ChatSense implementa guardrails e sistemas de segurança para reduzir (e não eliminar) esses riscos. O cliente deve manter supervisão humana ativa e contínua.
7. Supervisão Humana e Direito à Intervenção
7.1 Mecanismos de Supervisão
- Sistema de escalação — A IA detecta palavras-chave de escalação e transfere automaticamente a conversa para agentes humanos
- Desativação por agente — O administrador pode desativar a IA para agentes individuais a qualquer momento
- Desativação organizacional — O administrador pode desativar toda a IA para a organização inteira
- Toggle por conversa — Agentes humanos podem ativar ou desativar a IA em cada conversa individualmente
7.2 Direitos do Titular sob a LGPD
Em conformidade com o art. 20 da LGPD (Lei nº 13.709/2018), o titular de dados pessoais tem o direito de solicitar a revisão humana de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluindo decisões destinadas a definir seu perfil pessoal, profissional, de consumo ou de crédito.
7.3 Direitos sob o GDPR
Em conformidade com o art. 22 do GDPR (Regulamento UE 2016/679), os titulares de dados têm o direito de não serem sujeitos a decisões tomadas exclusivamente com base em processamento automatizado, incluindo a definição de perfil, que produza efeitos jurídicos ou que os afete significativamente.
7.4 Auditabilidade
Cada interação com IA é registrada com contexto completo (entrada, saída, modelo, provedor, latência, tokens utilizados) na trilha de auditoria, permitindo revisão e investigação posterior por administradores e, quando aplicável, por autoridades reguladoras.
8. Viés, Equidade e Não-Discriminação
- O guardrail no_discrimination é ativado por padrão e não pode ser desabilitado, garantindo que respostas discriminatórias sejam bloqueadas em todos os cenários
- Reconhecemos que os modelos de IA podem refletir vieses presentes nos dados de treinamento dos provedores de LLM
- O ChatSense monitora padrões discriminatórios e implementa medidas corretivas quando identificados
- Clientes que identificarem respostas potencialmente discriminatórias ou enviesadas devem reportar imediatamente para contato@chatsense.app
- Como não treinamos modelos com dados de clientes, os vieses identificados decorrem dos modelos dos provedores upstream (Google, OpenAI), e o ChatSense aplica guardrails para mitigá-los
9. Responsabilidades do Cliente (Implantador/Deployer)
Ao utilizar os recursos de Inteligência Artificial do ChatSense, o cliente assume as seguintes responsabilidades:
- Configurar os agentes de IA com prompts de sistema (system prompts) adequados ao seu contexto de negócio
- Revisar e manter as configurações de guardrails de acordo com seu setor de atuação
- Manter o sistema de escalação ativado para garantir intervenção humana quando necessário
- Monitorar as conversas dos agentes de IA regularmente
- Treinar agentes humanos sobre supervisão e controle de qualidade dos sistemas de IA
- Informar os usuários finais de que estão interagindo com um sistema de IA e não com um ser humano
- Não desabilitar guardrails de segurança em setores regulados (saúde, financeiro, jurídico)
- Cumprir com regulamentações setoriais de IA aplicáveis à sua indústria
- Reportar incidentes de segurança de IA prontamente, conforme descrito na Seção 11
10. Limitação de Responsabilidade e Isenções
10.1 O ChatSense NÃO é responsável por:
- Precisão, completude ou atualidade do conteúdo gerado por IA
- Decisões tomadas por clientes ou usuários finais com base em respostas de IA
- Perdas, danos ou prejuízos decorrentes de alucinações ou respostas incorretas da IA
- Multas, penalidades ou sanções regulatórias decorrentes das escolhas de implantação de IA do cliente
- Reclamações de usuários finais sobre interações com IA
- Falhas do cliente em configurar os guardrails de forma adequada
- Falhas do cliente em manter supervisão humana sobre os agentes de IA
10.2 Assunção de Risco pelo Cliente
O cliente assume integralmente os riscos relacionados a:
- Implantação de agentes de IA no contexto de seu negócio
- Conteúdo gerado por agentes de IA configurados pelo próprio cliente
- Conformidade com regulamentações setoriais de IA específicas de sua indústria
- Interações dos usuários finais com os sistemas de IA
10.3 Limite Máximo de Responsabilidade
Em qualquer hipótese, a responsabilidade total do ChatSense será limitada ao valor dos honorários efetivamente pagos pelo cliente nos últimos 3 (três) meses anteriores ao evento que deu causa à reclamação.
10.4 Base Legal
Esta limitação de responsabilidade é embasada no art. 14, §3 do Código de Defesa do Consumidor (exclusão de responsabilidade) e nos arts. 18 e 19 do Marco Civil da Internet (Lei nº 12.965/2014), que estabelecem que o provedor de aplicação não é responsável por conteúdo gerado por terceiros.
11. Incidentes de Segurança de IA e Canal de Reporte
11.1 Canal de Reporte
Para reportar incidentes de segurança relacionados a Inteligência Artificial, entre em contato:
E-mail de Segurança IA: seguranca-ia@chatsense.app
11.2 O que Constitui um Incidente de Segurança de IA
- Geração de conteúdo prejudicial, ofensivo ou perigoso pela IA
- Vazamento de dados pessoais ou sensíveis por meio de respostas de IA
- Respostas discriminatórias, preconceituosas ou tendenciosas
- Ações não autorizadas executadas por agentes de IA
- Falha sistemática nos guardrails de segurança
11.3 Prazos de Resposta
- Confirmação de recebimento: até 24 horas após o reporte
- Investigação inicial: até 72 horas após o reporte
11.4 Remediação
As ações de remediação podem incluir:
- Atualização de guardrails e salvaguardas de segurança
- Alteração de modelos ou provedores de IA
- Endurecimento de prompts (prompt hardening)
- Ajustes nas configurações de tom e segurança
11.5 Transparência
Incidentes de segurança de IA considerados materiais poderão ser divulgados em avisos de segurança (security advisories), em conformidade com os princípios de transparência e responsabilidade.
Contato
Para dúvidas sobre esta Política de Inteligência Artificial:
ChatSense — Omega Capital Holding Gestão e Participações Empresariais Ltda
E-mail geral: contato@chatsense.app
Encarregado de dados (DPO): privacidade@chatsense.app
Segurança de IA: seguranca-ia@chatsense.app