La version en portugues es la version legalmente vinculante. Esta traduccion se proporciona unicamente con fines informativos.
Politica de Inteligencia Artificial
Version 1.0 — Vigente a partir del 05 de abril de 2026
Omega Capital Holding Gestao e Participacoes Empresariais Ltda ("ChatSense", "nosotros", "nuestro" o "Plataforma"), comprometida con la transparencia y el uso responsable de tecnologias de Inteligencia Artificial (IA), publica esta Politica para describir los sistemas de IA utilizados, sus finalidades, limitaciones, salvaguardas de seguridad y las responsabilidades compartidas entre la Plataforma y sus clientes.
1. Descripcion de los Sistemas de Inteligencia Artificial
1.1 Proveedores de Modelos de Lenguaje (LLM)
ChatSense utiliza los siguientes proveedores de modelos de lenguaje de gran escala:
- Google Gemini 2.5 Flash / Pro — Modelo principal para generacion de respuestas, analisis de sentimiento, clasificacion de intencion, resumen de conversaciones, extraccion de temas y analisis de imagenes (Vision)
- OpenAI — Utilizado exclusivamente para generacion de embeddings vectoriales (text-embedding) para el sistema de busqueda semantica (RAG)
1.2 Funcionalidades de IA
La plataforma ofrece las siguientes funcionalidades basadas en Inteligencia Artificial:
- Respuestas automatizadas (pipeline de bot) — Respuestas generadas por IA para atencion automatizada al cliente
- Sugerencias de respuesta — Sugerencias contextuales para agentes humanos durante la atencion
- Resumen de conversaciones — Resumenes automaticos del contenido y puntos principales de cada conversacion
- Analisis de sentimiento — Clasificacion automatica del sentimiento del cliente (positivo, neutro, negativo)
- Auto-tagging — Categorizacion automatica de conversaciones por temas relevantes
- Extraccion de temas — Identificacion de los asuntos principales abordados en cada interaccion
- Transcripcion de audio (STT) — Conversion de mensajes de audio en texto para procesamiento y visualizacion
- Analisis de imagenes (Vision) — Interpretacion del contenido de imagenes enviadas por los clientes
- Texto a voz (TTS) — Generacion de audio a partir de respuestas textuales
1.3 RAG (Retrieval-Augmented Generation)
ChatSense utiliza un sistema de Generacion Aumentada por Recuperacion (RAG) para mejorar la precision de las respuestas de IA. La base de conocimiento del cliente se indexa con embeddings vectoriales de 1536 dimensiones utilizando la extension pgvector de PostgreSQL. Durante la atencion, el sistema realiza busqueda semantica para localizar fragmentos relevantes de la base de conocimiento e inyectarlos como contexto en los prompts enviados al modelo de lenguaje.
1.4 Pipeline del Bot
El flujo de procesamiento de cada interaccion con IA sigue la siguiente secuencia:
- Clasificacion de intencion — Identificacion de la intencion del cliente en el mensaje recibido
- Recuperacion RAG — Busqueda semantica en la base de conocimiento por contenido relevante
- Historial de conversacion — Inclusion del contexto de los mensajes anteriores
- Inyeccion de guardrails — Aplicacion de las salvaguardas de seguridad configuradas
- Llamada al LLM — Envio del prompt completo al modelo de lenguaje
- Entrega de la respuesta — Envio de la respuesta generada al cliente por el canal correspondiente
1.5 Sistema de Escalamiento
La IA posee la capacidad de detectar cuando una interaccion necesita intervencion humana. El sistema identifica palabras clave de escalamiento, complejidad excesiva o insatisfaccion del cliente y transfiere automaticamente la conversacion a un agente humano, acompanada de un mensaje de transicion configurable.
2. Clasificacion conforme el EU AI Act (Reglamento 2024/1689)
2.1 Clasificacion del Sistema
ChatSense se clasifica como un sistema de IA de proposito general (GPAI — General-Purpose AI System) conforme el Articulo 51 del Reglamento (UE) 2024/1689 (EU AI Act). La plataforma proporciona capacidades de IA que pueden ser utilizadas en diversos contextos de atencion al cliente.
2.2 Evaluacion de Riesgo
La plataforma ChatSense no es inherentemente de alto riesgo. Sin embargo, reconocemos que los clientes (implantadores/deployers) pueden crear casos de uso que se encuadren en la categoria de alto riesgo, dependiendo del sector y de la finalidad de la implantacion (por ejemplo, atencion en salud, servicios financieros, servicios juridicos).
2.3 Responsabilidades del Implantador (Deployer)
Conforme el Articulo 26 del EU AI Act, el cliente (implantador) es responsable de:
- Informar a los usuarios finales sobre la interaccion con sistemas de IA
- Mantener supervision humana adecuada sobre los sistemas de IA implantados
- Garantizar la calidad de los datos utilizados en el entrenamiento y configuracion de los agentes
- Evaluar si el uso especifico constituye alto riesgo en su contexto regulatorio
2.4 Obligaciones de Transparencia
En conformidad con el Articulo 50, el contenido generado por IA debe ser debidamente identificado. ChatSense implementa marcadores de identificacion en mensajes generados por IA y pone a disposicion informacion sobre el modelo, version y rastreo de ejecucion para administradores.
2.5 Obligaciones como Proveedor de GPAI
ChatSense cumple con las obligaciones del Articulo 53 para proveedores de sistemas GPAI, incluyendo: mantenimiento de documentacion tecnica, politica de derechos de autor y transparencia sobre el funcionamiento de los sistemas de IA.
3. Transparencia e Identificacion de Contenido IA
- Marcadores de identificacion — Los mensajes generados por IA llevan marcadores de identificacion del sistema, distinguiendolos de los mensajes enviados por agentes humanos
- Visibilidad para administradores — Los administradores tienen acceso a los prompts del sistema (system prompts), versiones de los modelos utilizados y rastreo completo de ejecucion (execution traces)
- Pista de auditoria — Cada interaccion con IA se registra en la tabla
agent_execution_traces, incluyendo: tokens de entrada y salida, latencia, modelo utilizado y proveedor - Versionamiento de modelos — Las versiones de los modelos se registran para garantizar reproducibilidad y trazabilidad
- Obligacion del cliente — El cliente debe informar a sus usuarios finales cuando estos estan interactuando con un sistema de IA y no con un ser humano
4. Procesamiento de Datos para IA
4.1 Datos Enviados a los Modelos de Lenguaje
Los siguientes datos se incluyen en los prompts enviados a los proveedores de LLM:
- Mensajes de la conversacion (ultimos 20 mensajes para contexto)
- Prompt del sistema (system prompt) configurado por el administrador
- Contexto RAG (fragmentos de la base de conocimiento recuperados por busqueda semantica)
- Nombre del contacto
- Tipo de plataforma/canal (WhatsApp, Instagram, Messenger, Telegram, Email, Live Chat)
4.2 Datos que NO se Envian
Los siguientes datos nunca se incluyen en los prompts de IA:
- Contrasenas y credenciales de acceso
- Informacion de pago y datos financieros
- Notas internas del equipo
- Registros de auditoria del sistema
4.3 Prohibicion de Entrenamiento con Datos del Cliente
Los datos de los clientes se utilizan exclusivamente para inferencia (generacion de respuestas). Los proveedores de LLM utilizados por ChatSense (Google y OpenAI) no utilizan los datos enviados via API para entrenar o mejorar sus modelos. Esta garantia esta respaldada por los terminos de uso empresarial de cada proveedor.
4.4 Embeddings y Almacenamiento Local
Los embeddings vectoriales se generan a traves de la API de OpenAI y se almacenan localmente en la base de datos PostgreSQL (extension pgvector). Los vectores no se comparten con terceros y permanecen bajo control exclusivo de la plataforma.
4.5 Minimizacion de Datos
Solo el contexto de conversacion estrictamente necesario se incluye en los prompts de IA, en conformidad con el principio de minimizacion de datos de la LGPD (art. 6, III).
4.6 Retencion de Datos de IA
Los registros de ejecucion de IA (execution traces) se retienen por 90 dias para fines de depuracion, auditoria y mejora de calidad, siendo automaticamente eliminados despues de dicho periodo.
5. Sistema de Guardrails (Salvaguardas de Seguridad)
5.1 Flags de Seguridad
ChatSense implementa 10 flags de seguridad que se activan por defecto en todos los agentes de IA. El control de estas flags esta restringido a superadministradores:
- no_profanity — Bloquea lenguaje vulgar, obsceno u ofensivo
- no_threats — Bloquea intimidacion, coercion o amenazas
- no_discrimination — Bloquea discriminacion racial, de genero, religiosa, por orientacion sexual o por discapacidad
- no_sexual_content — Bloquea contenido sexual o para adultos (el administrador puede deshabilitar mediante aceptacion de termino de responsabilidad)
- no_violence — Bloquea glorificacion o incitacion a la violencia
- no_illegal_activity — Bloquea orientacion o instruccion sobre actividades ilegales
- no_personal_data — Bloquea el compartir datos personales de terceros por parte de la IA
- no_impersonation — Bloquea la suplantacion de personas reales, autoridades o instituciones
- no_medical_diagnosis — Impone la derivacion a un profesional de salud calificado, impidiendo diagnosticos medicos
- no_financial_advice — Impide asesoramiento financiero, tributario o de inversiones no licenciado
5.2 Configuraciones de Tono por Agente
Cada agente de IA posee 8 configuraciones de tono controlables por el administrador:
- allow_slang — Permite el uso de jerga y lenguaje informal
- allow_humor — Permite respuestas con tono humoristico
- allow_emojis — Permite el uso de emojis en las respuestas
- allow_price_negotiation — Permite negociacion de precios (requiere aceptacion de termino de responsabilidad)
- allow_competitor_mentions — Permite menciones a competidores
- allow_external_links — Permite la inclusion de enlaces externos en las respuestas
- allow_political_topics — Permite el abordaje de temas politicos
- allow_religious_references — Permite referencias religiosas (requiere aceptacion de termino de responsabilidad)
5.3 Terminos de Responsabilidad
Determinadas configuraciones (no_sexual_content deshabilitado, allow_price_negotiation, allow_religious_references) exigen aceptacion explicita de un termino de responsabilidad por parte del administrador. La aceptacion se registra con direccion IP, user-agent y marca de fecha/hora (timestamp) para fines de auditoria y cumplimiento legal.
6. Precision, Limitaciones y Alucinaciones
6.1 Naturaleza Probabilistica
Los sistemas de Inteligencia Artificial utilizados por ChatSense son de naturaleza probabilistica. Esto significa que las respuestas generadas pueden ser imprecisas, incompletas o fabricadas (fenomeno conocido como "alucinacion").
6.2 Ausencia de Garantia
ChatSense NO garantiza la precision, completitud, actualidad o adecuacion de las respuestas generadas por IA para cualquier finalidad especifica. Las respuestas de IA se proporcionan "tal como estan" (as is), sin garantias expresas o implicitas.
6.3 No Constituye Asesoramiento Profesional
Las respuestas generadas por IA no constituyen asesoramiento profesional de ninguna naturaleza, incluyendo, pero sin limitarse a: asesoramiento medico, juridico, financiero, tributario, contable o psicologico. Los clientes que operan en sectores regulados deben garantizar supervision humana calificada.
6.4 Riesgos Conocidos
A pesar de los guardrails implementados, la IA puede ocasionalmente generar respuestas que sean:
- Factualmente incorrectas o desactualizadas
- Inconsistentes con la base de conocimiento configurada
- Inapropiadas aun con las salvaguardas activas
- Sesgadas o injustas (sesgo algoritmico)
ChatSense implementa guardrails y sistemas de seguridad para reducir (y no eliminar) estos riesgos. El cliente debe mantener supervision humana activa y continua.
7. Supervision Humana y Derecho a la Intervencion
7.1 Mecanismos de Supervision
- Sistema de escalamiento — La IA detecta palabras clave de escalamiento y transfiere automaticamente la conversacion a agentes humanos
- Desactivacion por agente — El administrador puede desactivar la IA para agentes individuales en cualquier momento
- Desactivacion organizacional — El administrador puede desactivar toda la IA para la organizacion completa
- Toggle por conversacion — Los agentes humanos pueden activar o desactivar la IA en cada conversacion individualmente
7.2 Derechos del Titular bajo la LGPD
En conformidad con el art. 20 de la LGPD (Ley N.o 13.709/2018), el titular de datos personales tiene el derecho de solicitar la revision humana de decisiones tomadas unicamente con base en tratamiento automatizado de datos personales que afecten sus intereses, incluyendo decisiones destinadas a definir su perfil personal, profesional, de consumo o de credito.
7.3 Derechos bajo el GDPR
En conformidad con el art. 22 del GDPR (Reglamento UE 2016/679), los titulares de datos tienen el derecho de no ser sometidos a decisiones tomadas exclusivamente con base en procesamiento automatizado, incluyendo la definicion de perfil, que produzca efectos juridicos o que los afecte significativamente.
7.4 Auditabilidad
Cada interaccion con IA se registra con contexto completo (entrada, salida, modelo, proveedor, latencia, tokens utilizados) en la pista de auditoria, permitiendo revision e investigacion posterior por administradores y, cuando sea aplicable, por autoridades reguladoras.
8. Sesgo, Equidad y No Discriminacion
- El guardrail no_discrimination se activa por defecto y no puede ser deshabilitado, garantizando que las respuestas discriminatorias sean bloqueadas en todos los escenarios
- Reconocemos que los modelos de IA pueden reflejar sesgos presentes en los datos de entrenamiento de los proveedores de LLM
- ChatSense monitorea patrones discriminatorios e implementa medidas correctivas cuando se identifican
- Los clientes que identifiquen respuestas potencialmente discriminatorias o sesgadas deben reportarlo inmediatamente a contato@chatsense.app
- Como no entrenamos modelos con datos de clientes, los sesgos identificados provienen de los modelos de los proveedores upstream (Google, OpenAI), y ChatSense aplica guardrails para mitigarlos
9. Responsabilidades del Cliente (Implantador/Deployer)
Al utilizar los recursos de Inteligencia Artificial de ChatSense, el cliente asume las siguientes responsabilidades:
- Configurar los agentes de IA con prompts de sistema (system prompts) adecuados a su contexto de negocio
- Revisar y mantener las configuraciones de guardrails de acuerdo con su sector de actividad
- Mantener el sistema de escalamiento activado para garantizar intervencion humana cuando sea necesario
- Monitorear las conversaciones de los agentes de IA regularmente
- Capacitar a los agentes humanos sobre supervision y control de calidad de los sistemas de IA
- Informar a los usuarios finales de que estan interactuando con un sistema de IA y no con un ser humano
- No deshabilitar guardrails de seguridad en sectores regulados (salud, financiero, juridico)
- Cumplir con las regulaciones sectoriales de IA aplicables a su industria
- Reportar incidentes de seguridad de IA de manera oportuna, conforme lo descrito en la Seccion 11
10. Limitacion de Responsabilidad y Exenciones
10.1 ChatSense NO es responsable de:
- Precision, completitud o actualidad del contenido generado por IA
- Decisiones tomadas por clientes o usuarios finales con base en respuestas de IA
- Perdidas, danos o perjuicios derivados de alucinaciones o respuestas incorrectas de la IA
- Multas, penalidades o sanciones regulatorias derivadas de las decisiones de implantacion de IA del cliente
- Reclamaciones de usuarios finales sobre interacciones con IA
- Fallas del cliente en configurar los guardrails de forma adecuada
- Fallas del cliente en mantener supervision humana sobre los agentes de IA
10.2 Asuncion de Riesgo por el Cliente
El cliente asume integramente los riesgos relacionados con:
- Implantacion de agentes de IA en el contexto de su negocio
- Contenido generado por agentes de IA configurados por el propio cliente
- Cumplimiento de regulaciones sectoriales de IA especificas de su industria
- Interacciones de los usuarios finales con los sistemas de IA
10.3 Limite Maximo de Responsabilidad
En cualquier caso, la responsabilidad total de ChatSense estara limitada al valor de los honorarios efectivamente pagados por el cliente en los ultimos 3 (tres) meses anteriores al evento que dio origen a la reclamacion.
10.4 Base Legal
Esta limitacion de responsabilidad se fundamenta en el art. 14, parrafo 3 del Codigo de Defensa del Consumidor (exclusion de responsabilidad) y en los arts. 18 y 19 del Marco Civil da Internet (Ley N.o 12.965/2014), que establecen que el proveedor de aplicacion no es responsable del contenido generado por terceros.
11. Incidentes de Seguridad de IA y Canal de Reporte
11.1 Canal de Reporte
Para reportar incidentes de seguridad relacionados con Inteligencia Artificial, comuniquese con:
Correo de Seguridad IA: seguranca-ia@chatsense.app
11.2 Que Constituye un Incidente de Seguridad de IA
- Generacion de contenido perjudicial, ofensivo o peligroso por parte de la IA
- Filtracion de datos personales o sensibles a traves de respuestas de IA
- Respuestas discriminatorias, prejuiciosas o sesgadas
- Acciones no autorizadas ejecutadas por agentes de IA
- Falla sistematica en los guardrails de seguridad
11.3 Plazos de Respuesta
- Confirmacion de recepcion: hasta 24 horas despues del reporte
- Investigacion inicial: hasta 72 horas despues del reporte
11.4 Remediacion
Las acciones de remediacion pueden incluir:
- Actualizacion de guardrails y salvaguardas de seguridad
- Cambio de modelos o proveedores de IA
- Endurecimiento de prompts (prompt hardening)
- Ajustes en las configuraciones de tono y seguridad
11.5 Transparencia
Los incidentes de seguridad de IA considerados materiales podran ser divulgados en avisos de seguridad (security advisories), en conformidad con los principios de transparencia y responsabilidad.
Contacto
Para consultas sobre esta Politica de Inteligencia Artificial:
ChatSense — Omega Capital Holding Gestao e Participacoes Empresariais Ltda
Correo general: contato@chatsense.app
Encargado de datos (DPO): privacidade@chatsense.app
Seguridad de IA: seguranca-ia@chatsense.app