Política de IA Responsable
Última actualización: 30 de abril de 2026
INTEGRACIONES TECNOLÓGICAS LANDAII SA DE CV · Versión: 1.0
1. Propósito y Alcance
La presente Política de IA Responsable expresa el compromiso público de Landaii con un uso ético, transparente y consciente de la inteligencia artificial. Aplica a:
- El uso de modelos de IA por parte del equipo de Landaii durante el desarrollo de software para clientes.
- Los agentes IA en producción desplegados como parte de planes contratados (Ciclo Activo, agentes integrados en aplicaciones de gestión).
- Cualquier funcionalidad asistida por IA dentro del ecosistema Landaii (búsqueda inteligente, sugerencias, generación de contenido, etc.).
Esta política es complementaria al Aviso de Privacidad, los Términos y Condiciones del Servicio, la Política de Uso Aceptable (AUP) y al DPA. Forma parte del marco contractual con cada Cliente.
2. Principios Rectores
Toda decisión relativa al uso de IA en Landaii se rige por los siguientes principios:
- Transparencia: informamos al Cliente y, cuando procede, a sus usuarios finales, qué partes del servicio son operadas por IA y qué no.
- Supervisión humana: todas las decisiones consecuentes (despliegue de código, contenido publicado, configuración de agentes, recomendaciones críticas) son revisadas por una persona del equipo de Landaii o del Cliente antes de surtir efecto.
- Privacidad por diseño: la IA opera bajo los mismos principios de minimización de datos, propósito limitado y seguridad que el resto del sistema.
- No decisiones automatizadas con efectos jurídicos: Landaii no usa IA para tomar decisiones que produzcan efectos jurídicos sobre personas, ni permite que sus agentes lo hagan en aplicaciones del Cliente.
- Mejora continua: evaluamos periódicamente el desempeño de los modelos, revisamos sesgos detectados y actualizamos prácticas conforme la tecnología y el marco regulatorio evolucionan.
- Honestidad sobre limitaciones: comunicamos abiertamente las limitaciones técnicas de la IA al Cliente y a sus usuarios finales.
3. Cómo Usamos IA en Landaii
3.1 IA en el Desarrollo de Software
Landaii utiliza modelos de IA (asistentes de programación, generación de pruebas, revisión de código) como parte del flujo de trabajo del equipo de desarrollo.
Garantías que aplicamos:
- Todo código generado por IA es revisado, integrado y validado por una persona del equipo técnico antes de su despliegue.
- No subimos datos confidenciales del Cliente (credenciales, datos de producción, secretos) a herramientas de IA externas. Cuando se requiere contexto, usamos datos sintéticos o anonimizados.
- Los proveedores de IA usados en desarrollo están bajo acuerdos contractuales que prohíben el entrenamiento de modelos generales con nuestro código.
3.2 Agentes IA en Producción (Ciclo Activo y Agentes Integrados)
Cuando un plan incluye agentes IA en producción, su funcionamiento se basa en:
- Modelos fundacionales de terceros (Anthropic Claude, OpenAI GPT u otros) operados bajo políticas que prohíben usar las conversaciones para entrenar modelos generales.
- Base de conocimiento curada por el Cliente que el agente consulta para responder dentro del dominio del negocio.
- Sistema de prompts y guardarraíles diseñado por Landaii para limitar al agente al rol comercial o de soporte definido.
- Mecanismos de escalado a humano cuando la conversación excede el alcance del agente o el usuario lo solicita.
3.3 IA en Operación Interna
Internamente, Landaii usa modelos de IA para tareas como redacción de documentación, análisis de transcripciones de reuniones y soporte a la atención de tickets. Estos usos no afectan directamente al servicio contratado por el Cliente, pero se rigen por las mismas garantías de privacidad y seguridad.
Aviso Importante
A pesar de las precauciones, mitigaciones y supervisión humana descritas en esta política, el uso de tecnologías de inteligencia artificial conlleva riesgos inherentes que no pueden ser eliminados por completo. Esta sección los enumera de forma honesta para que el Cliente pueda contratar el servicio con pleno conocimiento de causa.
4. Riesgos Inherentes y Limitaciones de la IA
4.1 Alucinaciones e Inexactitudes
Los modelos de IA pueden producir respuestas que parecen plausibles pero son fácticamente incorrectas o internamente inconsistentes. El riesgo no se elimina; solo se reduce.
Implicación práctica: las respuestas de un agente IA no deben tratarse como verdad absoluta. El Cliente debe revisar respuestas de impacto antes de actuar sobre ellas.
4.2 Sesgos Heredados
Los modelos fundacionales aprenden de grandes corpus de texto que reflejan los sesgos de la sociedad. Estos sesgos pueden manifestarse en respuestas discriminatorias o lenguaje culturalmente insensible.
Implicación práctica: si el Cliente usa el agente en contextos sensibles (recursos humanos, atención de poblaciones vulnerables), debe diseñar revisión humana sistemática.
4.3 Inconsistencia entre Respuestas
Los modelos generativos no son deterministas: ante la misma pregunta pueden producir respuestas distintas en momentos diferentes.
Implicación práctica: un agente IA no es una fuente única de verdad para procesos que exijan respuestas idénticas en cada interacción.
4.4 Dependencia de Proveedores Externos
Los modelos fundacionales son provistos por terceros. Los siguientes eventos están fuera del control directo de Landaii: caídas de APIs, cambios en políticas o precios, actualizaciones de modelo, discontinuación de versiones.
4.5 Datos Sensibles y Privacidad
Cualquier contenido enviado al agente será procesado por modelos de terceros bajo contrato. Aunque dichos contratos prohíben el entrenamiento de modelos generales con esos datos, el dato sale temporalmente del entorno controlado de Landaii para ser procesado.
Implicación práctica: el Cliente no debe cargar datos personales sensibles o secretos comerciales críticos a la base de conocimiento del agente sin haber evaluado el riesgo.
4.6 Riesgos Específicos de Agentes Públicos
Los agentes expuestos a usuarios finales están sujetos a:
- Prompt injection: intentos deliberados de manipular las instrucciones del agente.
- Jailbreaking: técnicas para inducir al modelo a producir contenido prohibido.
- Uso adversarial: intentos de saturar al agente o extraer su prompt de sistema.
- Contenido inesperado: aún con guardarraíles, un agente puede ocasionalmente producir contenido inadecuado.
4.7 No Sustituye Asesoría Profesional
Las respuestas de cualquier agente IA de Landaii NO sustituyen asesoría profesional en materias como medicina, derecho, finanzas o ingeniería estructural.
5. Mitigaciones que Aplicamos
5.1 Diseño y Configuración
- Prompts de sistema diseñados para limitar el alcance del agente al rol definido.
- Guardarraíles que rechazan solicitudes fuera de dominio o intentos de manipulación.
- Base de conocimiento curada por el Cliente como fuente prioritaria.
- Configuración de temperatura y parámetros según el caso de uso.
5.2 Operación
- Rate limiting por sesión y por IP para prevenir abusos.
- Logging completo de conversaciones para auditoría posterior.
- Mecanismos de escalado a humano integrados en el flujo del agente.
- Kill switch que permite desactivar al agente de forma inmediata ante comportamiento anómalo.
5.3 Evaluación Continua
- Revisión periódica de muestras de conversaciones para detectar errores y oportunidades de mejora.
- Iteración de prompts y base de conocimiento conforme se identifican gaps.
- Monitoreo de métricas: tasa de escalado, tasa de respuestas con guardarraíles, satisfacción del usuario.
6. Responsabilidad Compartida
6.1 Responsabilidades de Landaii
- Diseñar la arquitectura del agente y los guardarraíles iniciales conforme al caso de uso del Cliente.
- Operar la infraestructura técnica con las medidas de seguridad descritas en la Política de Seguridad.
- Mantener acuerdos contractuales con los proveedores de modelos que protejan los datos del Cliente.
- Notificar al Cliente cambios relevantes en proveedores, modelos o políticas.
6.2 Responsabilidades del Cliente
- Proveer una base de conocimiento veraz, actualizada y libre de información sobre la cual no tenga derechos.
- Comunicar a sus usuarios finales que están interactuando con un agente automatizado.
- Revisar las respuestas del agente en aspectos críticos para su negocio antes de actuar sobre ellas.
- Mantener un canal para que sus usuarios reporten respuestas incorrectas o inapropiadas.
- No utilizar al agente para casos de uso prohibidos ni para sustituir asesoría profesional cuando ésta sea legalmente requerida.
7. Casos de Uso Prohibidos
Landaii no permite que sus agentes IA se utilicen para:
- Tomar decisiones automatizadas con efectos jurídicos significativos sobre personas.
- Generar contenido engañoso, deepfakes o suplantar la identidad de personas reales.
- Producir o difundir desinformación electoral, manipulación política o propaganda dirigida.
- Ofrecer asesoría médica, legal o financiera sin la supervisión de un profesional acreditado.
- Evaluar, perfilar o vigilar personas con base en categorías protegidas.
- Cualquier conducta prohibida por la Política de Uso Aceptable (AUP).
8. Datos y Entrenamiento de Modelos
- No entrenamos modelos generales con los datos, conversaciones o documentos del Cliente.
- Acuerdos con proveedores: todos los proveedores están bajo contrato que prohíbe el uso de datos para entrenamiento de modelos generales.
- Fine-tuning a la medida: si un Cliente desea fine-tunear un modelo con sus propios datos, se firma un anexo específico.
- Datos para mejora del agente del Cliente: Landaii puede usar el contenido de las conversaciones exclusivamente para mejorar ese agente del Cliente, nunca para otros.
9. Supervisión Humana en Decisiones Consecuentes
Cuando el agente IA participe en decisiones de impacto significativo sobre el usuario final, debe existir un punto de revisión humana antes de la materialización de la decisión. El Cliente se compromete a identificar esas decisiones, garantizar que el usuario pueda solicitar revisión humana en cualquier momento, y conservar registro de las decisiones tomadas con apoyo de IA.
10. Reportes y Feedback
Cualquier persona puede reportar comportamientos inadecuados de los agentes IA de Landaii a través de:
- Reportes de IA: ia@landaii.com
- Reportes de abuso o uso indebido: abuso@landaii.com
Contacto
Reportes y consultas sobre IA: ia@landaii.com
Privacidad: privacidad@landaii.com
Soporte general: hola@landaii.com
Dirección: Avenida Antea 1088, Piso 3, Jurica, Querétaro, México, C.P. 76100