Detrás de cada sistema de inteligencia artificial no solo hay ingenieros y matemáticos: hay filósofos. Anthropic y DeepMind, dos de las empresas más influyentes en el desarrollo de IA, han incorporado equipos de filósofos profesionales para definir los valores, el criterio ético y los límites de sus modelos.
¿Por qué la filosofía en la IA?
La filosofía no es un adorno en estos equipos: es una necesidad técnica. Preguntas como ‘qué constituye un daño’, ‘cómo se pondera la autonomía del usuario frente a la seguridad’ o ‘qué significa que un modelo sea honesto’ son preguntas filosóficas con consecuencias directas en cómo se entrena y evalúa una IA.
El equipo de valores de Anthropic
Anthropic cuenta con un equipo dedicado específicamente a lo que internamente llaman ‘alignment’ y ‘model welfare’. Este equipo mezcla filósofos morales, científicos cognitivos y especialistas en ética aplicada. Su trabajo influye directamente en el diseño del sistema de instrucciones de Claude, los llamados ‘Constitutional AI’ principles.
La visión de DeepMind
DeepMind, por su parte, tiene una larga historia de publicar investigación en ética de IA. Su equipo de Safety and Ethics trabaja en conjunto con los investigadores de aprendizaje por refuerzo para asegurar que los sistemas sean seguros por diseño, no solo por restricciones externas.
¿Qué implica esto para los usuarios?
Para quienes usamos herramientas de IA en el día a día, esto significa que las decisiones sobre cómo responde Claude, Gemini o ChatGPT no son arbitrarias: reflejan posiciones filosóficas activas sobre responsabilidad, autonomía y bienestar. Entender esto es clave para usar estas herramientas con criterio.
En Octopus Agencia Digital seguimos de cerca los desarrollos en IA para integrarlos responsablemente en los proyectos de nuestros clientes.






