Anthropic limita a Claude: qué tipo de preguntas no responderá su inteligencia artificial

Anthropic, la empresa estadounidense especializada en inteligencia artificial, ha decidido reforzar la seguridad de su chatbot Claude, implementando límites claros sobre el tipo de preguntas que se negará a responder. Esta medida responde a preocupaciones internacionales sobre los posibles usos dañinos de la IA avanzada.
La actualización de la política de uso amplía las prohibiciones existentes, incluyendo explícitamente la prohibición de desarrollar explosivos de gran potencia y armas biológicas, nucleares, químicas o radiológicas (CBRN). Anteriormente, Claude ya estaba restringido para producir o distribuir materiales peligrosos, pero la nueva normativa detalla aún más los escenarios de riesgo.
Desde mayo de 2025, con la llegada de Claude Opus 4 y la implementación del sistema AI Safety Level 3, Anthropic busca dificultar que el modelo sea vulnerado o utilizado para asesorar sobre la creación de armas CBRN.
La compañía también actualizó las reglas sobre las funciones avanzadas de Claude, como Computer Use, que permite a la IA interactuar con la computadora del usuario, y Claude Code, orientada a desarrolladores. Anthropic alertó sobre los riesgos de estas capacidades, que incluyen abuso masivo, creación de malware y ciberataques.
Una novedad relevante es la sección “No comprometer sistemas informáticos o de red”, que prohíbe actividades como la detección de vulnerabilidades, distribución de código malicioso o ataques de denegación de servicio. Esto limita escenarios donde Claude podría ser utilizado como instrumento de cibercrimen sofisticado.
En materia política, la normativa evoluciona: Anthropic ahora regula solo los contenidos que sean engañosos o disruptivos para procesos democráticos, en lugar de prohibir todo desarrollo de campañas o lobby político. Los requisitos de seguridad elevados se aplican únicamente a operaciones orientadas al consumidor final, no en entornos de empresa a empresa.
La actualización coincide con mejoras técnicas de Claude, que ahora en su versión Sonnet 4 cuenta con una ventana de contexto de 1 millón de tokens, equivalentes a 750.000 palabras o 75.000 líneas de código. Este límite multiplica por cinco la capacidad anterior y supera incluso a GPT-5 de OpenAI.
Brad Abrams, responsable de producto en Anthropic, destacó que esta expansión de contexto es especialmente útil en desarrollo y codificación, beneficiando plataformas como GitHub Copilot, Windsurf y Cursor de Anysphere. La IA puede analizar grandes volúmenes de información en tiempo real, facilitando proyectos de ingeniería complejos y tareas que requieren interpretación profunda de código.
Con estas actualizaciones, Anthropic busca equilibrar innovación tecnológica y responsabilidad ética, asegurando que Claude sea una herramienta potente, pero segura y confiable. Los usuarios deben ser conscientes de las limitaciones del modelo, especialmente en contextos de alto riesgo, mientras que las empresas pueden aprovechar la nueva capacidad de contexto para proyectos de largo alcance y análisis de datos complejos.
La Verdad Yucatán