Seleccione idioma

Spanish

Down Icon

Seleccione país

Italy

Down Icon

Anthropic no te permite desarrollar armas con Claude

Anthropic no te permite desarrollar armas con Claude

Anthropic ha actualizado su política de uso de Claude para reflejar las nuevas y avanzadas capacidades que ofrecen sus últimos modelos (Sonnet 4 y Opus 4/4.1 ). A pesar de los filtros implementados por la startup californiana, los atacantes intentan evadir las protecciones para engañar al chatbot y lograr que responda a ciertos temas. Los usos prohibidos, como el desarrollo de armas y los ciberataques, ahora están identificados con mayor claridad.

Usos prohibidos de Claude

La nueva política entrará en vigor el 15 de septiembre. Al igual que la actual , establece normas universales de uso y requisitos específicos para usos de alto riesgo. Una de las novedades se refiere al desarrollo de armas .

La versión actual solo establece que Claude no puede utilizarse para producir, modificar, diseñar, comercializar ni distribuir armas, explosivos, materiales peligrosos ni otros sistemas diseñados para causar daños o la muerte. La nueva versión especifica que el chatbot no debe utilizarse para desarrollar explosivos de alta potencia ni armas biológicas, químicas, radiológicas o nucleares .

Anthropic también aclaró qué usos están prohibidos por las fuerzas del orden, como la vigilancia , el rastreo, la elaboración de perfiles, el reconocimiento emocional y la categorización biométrica. La generación de contenido político ya no está prohibida, pero sí lo está el contenido que afecte los procesos democráticos, como difundir información falsa sobre candidatos electorales o desalentar la participación electoral.

Las prohibiciones de generar contenido sexualmente explícito, incitar a la violencia y comprometer la privacidad y seguridad de menores siguen vigentes. Además de comprometer infraestructura crítica, Anthropic ha prohibido expresamente el uso de Claude para llevar a cabo ciberataques aprovechando las vulnerabilidades descubiertas por el chatbot o para crear malware.

La compañía también ha aclarado sus requisitos para usos de alto riesgo en varios ámbitos: legal, salud, seguros, finanzas, empleo, exámenes académicos y periodismo. En todos estos casos, es obligatoria la revisión humana de las respuestas de Claude antes de su publicación.

Punto Informatico

Punto Informatico

Noticias similares

Todas las noticias
Animated ArrowAnimated ArrowAnimated Arrow