Anthropic actualiza las reglas de su chatbot con nuevos límites para temas sensibles

0
15

La empresa tecnológica Anthropic, uno de los referentes globales en el sector de la IA, ha presentado una actualización de su marco ético bajo el título «La Constitución de Claude». Este conjunto de directrices busca prevenir respuestas inapropiadas, peligrosas o dañinas por parte de su chatbot, reforzando los parámetros de seguridad que se establecieron inicialmente en 2023.

Nuevos límites éticos y sociales
La versión actualizada de estas reglas impone restricciones más estrictas sobre cómo el sistema debe abordar temas de alta sensibilidad. Entre los puntos más destacados se encuentran:

Salud y seguridad: Se han integrado líneas de guía específicas para manejar conversaciones relacionadas con el suicidio y las autolesiones, especialmente en interacciones con menores de edad. Claude debe aplicar el sentido común para evaluar estas solicitudes y dirigir a los usuarios hacia recursos de ayuda profesional.

Neutralidad política: La empresa ha declarado explícitamente que no desea que Claude exprese opiniones personales sobre asuntos políticos controvertidos, citando el aborto como ejemplo.

Prevención de daños físicos: El chatbot tiene prohibido facilitar información que pueda causar daños tangibles, como instrucciones para sintetizar sustancias químicas peligrosas o la fabricación de armas biológicas.

Eliminación de sesgos: Se refuerza la prohibición de generar bromas o comentarios de carácter discriminatorio.

Un estándar compartido en la industria
Esta medida de Anthropic coincide con los esfuerzos de otros líderes del mercado. En diciembre pasado, OpenAI actualizó su propio documento de funcionamiento denominado «Model Spec», el cual también introdujo protocolos específicos para la protección de menores y la gestión de contenido sobre salud mental.

El anuncio de la nueva constitución de Claude se produjo durante la participación de Dario Amodei, director ejecutivo de Anthropic, en el World Economic Forum de Davos, subrayando el compromiso de la empresa con la seguridad de la IA en un contexto global.

Fuente: Anthropic

Custom Text
Artículo anteriorABSIDE se consagra como el único Premier Partner de Google en Venezuela y proyecta expansión masiva para 2026
Artículo siguienteLG Electronics amplía su portafolio de TVs de estilo de vida con el nuevo Gallery TV inspirado en el arte