De OpenAI a Meta: Las organizaciones sin fines de lucro afirman que el desarrollo de la IA no es seguro

0
14
Imagen creada con Gemini IA.

Las principales empresas de inteligencia artificial como OpenAI, Anthropic, xAI y Meta tienen prácticas de seguridad para los proyectos de IA «muy lejos de los estándares globales». Los riesgos más importantes siguen sin resolverse, según el informe.

Así lo afirma un informe de la organización sin fines de lucro Future of Life Institute, que publica periódicamente evaluaciones sobre las empresas del sector y que ya ha criticado anteriormente la llegada incontrolada de sistemas de razonamiento avanzado.

El instituto, que cuenta con Tesla entre sus financiadores, afirmó en su último «Índice de seguridad de la IA» que el objetivo principal de las grandes tecnológicas del sector sigue siendo alcanzar la IAG, la inteligencia artificial general, pero «sin tener ningún plan para el control de esta tecnología, lo que deja sin resolver los riesgos más importantes».

El estudio evaluó a las empresas en seis áreas: La evaluación de los riesgos, los daños actuales, el marco de seguridad, la seguridad existencial, la gobernanza y la responsabilidad, y el intercambio de información.

Con una nota expresada de la A a la F, ninguna de las ocho principales empresas de IA del mundo (Anthropic, OpenAI, Google DeepMind, xAi, Z.ai, Meta, DeepSeek, Alibaba Cloud) superó la C, como calificación global. A la china DeepSeek se le asigna una F en seguridad empresarial, mientras que OpenAI obtiene una B en transparencia en el intercambio de información.

Para el Future of Life Institute, no hay ninguna empresa que cumpla con los requisitos «previstos por el Código de Conducta de la Unión Europea sobre inteligencia artificial».

Fuente: Web. Editado por CDOL

Custom Text
Artículo anteriorEl «código rojo» en OpenAI: Sam Altman presiona a los empleados por el avance de sus rivales
Artículo siguienteHPE integra Aruba y Juniper en una red nativa de inteligencia artificial